Racial Profiling:
Twitter löst mit Bild-Algorithmus Empörung aus
Ein Twitter-Nutzer hat mit einem Experiment herausgefunden, dass die künstliche Intelligenz von Twitter für Gesichtserkennung Menschen mit weißer Haut bevorzugt. Der Kurznachrichtendienst ermittelt.
Knapp 60.000 Retweets und 185.000 Likes hat ein Experiment von Twitter-Nutzer Tony Arcieri erhalten. Der Inhalt: Arcieri hat verschiedene Bilder gepostet, auf denen sowohl der ehemalige US-Präsident Barack Obama als auch der US-Politiker Mitch McConnell abgebildet sind. Auf der Twitter-Vorschau taucht aber nur McConnell auf.
Liegt hier Racial Profiling vor? Das behaupten jetzt mehrere Twitter-Nutzer. Eigentlich wird die künstliche Intelligenz von Twitter für Gesichtserkennung eingesetzt. Die Gesichter von Menschen in Porträtbildern sollen in der Vorschau stärker in den Mittelpunkt gerückt werden. Mit dem Experiment von Arcieri löst Twitter mit seinem Algorithmus Empörung aus. Man könnte annehmen, dass der Twitter-Algorithmus weiße Gesichter bevorzuge.
Racial Profiling - wahrscheinlich nicht mit Absicht
Ein anderer Twitter-Nutzer behauptet, dass dieses Experiment die voreingenommene Denkweise von Entwicklern und Programmierern beweist. Andere sind der Meinung, dass es problematisch sei, anhand nur einiger Beispiele von Racial Profiling zu sprechen. Um die Verzerrung wirklich beurteilen zu können, benötigen Forscher eine umfangreichere Stichprobengröße mit mehreren Beispielen.
Mittlerweile hat sich Twitter-Sprecherin Liz Kelley zu diesem Thema geäußert. "Vielen Dank an alle, die das angesprochen haben. Wir haben vor der Auslieferung des Modells auf Verzerrungen getestet und bei unseren Tests keine Hinweise auf rassistische oder geschlechtsspezifische Verzerrungen gefunden, aber es ist klar, dass wir noch mehr Analysen durchführen müssen. Wir werden unsere Arbeit als Open Source veröffentlichen, damit andere sie überprüfen und replizieren können."
Im Jahr 2018 veröffentlichte Twitter einen Blog-Beitrag, in dem erläutert wurde, wie die KI für die Fotovorschau gebaut wurde. Einer der Faktoren, die das System veranlassen, einen bestimmten Teil eines Bildes auszuwählen, sind höhere Kontraststufen. Das könnte erklären, warum das System weiße Gesichter zu bevorzugen scheint.