1. 24hamburg
  2. Niedersachsen

Facebook-Algorithmus: Künstliche Intelligenz hält schwarze Menschen für Affen

Erstellt:

Von: Mark Stoffers

Kommentare

Facebook-Alghoritmus hält schwarze Menschen für Affen.
Neue Rassismus-Vorwürfe gegen Facebook. Künstliche Intelligenz setzt schwarze Menschen mit Primaten gleich. © Miroslav Chaloupka/picture alliance/dpa

Facebook steht in der Kritik. Nach einem Video über einen rassistischen Vorfall verwechselt die Künstliche Intelligenz schwarze Menschen mit Affen.

Menlo Park/Kalifornien – Social-Media-Riese Facebook muss sich einiges an Kritik gefallen lassen. Denn der Online-Gigant von Gründer Mark Zuckerberg hat einige Probleme mit der eigens entwickelten Künstlichen Intelligenz des Unternehmens. Ursache: User, die sich einen Clip über einen rassistischen Vorfall in den USA anschauten, bekamen als weitere Vorschläge „Videos über Primaten“ vorgeschlagen.

Unternehmen:Facebook Inc.
Hauptsitz:Menlo Park (Kalifornien, USA)
CEO:Mark Zuckerberg (4. Feb. 2004–)
Gründung:Februar 2004, Cambridge, Massachusetts, Vereinigte Staaten
Gründer:Gründer: Mark Zuckerberg, Eduardo Saverin, Dustin Moskovitz, Andrew McCollum, Chris Hughes

Facebook-Algorithmus: Künstliche Intelligenz ordnet nach Video schwarze Menschen als Affen ein

Facebook entschuldigte sich umgehend. Das geht aus einem Medienbericht der New York Times hervor.

Dem Algorithmus von Facebook unterlief der Fehler und verwechselte augenscheinlich schwarze Menschen mit Affen. Dies bestätigte die Facebook-Sprecherin Dani Lever am Freitag in einer Stellungnahme des Unternehmens. Das Problem trat nach übereinstimmenden Medienberichten bei einem Video des britischen Boulevard-Blatts Daily Mail auf.

Demnach wurden die Facebook-Nutzer gefragt, ob sie sich weiterhin Videos über Primaten anschauen möchten, nachdem sich die Social-Media-User ein Video angeschaut hatten, das den Titel trug: „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“.

Facebook-Algorithmus: Unternehmenssprecherin bezeichnet Vorfall als „eindeutig inakzeptablen Fehler“

Die Sprecherin suchte nicht die Flucht nach vorn, sondern benannte diese Entgleisung als „eindeutig inakzeptablen Fehler“. Des Weiteren wurde nach Bekanntwerden des Fehlers die entsprechende Software direkt vom Netz genommen. „Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat“, erklärte die Sprecher von Facebook gegenüber der New York Times.

Eine Person schaut durch eine Glaskugel auf einem Tablet auf die Facebook App.
Neue Rassismus-Vorwürfe gegen Facebook. Künstliche Intelligenz setzt schwarze Menschen mit Primaten gleich. © picture alliance/dpa | Uli Deck

Als eines der führenden Social-Media-Unternehmen nutzt Facebook bereits seit Jahren die unterschiedlichsten Formen von künstlicher Intelligenz. Hierbei steht vor allem die Personalisierung der Inhalte für die eigenen Nutzer der Online-Plattform im Vordergrund. Hierbei spielt auch zunehmend der Einsatz von Gesichtserkennung eine immer größerer Rolle.

Besonders diese ist aber immer wieder Bürgerrechtlern ein Dorn im Auge, da es immer wieder zu Fehlern bei der Genauigkeit kommt. Darüber hinaus nimmt die Künstliche Intelligenz auch eine wichtige Rolle bei der Moderation von Inhalten ein. Im Vordergrund steht hier die Moderation von problematischen Nachrichten und Bildern, um diese nicht nur zu erkennen, sondern im exzessivsten Fall direkt zu blockieren.

Künstliche Intelligenz bei Facebook: Algorithmus unterlaufen immer wieder Fehler

Den aktuellsten Fall deckte nun die ehemalige Facebook-Mitarbeiterin Darci Groves auf. Eine Freundin hatte ihr den Screenshot zugesandt, den sie umgehend Produktfeedback-Forum, das für derzeitige und ehemalige Mitarbeiterinnen und Mitarbeiter besteht. Ein Produktmanager der Videoabteilung, Facebook Watch, kam der Vorfall unter und nahm sich dem Problem mit den Worten an: „Inakzeptabel“ und gab zu verstehen, dass das Unternehmen dem „Problem bis auf die Wurzel auf den Grund gehen wird“.

Doch die Wurzel allen Übels sei damit nicht behoben. Jedenfalls nicht in den Augen der ehemaligen Mitarbeiterin. Sie äußerte gegenüber der New York Times harsche Kritik: „Facebook kann nicht immer wieder diese Fehler machen und sagen ‚wir entschuldigen uns‘.“

Kein Einzelfall: Facebook und Instagram haben immer wieder Probleme mit dem eigenen Algorithmus

Tatsächlich reiht sich der neueste Fall in eine schon längere Liste ein. Denn sowohl Facebook als auch Instagram sind in der jüngeren Vergangenheit mit Themen im Zusammenhang mit den verschiedensten Ethnien in Verruf geraten.

Ein sehr prominentes Beispiel war der Rassismus-Eklat nach der Europameisterschaft 2021 in England*. Dort waren die schwarzen Schützen, die im Finale gegen Italien ihre Elfmeter verschossen hatten, aufs übelste rassistisch beleidigt worden.

Fehler beim Facebook-Algorithmus: Google und Amazon mussten sich in der Vergangenheit ähnliche Vorwürfe anhören

Auch Google, Amazon und andere Technologie-Unternehmen haben mit Vorurteilen in ihren Künstlichen Intelligenz zu kämpfen. So musste sich Google den Vorwurf im Jahr 2015 gefallen lassen, dass Google Photos fehlerhafterweise Bilder von schwarzen Menschen mit dem Wort „Gorillas“ kennzeichnete.

Darüber hinaus haben diverse unabhängige Studien bewiesen, dass Gesichtserkennung People of Color (PoC) scheinbar mit Vorurteilen einordnet und Probleme haben, diese richtig zu identifizieren. Dieser Umstand führte dazu, dass vorwiegend schwarze Menschen aufgrund dieser Computerfehler diskriminiert oder sogar festgenommen wurden.

Ob Facebook aus dem neuerlichen Eklat lernt, kann aufgrund der Geschichte wohl bezweifelt werden. Doch die Hoffnung überwiegt, dass nicht nur die Künstliche Intelligenz und der Algorithmus dazulernen, sondern vielleicht auch das Unternehmen selbst. * kreiszeitung.de und 24hamburg.de ein Angebot von IPPEN.MEDIA.

Auch interessant

Kommentare