Twitter-Nutzer entdecken potenzielle Rassenverzerrungen im Auto-Crop-Algorithmus

Twitter-Nutzer entdecken potenzielle Rassenverzerrungen im Auto-Crop-Algorithmus - twitter racial bias algorithm

Twitter versucht herauszufinden, warum seine Fotovorschau-Funktion Anzeichen von rassistischer Voreingenommenheit zeigt. Mehrere Benutzer stellten fest, dass schwarze Gesichter im Vergleich zu weißen Gesichtern eher aus der Fotovorschau herausgeschnitten wurden.

Wenn Sie ein Bild auf Twitter sehen, ist es nur eine Vorschau – Sie müssen darauf klicken, um das gesamte Bild zu sehen. Twitter verwendet einen Algorithmus zum Zuschneiden von Fotos und bestimmt, was in der Bildvorschau angezeigt wird.

Im Jahr 2018 kündigte Twitter in einem Beitrag im Twitter-Blog seine Funktion zum intelligenten automatischen Zuschneiden an. Diese Funktion verwendet "Ausstrahlung", um die wichtigsten Teile von Fotos zu verbessern, und schneidet dann die Fotovorschau entsprechend zu.

Twitter-Nutzer stellten fest, dass das neuronale Netzwerk der Plattform möglicherweise eine rassistische Tendenz aufweist. Ein Benutzer hat neben dem ehemaligen Präsidenten Barack Obama ein Bild von US-Senator Mitch McConnell gepostet.

Die Bildvorschau schneidet Obamas Gesicht eklatant aus, selbst wenn sein Gesicht oben auf dem Foto platziert ist. Als derselbe Benutzer versuchte, die Farben des Bildes umzukehren, wurde Obamas Gesicht schließlich in der Bildvorschau angezeigt.

Andere Benutzer begannen, ihre eigenen Experimente durchzuführen. Immer wieder stellten Benutzer fest, dass der Algorithmus durchweg weiße Gesichter gegenüber schwarzen Gesichtern zu bevorzugen schien.

Liz Kelley, ein Mitglied des Twitter-Kommunikationsteams, hat als Antwort auf die Ergebnisse der Twitter-Nutzer einen Tweet verschickt. Sie merkte an, dass das Twitter-Team den Algorithmus zwar bereits auf Voreingenommenheit getestet habe, ihn jedoch weiter untersuchen müsse.

Alle diese Entdeckungen stammten aus dem Tweet eines Benutzers über ein Zoom-Anrufproblem . Zoom konnte das Gesicht seines schwarzen Freundes immer wieder nicht erkennen, als er versuchte, einen virtuellen Hintergrund zu verwenden. Als sich der Benutzer an Twitter wandte, um Screenshots des Problems zu veröffentlichen, hat Twitter seinen schwarzen Freund aus der Bildvorschau entfernt.

Während all diese Experimente informell sind, scheinen sie ein echtes Problem hervorzuheben. Twitter muss sich auf jeden Fall seine Auto-Crop-Funktion genauer ansehen und herausfinden, ob es eine tief verwurzelte rassistische Tendenz hat.

Der Auto-Crop-Algorithmus von Twitter ist jedoch nicht die einzige Twitter-Funktion, die kritisiert wurde. Schließlich sind viele Benutzer auch keine Fans des Plattformalgorithmus, der Ihren Feed automatisch anordnet.