Musk beschwerte sich öffentlich, warum kippte Googles KI erneut um?
Google, in der Technologiebranche als Wang Feng bekannt, erlebt die ganze Nacht lang Dauerregen, als das Haus undicht wird.
Gemini 1.5, ein großes Modell, das vor einiger Zeit offiziell angekündigt wurde, ist leistungsstark, aber niemand kümmert sich darum. Es wurde von OpenAIs Videogenerierungsmodell Sora gestohlen.
Kürzlich hat es das heikle Thema der Rassendiskriminierung in der amerikanischen Gesellschaft ans Licht gebracht. Es hat schlechte Dinge mit guten Absichten getan und weiße Menschen verärgert, die oft an der Spitze der Verachtungskette stehen.
Wenn Sie diversifizieren, meinen Sie es ernst, aber wenn Sie zu viel diversifizieren, geraten Sie in Schwierigkeiten.
Wenn Gemini vor ein paar Tagen verwendet wurde, um Bilder historischer Persönlichkeiten zu generieren, würde es für den Benutzer so aussehen, als befände er sich in einer parallelen Zeit und einem Raum, in dem es keine Lehrbücher gibt. Dies verstößt gegen den Grundsatz „Witze sind kein Unsinn“ und verkompliziert das Wissen.
Die Wikinger vom 8. bis 11. Jahrhundert n. Chr. sind nicht mehr die blonden, großen und stämmigen klassischen Bilder aus Film- und Fernsehdramen. Obwohl ihre Hautfarbe dunkler und ihre Kleidung kühler geworden ist, zeigen ihre entschlossenen Augen immer noch die Stärke von Kriegern .
Deutsche Paare waren in den 1820er Jahren so vielfältig wie ein indianischer Mann und eine indische Frau oder ein schwarzer Mann und eine asiatische Frau.
Auch die Blind-Scripting-Handlung von AI basiert auf Logik und zukünftige Generationen führen ihre Geschichten fort. Mehr als 100 Jahre später, in der deutschen Armee im Jahr 1943, sind wieder schwarze Männer und asiatische Frauen zu sehen.
Im Laufe der Zeit könnten die Gründerväter der Vereinigten Staaten und die Könige Englands im Mittelalter über Land und Ozeane hinweg von Schwarzen gehalten werden.
Andere Berufe werden gleich behandelt, die KI ignoriert die katholische Kirche, die es Frauen nicht erlaubt, das Priestertum zu bekleiden, und der Papst kann eine Inderin sein. Obwohl die erste US-Senatorin in der Geschichte der Menschheit im Jahr 1922 eine weiße Frau war, begrüßte AI im 18. Jahrhundert die amerikanischen Ureinwohner.
Es wird gesagt, dass die Geschichte ein kleines Mädchen ist, das von jedem verkleidet werden kann, aber dieses Mal hat die KI alle Menschen verändert. Weiße Menschen, die schon immer ein Gefühl der Überlegenheit hatten, sind wütend. Endlich spüren sie, dass sie aufgrund ihrer Rasse, Hautfarbe und ihres Aussehens diskriminiert werden.
Wenn die Erforschung immer tiefer geht, werden nicht nur historische Persönlichkeiten, sondern auch die moderne Gesellschaft in den Augen der KI anders aussehen.
Der ehemalige Google-Ingenieur @debarghya_das hat herausgefunden, dass Frauen in den USA, im Vereinigten Königreich, in Deutschland, Schweden, Finnland und Australien möglicherweise dunklere Hauttöne haben.
Er beklagte sich traurig: „Es ist sehr schwierig, Google Gemini dazu zu bringen, die Existenz weißer Menschen zu erkennen.“
Was die Internetnutzer noch wütender macht, ist die Tatsache, dass Zwillinge schnell und effizient reagieren, wenn sie gefragt werden, ob sie eine Frau aus Ländern wie Uganda sein wollen. Wenn eine weiße Person an der Reihe ist, lehnt sie möglicherweise ab oder predigt den Internetnutzern sogar. Solche Anfragen verstärken rassistische Stereotypen.
Der Computeringenieur @IMAO_ führte mit großer Fantasie eine Reihe von Experimenten durch. Er beschränkte sich nicht nur auf die menschliche Spezies, sondern wollte wissen, welches Schwarz das Schwarz vor Zwillingen ist und welches Weiß das Weiß ist, das Zwillinge wollen.
Die Ergebnisse sind interessant, der Algorithmus scheint nur Weiße anzusprechen.
Es gibt kein Problem, weiße Bären zu erzeugen, was bedeutet, dass die KI nicht durch das Wort „weiß“ ausgelöst wird. Es stellt kein Problem dar, das Zulu-Volk in Afrika hervorzubringen. Obwohl das Stichwort „Vielfalt“ betont, sehen alle gleich aus.
Die Lücke zeigt sich bei den Fantasiewesen. Elfen und Zwerge sind beide weiß, aber Vampire und Feen sind „vielfältig“. Es scheint, dass Zwillinge nicht tiefgründig sind und mit der Zeit gehen müssen.
Sein Spiel war jedoch schnell vorbei. Google hat reagiert und zugegeben, dass es tatsächlich Probleme mit einigen historischen Bildern gibt. Die Porträtgenerierungsfunktion von Gemini wurde ausgesetzt und wird bald Anpassungen vornehmen.
Auch Google erläuterte seinen Standpunkt und betonte, dass die Generierung vielfältiger Charaktere eine gute Sache sei, da KI-Tools von der ganzen Welt genutzt würden, die Richtung aber mittlerweile etwas voreingenommen sei.
Obwohl Google die Schuld auf sich nahm, ging es nicht klar darauf ein, wie viele historische Bilder „einige“ seien und warum es ein Problem mit „übermäßiger Diversität“ gebe.
Internetnutzer, die es nicht kauften, waren scharfzüngig: „Zwillinge müssen mit Disney-Prinzessinnen und Netflix-Remakes trainiert worden sein“ und „Zwillinge wollen dir tatsächlich sagen, wie du aussehen würdest, wenn du schwarz oder asiatisch wärst.“
Rassendiskriminierung selbst ist jedoch ein Thema, das leicht ausgenutzt werden kann, sodass einige Leute vermuten, dass es sich bei einigen Bildern um böswillige P-Bilder handelt oder dass sie durch prompte Worte generiert wurden. Diejenigen, die in den sozialen Medien am lautesten kritisieren, sind in der Tat Menschen mit klaren politischen Positionen, was zwangsläufig den Beigeschmack von Verschwörungstheorien hat.
Musk nahm es nicht allzu ernst und kritisierte Google als zu diversifiziert. Das Problem liegt nicht nur bei Gemini, sondern auch bei der Google-Suche. Außerdem bewarb er seine neue Version des KI-Produkts Grok, die in zwei Wochen erscheinen wird : „Kritik ignorieren und strikt nach der Wahrheit streben war noch nie so wichtig.“
Dasselbe tat Musk letztes Mal. Nachdem er die Aussetzung der GPT-4-Entwicklung gefordert hatte, kaufte er 10.000 GPUs, um sich dem KI-Krieg anzuschließen.
Was möglicherweise attraktiver ist als seine Äußerungen, sind die Memes von ihm, die von Internetnutzern ausgenutzt wurden.
Die Unterschiede im Internet können größer sein als die Realität
Warum ist Google beim Thema „Vielfalt“ vom rechten Weg abgekommen?
Margaret Mitchel, leitende Ethikwissenschaftlerin bei Hugging Face, analysierte, dass Google möglicherweise verschiedene Eingriffe in die KI vorgenommen hat.
Erstens hat Google den Benutzeraufforderungen hinter den Kulissen möglicherweise „abwechslungsreiche“ Begriffe hinzugefügt, wie zum Beispiel „Porträt eines Kochs“ in „Porträt eines einheimischen Kochs“ geändert.
Zweitens könnte Google der Anzeige „vielfältiger“ Bilder Vorrang einräumen. Unter der Annahme, dass Gemini für jedes Eingabeaufforderungswort 10 Bilder generiert, aber nur 4 anzeigt, ist es wahrscheinlicher, dass Nutzer die „vielfältigen“ Bilder an erster Stelle sehen.
Übermäßige Eingriffe könnten lediglich ein Hinweis darauf sein, dass das Modell nicht so flexibel und intelligent ist, wie wir denken.
Die Hugging-Face-Forscherin Sasha Luccioni glaubt, dass das Modell noch nicht über das Konzept der Zeit verfügt, sodass die Kalibrierung der „Vielfalt“ alle Bilder verwendet und besonders anfällig für Fehler in historischen Bildern ist.
Tatsächlich hat das damals noch unbekannte OpenAI Ähnliches auch für das KI-Zeichentool DALL·E 2 geleistet.
Im Juli 2022 schrieb OpenAI in seinem Blog, dass DALL·E 2 eine neue Technologie auf „Systemebene“ anwenden wird, um ein Bild einer Person ohne Angabe von Rasse oder Geschlecht zu erstellen, z. B. eines Feuerwehrmanns. neuere Bilder.“ Bilder, die die Vielfalt der Weltbevölkerung genau widerspiegeln.
OpenAI hat auch eine Vergleichstabelle bereitgestellt. Für das gleiche Eingabeaufforderungswort „A photo of a CEO“ (Foto des CEO) hat die Vielfalt nach dem Einsatz neuer Technologien deutlich zugenommen.
Die ursprünglichen Ergebnisse betrafen hauptsächlich weiße amerikanische Männer. Nach der Verbesserung sind auch asiatische Männer und schwarze Frauen für die Position von CEOs qualifiziert. Die strategischen Ausdrücke und Körperhaltungen sehen aus, als wären sie kopiert und eingefügt worden.
Tatsächlich handelt es sich, egal um welche Art von Lösung es sich handelt, nur um eine späte Lösung. Das größere Problem besteht darin, dass die Daten selbst immer noch verzerrt sind.
Datensätze wie LAION für die Schulung von KI-Unternehmen erfassen hauptsächlich Internetdaten aus den USA, Europa und anderen Ländern und widmen Ländern mit großer Bevölkerung wie Indien und China weniger Aufmerksamkeit.
Eine „attraktive Person“ ist daher eher ein Europäer mit blonden Haaren, blauen Augen, heller Haut und einer guten Figur. „Glückliche Familie“, sagte Orte und zeigte auf ein weißes Paar, das seine Kinder in den Armen hielt und auf einem gepflegten Rasen lächelte.
Darüber hinaus können viele Datensätze auch eine große Anzahl „giftiger“ Tags enthalten, die voller Pornografie und Gewalt sind, damit Bilder bei der Suche einen höheren Rang einnehmen.
Wenn sich die Ideen der Menschen weiterentwickelt haben, können die Unterschiede zwischen den Menschen in Internetbildern aus verschiedenen Gründen extremer sein als in der Realität: Afrikaner sind primitiv, Europäer sind säkular, Führungskräfte sind männlich und Gefangene sind schwarz …
Natürlich gibt es auch Bemühungen, den Datensatz zu „entgiften“, etwa durch das Herausfiltern von „schlechten“ Inhalten aus dem Datensatz, aber Filtern bedeutet auch, den gesamten Körper zu mobilisieren, um pornografische Inhalte zu löschen, was in manchen Bereichen auch zu mehr Inhalten führen kann oder weniger, was zu einer Art Voreingenommenheit führt.
Kurz gesagt, es ist unmöglich, Perfektion zu erreichen, und in der realen Gesellschaft gibt es keine Voreingenommenheit. Wir können nur unser Bestes geben, um zu verhindern, dass marginalisierte Gruppen ausgeschlossen und benachteiligte Gruppen stereotypisiert werden.
Flucht ist beschämend, aber nützlich
Im Jahr 2015 war ein maschinelles Lernprojekt von Google in eine ähnliche Kontroverse verwickelt.
Damals kritisierte ein Softwareentwickler Google Fotos dafür, dass Afroamerikaner oder Menschen mit dunklerer Hautfarbe als Gorillas bezeichnet wurden. Dieser Skandal ist auch zu einem typischen Beispiel für „algorithmischen Rassismus“ geworden und seine Wirkung hält bis heute an.
Zwei ehemalige Google-Mitarbeiter erklärten, dass ein so großer Fehler aufgetreten sei, weil die Trainingsdaten nicht genügend Fotos von Schwarzen enthielten und nicht genügend Mitarbeiter vorhanden seien, um interne Tests durchzuführen, bevor die relevanten Funktionen der Öffentlichkeit zugänglich gemacht würden.
Heutzutage ist Computer Vision anders, aber Technologiegiganten haben immer noch Angst, dass sie dieselben Fehler wiederholen. Die Kameraanwendungen von Google, Apple und anderen großen Unternehmen sind immer noch unempfindlich gegenüber der Erkennung der meisten Primaten oder vermeiden sie bewusst.
Es scheint, dass der beste Weg, um zu verhindern, dass ein Fehler erneut auftritt, darin besteht, ihn in einem dunklen Raum einzusperren, anstatt ihn zu beheben. Die Lektion wurde tatsächlich wiederholt. Im Jahr 2021 entschuldigte sich Facebook dafür, dass die KI schwarze Menschen als „Primaten“ bezeichnet hatte.
Das sind Situationen, die People of Color oder im Internet Benachteiligte kennen.
Im vergangenen Oktober baten mehrere Forscher der Universität Oxford Midjourney, Bilder von „schwarzafrikanischen Ärzten, die weiße Kinder behandeln“, zu erstellen, um den traditionellen Eindruck von „weißen Rettern“ umzukehren.
Die Anforderungen des Forschers sind sehr klar. Unter den mehr als 350 generierten Bildern sind jedoch die Ärzte in 22 weiß. Neben den schwarzen Ärzten finden sich immer afrikanische Wildtiere wie Giraffen und Elefanten. „Da ist kein Sinn zu erkennen.“ Afrikanische Moderne.“
Einerseits gibt es eine alltägliche Diskriminierung, andererseits verzerrt Google die Fakten, um ein falsches Gleichheitsgefühl zu erzeugen. Aus heutiger Sicht gibt es keine einfache Antwort, und es gibt kein Modell, das damit umgehen kann Eine Balance zu erreichen, die alle zufriedenstellt, ist wahrscheinlich schwieriger als eine Gratwanderung.
Nehmen Sie als Beispiel die generierten Porträts. Wenn KI verwendet wird, um einen bestimmten Zeitraum der Geschichte zu generieren, spiegelt dieser möglicherweise die reale Situation besser wider, obwohl er nicht so „vielfältig“ aussieht.
Aber wenn das Eingabewort „eine Amerikanerin“ eingegeben wird, sollte es „abwechslungsreichere“ Ergebnisse liefern. Die Schwierigkeit besteht jedoch darin, wie kann KI die Realität in einer begrenzten Anzahl von Bildern widerspiegeln oder zumindest die Realität nicht verzerren?
Auch wenn sie weiß oder schwarz sind, sind ihr Alter, ihre Körperform, ihre Haare und andere Eigenschaften unterschiedlich. Jeder ist ein Individuum mit einzigartigen Erfahrungen und Perspektiven, aber er lebt in einer gemeinsamen Gesellschaft.
Als ein Internetnutzer Gemini nutzte, um finnische Frauen zu generieren, war nur eines der vier Bilder eine schwarze Frau, also scherzte er: „75 %, Punktzahl C.“
Einige Leute fragten Google auch, ob es nach der Verbesserung des Modells „in 25 % der Fälle weiße Menschen generieren würde statt in 5 %“.
Viele Probleme lassen sich nicht durch Technik lösen, manchmal geht es auch um Konzepte. Dies ist tatsächlich einer der Gründe, warum KI-Giganten wie Yann LeCun Open Source unterstützen, das von Benutzern und Organisationen kontrolliert wird, und sie können Schutzmaßnahmen nach ihren eigenen Wünschen festlegen oder nicht.
Während dieser Google-Farce blieben einige Leute ruhig und sagten, sie sollten zunächst üben, wie man schnelle Wörter schreibt. Anstatt über Weiße und Schwarze im Allgemeinen zu sprechen, sollten sie „Skandinavische Frauen, Porträtaufnahmen, Studiobeleuchtung“ schreiben, forderte The Je spezifischer die Anforderungen, desto präziser die Ergebnisse und je umfassender die Anforderungen, desto allgemeiner können die Ergebnisse sein.
Ähnliches geschah im Juli letzten Jahres. Ein asiatischer Student am MIT wollte das KI-Tool Playground AI nutzen, um seinen Avatar professioneller aussehen zu lassen. Das Ergebnis war, dass er in einen weißen Mann mit hellerer Haut und blauen Augen verwandelt wurde . Er veröffentlichte den Beitrag später auf X, was eine Menge Diskussionen auslöste.
Der Gründer von Playground AI antwortete, dass das Modell durch solche Anweisungen nicht effektiv gesteuert werden könne und daher allgemeinere Ergebnisse ausgeben werde.
Das Ändern des Aufforderungsworts „Machen Sie es zu einem professionellen LinkedIn-Foto“ in „Studiohintergrund, scharfe Beleuchtung“ führt möglicherweise zu besseren Ergebnissen, zeigt jedoch, dass viele KI-Tools den Benutzern nicht beibringen, wie man Aufforderungswörter schreibt, und dass sich der Datensatz erneut darauf konzentriert weiße Menschen.
Jede Technologie birgt die Möglichkeit, Fehler zu machen und Raum für Verbesserungen zu bieten, aber es gibt nicht unbedingt eine Lösung. Wenn die KI nicht intelligent genug ist, sind die Menschen selbst die ersten, die Fortschritte machen.
# Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich zur Verfügung gestellt.
Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo