„Einen Dachs kann man nicht zweimal lecken“: Wie Googles KI-Übersicht Redewendungen halluziniert

Der neueste KI-Trend ist lustig, da ein Benutzer herausgefunden hat, dass man eine erfundene Phrase in Google einfügen und ihr „Bedeutung“ hinzufügen kann, woraufhin die KI-Übersichtsfunktion von Google eine Bedeutung für die Phrase halluziniert.

Der Historiker Greg Jenner leitete den Trend mit einem Beitrag auf Bluesky ein, in dem er Google bat, die Bedeutung von „Man kann einen Dachs nicht zweimal lecken“ zu erklären. AI Overview hat hilfreich erklärt, dass dieser Ausdruck bedeutet, dass man jemanden nicht ein zweites Mal täuschen kann, nachdem er bereits einmal betrogen wurde – was wie eine vernünftige Erklärung erscheint, aber die Tatsache außer Acht lässt, dass diese Redewendung nicht existierte, bevor diese Anfrage viral wurde.

Seitdem haben die Leute großen Spaß daran, sich von AI Overview Redewendungen erklären zu lassen wie „Ein Tintenfisch in einer Vase wird nichts Böses sagen“ ( was bedeutet , dass etwas außerhalb seiner natürlichen Umgebung offenbar keinen Schaden anrichten kann) oder „Sie können Ihren Hund an den Strand mitnehmen, aber nicht mit ihm in die Schweiz segeln“ ( was laut AI Overview ein ziemlich einfacher Satz über die Schwierigkeit internationaler Reisen mit Haustieren ist).

Dies funktioniert jedoch nicht in allen Fällen, da einige Phrasen keine AI-Übersichtsergebnisse zurückgeben. „Es ist völlig inkonsistent“, sagte der Kognitionswissenschaftler Gary Marcus zu Wired , „und das ist es, was man von GenAI erwartet.“

Jenner weist darauf hin, dass dies, so unterhaltsam es auch ist, einige der Fallstricke aufzeigt, die entstehen, wenn man sich für Informationen zu stark auf KI-generierte Quellen wie AI Overview verlässt. „Es ist ein Warnzeichen dafür, dass eine der Schlüsselfunktionen des Googelns – die Fähigkeit, ein Zitat auf Fakten zu überprüfen, eine Quelle zu überprüfen oder etwas aufzuspüren, an das man sich nur halb erinnert – viel schwieriger wird, wenn die KI statistische Möglichkeiten der tatsächlichen Wahrheit vorzieht“, schrieb Jenner.

Dies ist nicht das erste Mal, dass Menschen auf die Grenzen der von KI bereitgestellten Informationen und insbesondere von AI Overview hingewiesen werden. Als AI Overview auf den Markt kam, schlug es bekanntermaßen vor, dass die Leute einen kleinen Stein pro Tag essen sollten und dass sie Kleber auf ihre Pizza auftragen könnten, obwohl diese speziellen Antworten schnell entfernt wurden.

Seitdem hat Google in einer Erklärung gegenüber Digital Trends erklärt, dass die meisten KI-Übersichten hilfreiche und sachliche Informationen liefern und dass noch immer Feedback zu seinem KI-Produkt eingeholt wird.

Dies dient jedoch vorerst als Erinnerung daran, die Informationen, die im Feld „KI-Übersicht“ oben in den Google-Ergebnissen angezeigt werden, noch einmal zu überprüfen, da diese möglicherweise nicht korrekt sind.