Die neuesten Bildtools von ChatGPT lösen einen weiteren viralen und gruseligen Trend aus
Anfang dieser Woche enthüllte der Erfinder von ChatGPT, OpenAI, einige neue Argumentationsmodelle, die angeblich in der Lage sind, „mit Bildern zu denken“. Die Modelle o3 und o4-mini zeichnen sich durch leistungsstarke Fähigkeiten aus, Bilder zu interpretieren und zu manipulieren und beliebige Informationen abzurufen, um die Ausgabe des Modells zu verbessern. Gleichzeitig werden die leistungsfähigen Modelle auch für unterhaltsame Nebenquests eingesetzt, darunter die Verwendung von ChatGPT zur Bestimmung der auf Fotos angezeigten Orte, auch Geolokalisierung genannt, was bei unsachgemäßer Verwendung zu einem Albtraum für die Privatsphäre werden kann.
Nach der Veröffentlichung der Modelle erkannten erfahrene Benutzer, dass sie mit begrenzten zusätzlichen Eingaben Orte auf Fotos identifizieren können. Von den beiden Modellen scheint o3 – das fortgeschrittenere – diese Fähigkeit zu beherrschen, und wir könnten bereits Zeuge der Ursprünge eines weiteren viralen Trends werden, der von ChatGPT ins Leben gerufen wurde .
Die Modelle können Bilder bearbeiten, einschließlich Zuschneiden oder Vergrößern, um Informationen zu extrahieren. Mehrere Beispiele demonstrieren die Fähigkeit, (vermutlich) jeden Punkt auf der Erdoberfläche zu lokalisieren, selbst wenn die zentrale Attraktion des Ortes durch Hindernisse, einschließlich Menschen, behindert wird. Das Modell scheint mit präzisen geografischen Koordinaten zusammen mit dem Namen des Ortes zu antworten, und der Trick scheint auch mit Bildern von Innenräumen zu funktionieren.
Ethan Mollick, außerordentlicher Professor bei Wharton und X-Influencer, bestätigte, dass das Modell nicht einfach geotagged-Informationen aus den Fotos zieht, sondern stattdessen die gesamte Denkarbeit selbst übernimmt. Wie jedes KI-Modell ist es anfällig für falsche Reaktionen, insbesondere bei begrenzten Hinweisen, beispielsweise einem einzelnen Bild. Aber selbst wenn der Standort beim ersten Mal falsch angegeben wird, versucht das Modell beharrlich, Bilder zu zerlegen, bis Sie bestätigen, dass es den richtigen Standort identifiziert hat, wie der X-Benutzer Brett Cooper demonstriert.
Obwohl die Geolokalisierung eine unterhaltsame und spielerische Aktivität ist, ist sie weitgehend auf Experten beschränkt, die, wie wir hoffen, ihre Superfähigkeiten einsetzen, um den genauen geografischen Standort anhand eines einzigen Fotos verantwortungsvoll zu erraten. Das neueste Update von ChatGPT macht den Vorgang jedoch für jeden, der Zugriff auf die neuesten Modelle hat, mühelos und einfach.
Abgesehen von seinen Zweifeln und Fähigkeiten birgt die spezifische Weiterentwicklung ein enormes potenzielles Risiko für Missbrauch, insbesondere ohne Barrieren, die eine unbefugte Nutzung zur Standortbestimmung von Personen verhindern. Damit kann der Weg vom Cyberstalking zum Stalking im physischen Bereich nur wenige Minuten dauern, und wir hoffen, dass OpenAI die richtigen Schritte unternimmt, um dieses Problem anzugehen.