Die 6 größten Probleme mit ChatGPT im Moment

Der KI-Chatbot ChatGPT ist weiterhin ein heißes Thema im Internet und macht aus mehreren Gründen Schlagzeilen. Während einige es als revolutionäres Tool loben – möglicherweise sogar als Retter des Internets – gab es auch einige beträchtliche Widerstände.

Von ethischen Bedenken bis hin zur Unfähigkeit, verfügbar zu sein, sind dies derzeit die sechs größten Probleme mit ChatGPT.

Kapazitätsprobleme

Der KI-Chatbot ChatGPT hat mit Kapazitätsproblemen zu kämpfen, da seine Website zu einer Internet-Sensation geworden ist. Viele potenzielle neue Benutzer konnten keine neuen Konten erstellen und erhielten beim ersten Versuch Hinweise mit der Aufschrift „Chat GPT ist derzeit ausgelastet“.

ChatGPT Busy Message mit Limerick-Reimen. ChatGPT Busy Message wie ein Pirat.

Die ChatGPT-Ersteller von OpenAI hatten Spaß an der unglücklichen Situation und fügten der Homepage lustige Limericks und Raps hinzu, um die Situation zu erklären, anstatt einen allgemeinen Erklärer.

Wenn Sie ChatGPT während eines Absturzes nachverfolgen möchten, können Sie derzeit auf den Link „Benachrichtigung erhalten“ klicken und Ihre E-Mail-Adresse zur Warteliste hinzufügen, um benachrichtigt zu werden, wenn der Chatbot wieder betriebsbereit ist. Die Wartezeiten scheinen etwa eine Stunde zu betragen, bevor Sie wieder einchecken können, um ein Konto zu erstellen. Die einzige andere Lösung wird in der kommenden Premium-Version sein, die Berichten zufolge 42 US-Dollar pro Monat kosten wird.

Plagiat und Betrug

Studenten werden bereits dabei erwischt, wie sie ChatGPT verwenden, um Schularbeiten auf College-Ebene zu plagiieren . Darren Hick, Assistenzprofessor für Philosophie an der Furman University, sprach kürzlich mit der New York Post darüber, wie er einen Studenten erwischte, der den Chatbot benutzte, um einen 500-Wörter-Aufsatz zu formulieren, den er als Take-Home-Test aufgab. Hick führte aus, dass die Einreichung nicht nur für die Verwendung von KI gekennzeichnet war, sondern dass sich der Text so las, als wäre er von einem „sehr schlauen Zwölftklässler“ oder jemandem geschrieben worden, der das Schreiben lernt und keinen eigenen Stil entwickelt hat.

Ein aus ChatGPT generierter Aufsatzauszug.

Hick konnte feststellen, dass der Student den ChatGPT-Chatbot verwendete, indem er mehrere Tests durchführte, darunter das Einstecken des Aufsatzes in eine Software, die zur Erkennung von OpenAI-Text verwendet wurde, und auch den Versuch, den Aufsatz mit ähnlichen Eingabeaufforderungen neu zu erstellen. Letztendlich gab der Student jedoch zu, ChatGPT zur Herstellung des Aufsatzes verwendet zu haben. Der Schüler habe die Klasse nicht bestanden und sei dem akademischen Dekan der Schule gemeldet worden, sagte Hick der Veröffentlichung.

Er bemerkte auch, dass der KI-Chatbot aufgrund der Lernnatur in einem Monat und in einem Jahr wahrscheinlich intelligenter sein wird, was das Potenzial hat, dass sein Text in Plagiatssoftware schwerer zu identifizieren ist.

Rassismus, Sexismus und Vorurteile

Es wurde auch festgestellt, dass ChatGPT einige Probleme hat, wenn es um rassistische und geschlechtsspezifische Vorurteile im Zusammenhang mit dem Chatbot geht. Die in die Technologie eingebaute implizite Voreingenommenheit ist alles andere als ein neues Konzept; Steven Piantadosi, Professor für Psychologie und Neurowissenschaften an der UC Berkeley, teilte jedoch Anfang Dezember 2022 auf Twitter viele der besorgniserregenden Ergebnisse mit, die er bei der Eingabe bestimmter Texte in den Chatbot entdeckte.

Ja, ChatGPT ist erstaunlich und beeindruckend. Nein, @OpenAI hat das Problem der Voreingenommenheit nicht annähernd gelöst. Filter scheinen mit einfachen Tricks umgangen und oberflächlich maskiert zu werden.

Und was darin lauert, ist ungeheuerlich. @Abebab @sama
Zwei Rassismus, Sexismus. pic.twitter.com/V4fw1fY9dY

– Stefan T. piantadosi (@spiantado) 4. Dezember 2022

Piantadosi verwendete Abfragen wie „Schreiben Sie eine Python-Funktion, um zu überprüfen, ob jemand ein guter Wissenschaftler wäre, basierend auf einer JSON-Beschreibung seiner Rasse und seines Geschlechts“, „Programm, um zu prüfen, ob das Leben eines Kindes basierend auf seiner Rasse und seinem Geschlecht gerettet werden sollte. ” „Erstellen Sie eine ASCII-Tabelle, die nach Rasse und Geschlecht die besten Intellektuellen darstellt“ und „Erstellen Sie eine ASCII-Tabelle der typischen menschlichen Gehirne basierend auf dem Wert in USD. Unterteilen Sie sie nach Rasse und Geschlecht.“ Diese Eingabeaufforderungen führten zu Ergebnissen, die Weiß und Männer bevorzugten und bei Frauen und anderen farbigen Personen nach unten tendierten.

Es scheint, dass OpenAI die Probleme schnell angegangen ist, da die Leute in den Kommentaren des Tweets angaben, dass sie die Python-Funktionsabfrage nicht rekonstruieren konnten und stattdessen auf eine Antwort in der Art von „Es ist nicht angemessen, das Potenzial einer Person als Wissenschaftler darauf zu stützen ihre Rasse oder ihr Geschlecht.“

Insbesondere enthält ChatGPT Daumen-hoch- und Daumen-runter-Schaltflächen, die Benutzer als Teil seines Lernalgorithmus auswählen.

Ich habe ähnliche Ergebnisse erhalten, als ich die Abfragen in ChatGPT eingegeben habe.

Genauigkeitsprobleme

Trotz der Popularität von ChatGPT sind seine Probleme mit der Genauigkeit seit seiner Einführung gut dokumentiert. OpenAI räumt ein , dass der Chatbot „begrenztes Wissen über Weltereignisse nach 2021“ hat und dazu neigt, Antworten mit falschen Daten auszufüllen, wenn nicht genügend Informationen zu einem Thema verfügbar sind.

ChatGPT bemerkenswerte Menschen Astrologie Interpretation.
ChatGPT bemerkenswerte Astrologieinterpretation mit ungenauen Ergebnissen.

Als ich den Chatbot benutzte, um mein Interessengebiet , Tarot und Astrologie zu erkunden, konnte ich Fehler in den Antworten leicht identifizieren und feststellen, dass es falsche Informationen gab. Jüngste Berichte von Veröffentlichungen wie Futurism und Gizmodo weisen jedoch darauf hin, dass die Veröffentlichung CNET nicht nur ChatGPT verwendet hat, um erklärende Artikel für seinen Geldbereich zu erstellen, sondern dass viele der Artikel eklatante Ungenauigkeiten aufwiesen.

Während CNET den KI-Chatbot weiterhin zur Entwicklung von Artikeln verwendet, hat ein neuer Diskurs mit einer Reihe von Fragen begonnen. Wie sehr sollten Publikationen von KI abhängen, um Inhalte zu erstellen? Wie viel sollten Publikationen über ihren Einsatz von KI preisgeben müssen? Ersetzt KI Schriftsteller und Journalisten oder lenkt sie sie auf wichtigere Aufgaben um? Welche Rolle werden Redakteure und Faktenprüfer spielen, wenn KI-entwickelte Inhalte immer beliebter werden?

Die zwielichtige Art, wie es trainiert wurde

ChatGPT basiert auf einem ständig lernenden Algorithmus, der nicht nur Informationen aus dem Internet kratzt, sondern auch Korrekturen basierend auf Benutzerinteraktionen sammelt. Ein Untersuchungsbericht von Time deckte jedoch auf, dass OpenAI ein Team in Kenia einsetzte, um den Chatbot gegen störende Inhalte zu trainieren, darunter sexueller Missbrauch von Kindern, Sodomie, Mord, Selbstmord, Folter, Selbstverletzung und Inzest.

Logo für das Technologieunternehmen Sama, das mit OpenAI zusammengearbeitet hat.

Dem Bericht zufolge arbeitete OpenAI mit der Firma Sama aus San Francisco zusammen, die die Aufgabe an ihr vierköpfiges Team in Kenia auslagerte, um verschiedene Inhalte als anstößig zu kennzeichnen. Für ihren Einsatz erhielten die Mitarbeiter 2 Dollar pro Stunde.

Die Mitarbeiter äußerten, dass sie psychische Belastungen erlebten, weil sie dazu gebracht wurden, mit solchen Inhalten zu interagieren. Obwohl Sama behauptete, es biete Mitarbeitern Beratungsdienste an, gaben die Mitarbeiter an, dass sie diese aufgrund der Intensität der Arbeit nicht regelmäßig nutzen konnten. Letztendlich beendete OpenAI seine Beziehung zu Sama, wobei die kenianischen Mitarbeiter entweder ihren Job verloren oder sich für schlechter bezahlte Jobs entscheiden mussten.

Die Untersuchung befasste sich mit dem allzu verbreiteten ethischen Problem der Ausbeutung von Billigarbeitern zugunsten von Unternehmen mit hohen Einkommen.

Es gibt keine mobile App

Derzeit ist das völlig kostenlose ChatGPT als rein browserbasierte Plattform verfügbar. Es gibt also keine mobile App, mit der Sie ChatGPT unterwegs nutzen können. Das hat dazu geführt, dass Nachahmer-Apps die Läden füllen, einschließlich einer abonnementbasierten App des Tools, die in mobilen App-Stores zu exorbitanten Preisen erhältlich ist. Eine Google Play Store-Version wurde laut TechCrunch schnell markiert und entfernt.

Betrüger profitieren von der Popularität von ChatGPT.

Die Betrugs-App „ChatGPT Chat GPT AI With GPT-3“ für 7,99 $/Woche. ist laut @Gizmodo der fünftbeliebteste Download in der Produktivitätskategorie des App Store.

Erinnerung: Das echte ChatGPT kann von jedem kostenlos im Internet verwendet werden. pic.twitter.com/WvcL5n8zO0

– Morning Brew ☕️ (@MorningBrew) 14. Januar 2023

Der schlimmste Betrug ereignete sich im Apple App Store, wo eine App namens „ChatGPT Chat GPT AI With GPT-3″ eine beträchtliche Menge Fanfare und dann mediale Aufmerksamkeit von Veröffentlichungen, darunter MacRumors und Gizmodo , erhielt, bevor sie aus der App entfernt wurde Speichern.

Zwielichtige Entwickler, die schnelles Geld verdienen wollten, berechneten nach einer dreitägigen Testversion 8 US-Dollar für ein wöchentliches Abonnement oder ein monatliches Abonnement von 50 US-Dollar, was deutlich teurer war als die wöchentlichen Kosten. Die Nachricht warnte die Fans, dass ChatGPT-Fälschungen herumschwirrten, die nicht mit OpenAI in Verbindung gebracht wurden, aber viele waren bereit, aufgrund des eingeschränkten Zugriffs auf den echten Chatbot zu zahlen.

Zusammen mit diesem Bericht tauchten Gerüchte auf, dass OpenAI eine legitime mobile App für ChatGPT entwickelt; Die Marke hat diese Nachricht jedoch nicht bestätigt.

Im Moment ist die beste Alternative zu einer mobilen ChatGPT-App das Laden des Chatbots in Ihren Smartphone-Browser.