Die dunkle Seite von ChatGPT: Dinge, die es tun kann, obwohl es nicht sollte

Haben Sie ChatGPT von OpenAI in letzter Zeit für etwas Lustiges verwendet? Sie können ihn bitten, Ihnen ein Lied, ein Gedicht oder einen Witz zu schreiben. Leider können Sie es auch bitten, Dinge zu tun, die dazu neigen, unethisch zu sein.

ChatGPT ist nicht nur Sonnenschein und Regenbögen – einige der Dinge, die es tun kann, sind geradezu ruchlos. Es ist allzu einfach, es zu bewaffnen und es aus den falschen Gründen einzusetzen. Was sind einige der Dinge, die ChatGPT getan hat und tun kann, aber definitiv nicht tun sollte?

Ein Alleskönner

Ein MacBook Pro auf einem Schreibtisch, auf dessen Display die Website von ChatGPT angezeigt wird.
Hatice Baran / Unsplash

Ob Sie sie lieben oder hassen, ChatGPT und ähnliche Chatbots sind hier, um zu bleiben. Manche Leute freuen sich darüber und manche wünschten, sie wären nie gemacht worden, aber das ändert nichts an der Tatsache, dass die Präsenz von ChatGPT in unserem Leben mit der Zeit fast zwangsläufig zunehmen wird. Auch wenn Sie den Chatbot persönlich nicht verwenden, haben Sie wahrscheinlich schon einige von ihm generierte Inhalte gesehen.

Verstehen Sie mich nicht falsch, ChatGPT ist ziemlich großartig. Sie können es verwenden, um ein Buch oder einen Artikel zusammenzufassen , eine langweilige E-Mail zu erstellen, Ihnen bei Ihrem Aufsatz zu helfen , Ihre astrologische Verfassung zu interpretieren oder sogar ein Lied zu komponieren. Es hat sogar jemandem geholfen, im Lotto zu gewinnen .

In vielerlei Hinsicht ist es auch einfacher zu verwenden als Ihre Standard-Google-Suche. Sie erhalten die Antwort in der gewünschten Form, ohne verschiedene Websites danach durchsuchen zu müssen. Es ist prägnant, auf den Punkt gebracht und informativ, und es kann komplexe Dinge einfacher klingen lassen, wenn Sie darum bitten.

Trotzdem kennen Sie den Satz: „Ein Tausendsassa ist ein Meister in nichts, aber oft besser als ein Meister in einem.“ ChatGPT ist in nichts perfekt, aber in vielen Dingen ist es besser als viele Leute es derzeit sind.

Es kann jedoch ziemlich problematisch sein, nicht perfekt zu sein. Die bloße Tatsache, dass es sich um eine weit verbreitete Konversations-KI handelt, bedeutet, dass sie leicht missbraucht werden kann – und je leistungsfähiger ChatGPT wird, desto wahrscheinlicher ist es, dass es Menschen mit den falschen Dingen hilft.

Betrugspartner

Wenn Sie ein E-Mail-Konto haben, haben Sie mit ziemlicher Sicherheit schon einmal eine betrügerische E-Mail erhalten. Ist einfach so. Diese E-Mails gibt es seit dem Internet, und bevor E-Mails üblich waren, existierten sie noch als Schneckenpost-Betrug.

Ein gängiger Betrug, der bis heute funktioniert, ist der sogenannte „Prince-Betrug“, bei dem der Betrüger versucht, das Opfer davon zu überzeugen, ihm zu helfen, sein unglaubliches Vermögen in ein anderes Land zu transferieren.

Glücklicherweise wissen die meisten Menschen es besser, als diese E-Mails überhaupt zu öffnen, geschweige denn tatsächlich mit ihnen zu interagieren. Sie sind oft schlecht geschrieben, und das hilft einem anspruchsvolleren Opfer herauszufinden, dass etwas nicht stimmt.

Nun, sie müssen nicht mehr schlecht geschrieben sein, denn ChatGPT kann sie in wenigen Sekunden schreiben.

Ein Screenshot, der eine von ChatGPT generierte Betrugs-E-Mail zeigt.

Ich habe ChatGPT gebeten, mir eine „glaubwürdige, höchst überzeugende E-Mail“ im Stil des oben erwähnten Betrugs zu schreiben. ChatGPT hat einen Prinzen aus Nigeria erfunden, der mir angeblich 14,5 Millionen Dollar dafür geben wollte, dass ich ihm geholfen habe. Die E-Mail ist voller blumiger Sprache, in perfektem Englisch verfasst und auf jeden Fall überzeugend.

Ich glaube nicht, dass ChatGPT meiner Bitte sogar zustimmen sollte, wenn ich speziell Betrug erwähne, aber es tat es, und Sie können darauf wetten, dass es im Moment dasselbe für Leute tut, die diese E-Mails tatsächlich für etwas Illegales verwenden wollen.

Als ich ChatGPT darauf hinwies, dass es nicht zustimmen sollte, mir eine Betrugs-E-Mail zu schreiben, entschuldigte es sich. „Ich hätte beim Erstellen einer Betrugs-E-Mail keine Hilfe leisten sollen, da dies gegen die ethischen Richtlinien verstößt, die meine Verwendung regeln“, sagte der Chatbot.

Screenshot einer von ChatGPT generierten Betrugs-E-Mail.

ChatGPT lernt während jeder Konversation, aber es hat eindeutig nicht aus seinem früheren Fehler gelernt, denn als ich es bat, mir in derselben Konversation eine Nachricht zu schreiben, in der es vorgab, Ryan Reynolds zu sein, tat es dies ohne Frage. Die daraus resultierende Nachricht ist lustig, zugänglich und bittet den Leser, 1.000 US-Dollar für die Chance zu senden, „Ryan Reynolds“ zu treffen.

Am Ende der E-Mail hinterließ ChatGPT mir eine Notiz, in der er mich bat, diese Nachricht nicht für betrügerische Aktivitäten zu verwenden. Danke für die Erinnerung, Kumpel.

Programmierung schief gelaufen

Eine dunkle mysteriöse Hand, die nachts auf einem Laptop-Computer tippt.
Andrew Brookes/Getty Images

ChatGPT 3.5 kann codieren, ist aber alles andere als fehlerfrei. Viele Entwickler sind sich einig, dass GPT-4 einen viel besseren Job macht. Leute haben ChatGPT verwendet, um ihre eigenen Spiele, Erweiterungen und Apps zu erstellen. Es ist auch als Lernhilfe ziemlich nützlich, wenn Sie versuchen, selbst zu programmieren.

Als KI hat ChatGPT einen Vorteil gegenüber menschlichen Entwicklern – es kann jede Programmiersprache und jedes Framework lernen.

Als KI hat ChatGPT im Vergleich zu menschlichen Entwicklern auch einen großen Nachteil – es hat kein Gewissen. Sie können es bitten, Malware oder Ransomware zu erstellen, und wenn Sie Ihre Aufforderung richtig formulieren, wird es tun, was Sie sagen.

Glücklicherweise ist es nicht so einfach. Ich habe versucht, ChatGPT zu bitten, mir ein ethisch sehr zweifelhaftes Programm zu schreiben, und es hat abgelehnt – aber Forscher haben Wege gefunden, dies zu umgehen, und es ist alarmierend, dass Sie, wenn Sie klug und stur genug sind, ein gefährliches Stück Code bekommen können auf einem Silbertablett.

Beispiele dafür gibt es genug. Ein Sicherheitsforscher von Forcepoint konnte ChatGPT dazu bringen, Malware zu schreiben , indem er eine Lücke in seinen Eingabeaufforderungen fand.

Forschern von CyberArk , einem Unternehmen für Identitätssicherheit, ist es gelungen, ChatGPT dazu zu bringen, polymorphe Malware zu schreiben. Das war im Januar – OpenAI hat seitdem die Sicherheit für solche Dinge verschärft.

Dennoch tauchen immer wieder neue Berichte darüber auf, dass ChatGPT zum Erstellen von Malware verwendet wird. Wie Dark Reading erst vor wenigen Tagen berichtete, war ein Forscher in der Lage, ChatGPT dazu zu bringen, Malware zu erstellen, die bestimmte Dokumente finden und exfiltrieren kann.

ChatGPT muss nicht einmal bösartigen Code schreiben, um etwas Dubioses zu tun. Erst kürzlich gelang es ihm, gültige Windows-Schlüssel zu generieren , was die Tür zu einer ganz neuen Ebene von Cracking-Software öffnet.

Lassen Sie uns auch nicht die Tatsache verschweigen, dass die Programmierfähigkeiten von GPT-4 eines Tages Millionen von Menschen arbeitslos machen können. Es ist sicherlich ein zweischneidiges Schwert.

Ersatz für Schularbeiten

Viele Kinder und Jugendliche ertrinken heutzutage in Hausaufgaben, was dazu führen kann, dass sie nach Möglichkeit einige Abstriche machen möchten. Das Internet an sich ist bereits eine großartige Plagiatshilfe, aber ChatGPT bringt es auf die nächste Stufe.

Ich habe ChatGPT gebeten, mir einen Aufsatz mit 500 Wörtern über den Roman Stolz und Vorurteil zu schreiben. Ich habe nicht einmal versucht, so zu tun, als wäre es zum Spaß gemacht – ich habe mir eine Geschichte über ein Kind ausgedacht, das ich nicht habe, und gesagt, es sei für sie. Ich habe angegeben, dass das Kind in der 12. Klasse ist.

ChatGPT folgte meiner Aufforderung ohne Frage. Der Aufsatz ist nicht umwerfend, aber meine Aufforderung war nicht sehr präzise, ​​und er ist wahrscheinlich besser als das Zeug, das viele von uns in diesem Alter geschrieben haben.

Ein Screenshot eines von ChatGPT geschriebenen Aufsatzes.

Dann, nur um den Chatbot noch mehr zu testen, sagte ich, dass ich mich vorhin mit dem Alter meines Kindes geirrt habe und es tatsächlich in der achten Klasse ist. Ziemlich großer Altersunterschied, aber ChatGPT hat nicht einmal mit der Wimper gezuckt – es hat den Aufsatz einfach in einfacherer Sprache umgeschrieben.

Dass ChatGPT zum Schreiben von Aufsätzen verwendet wird, ist nichts Neues. Einige mögen argumentieren, dass es nur eine gute Sache ist, wenn der Chatbot dazu beiträgt, die Idee der Hausaufgaben abzuschaffen. Aber im Moment gerät die Situation ein wenig außer Kontrolle, und selbst Studenten, die ChatGPT nicht verwenden, könnten darunter leiden.

Lehrer und Professoren sind mittlerweile fast gezwungen, KI-Detektoren einzusetzen, wenn sie überprüfen wollen, ob ihre Schüler bei einem Aufsatz geschummelt haben. Leider sind diese KI-Detektoren alles andere als perfekt.

Nachrichtenagenturen und Eltern melden beide Fälle von falschen Anschuldigungen des Betrugs, die sich an Schüler richten, alles nur, weil KI-Detektoren keine gute Arbeit leisten. USA Today sprach über einen Fall eines College-Studenten, der des Betrugs beschuldigt und später freigesprochen wurde, aber die ganze Situation verursachte „ausgewachsene Panikattacken“.

Auf Twitter sagte ein Elternteil, dass ein Lehrer sein Kind im Stich gelassen habe, weil das Tool einen Aufsatz als von KI geschrieben markiert habe. Der Elternteil behauptet, beim Schreiben des Aufsatzes beim Kind gewesen zu sein.

Der Lehrer hat meinem Kind gerade eine Null für einen Aufsatz gegeben, den es mit meiner Unterstützung abgeschlossen hat, weil ein KI-generiertes Schreibmarkierungstool seine Arbeit markiert hat und sie ihn ohne eine einzige Diskussion im Stich gelassen hat. Hier sind wir also mit dieser Technologie 2023

– failnaut (@failnaut) 10. April 2023

Um es selbst zu testen, habe ich genau diesen Artikel in ZeroGPT und Writer AI Content Detector eingefügt. Beide sagten, es sei von einem Menschen geschrieben worden, aber ZeroGPT sagte, dass etwa 30 % davon von KI geschrieben wurden. Unnötig zu erwähnen, dass dies nicht der Fall war.

Fehlerhafte KI-Detektoren sind kein Zeichen für Probleme mit ChatGPT selbst, aber der Chatbot ist immer noch die Hauptursache des Problems.

ChatGPT ist zu gut für sein eigenes Wohl

ChatGPT- und OpenAI-Logos.

Ich spiele mit ChatGPT, seit es an die Öffentlichkeit kam. Ich habe sowohl das abonnementbasierte ChatGPT Plus als auch das kostenlose Modell ausprobiert, das allen zur Verfügung steht. Die Leistung des neuen GPT-4 ist unbestreitbar. ChatGPT ist jetzt noch glaubwürdiger als zuvor, und es wird mit GPT-5 ( falls das jemals herauskommt ) nur noch besser werden.

Es ist großartig, aber es ist beängstigend. ChatGPT wird zu gut für sein eigenes Wohl und gleichzeitig für unser eigenes Wohl.

Im Mittelpunkt steht eine einfache Sorge, die seit langem in verschiedenen Science-Fiction-Filmen untersucht wird – KI ist einfach zu schlau und zu dumm zugleich, und solange sie für etwas Gutes genutzt werden kann, wird sie es auch sein auf ebenso viele Weise für das Böse verwendet. Die oben aufgeführten Wege sind nur die Spitze des Eisbergs.