So konnte ChatGPT sein großes Plagiatsproblem lösen

ChatGPT ist ein wunderbares Tool, aber dieser fortschrittliche KI-Dienst hat eine dunkle Seite, die wie ein Experte zu fast jedem Thema schreiben kann – Plagiate. Wenn Schüler, die ihr Wissen und Verständnis für ein Thema demonstrieren sollen, durch heimliche Verwendung von ChatGPT schummeln, macht dies das Testen und Benoten ungültig. KI-Fähigkeiten sind großartig, aber nicht das einzige Fach, das Schüler lernen sollten.

Die Überwachung dieses Problems hat sich als schwierig erwiesen. Da ChatGPT mit einem riesigen Datensatz menschlichen Schreibens trainiert wurde, ist es für einen Ausbilder fast unmöglich festzustellen, ob ein Aufsatz von einem Schüler oder einer Maschine erstellt wurde. Es wurden mehrere Tools entwickelt, die versuchen, KI-generiertes Schreiben zu erkennen , aber die Genauigkeit war zu gering, um nützlich zu sein.

Angesichts zunehmender Bedenken von Pädagogen und Verboten für Studenten, ChatGPT zu verwenden, berichtet Business Insider , dass OpenAI an einer Lösung für dieses Problem arbeitet. Ein kürzlich veröffentlichter Tweet von Tom Goldstein, außerordentlicher Professor für maschinelles Lernen an der University of Maryland, erklärte, wie genau es bei der Erkennung von Text mit Wasserzeichen sein könnte, der von ChatGPT geschrieben wurde.

#OpenAI plant, #ChatGPT- Benutzer daran zu hindern, Social-Media-Bots zu erstellen und Hausaufgaben durch "Wasserzeichen" zu betrügen. Ausgänge. Wie gut könnte das wirklich funktionieren? Hier sind nur 23 Wörter aus einem LLM mit 1,3 B-Parametern und Wasserzeichen. Wir haben es mit 99,999999999994 % Vertrauen erkannt. So geht's pic.twitter.com/pVC9M3qPyQ

– Tom Goldstein (@tomgoldsteincs) 25. Januar 2023

Jedes Tool, das Plagiate mit nahezu 100-prozentiger Genauigkeit identifizieren könnte, würde diese Diskussion schnell beilegen und alle Bedenken zerstreuen. Laut Goldstein besteht eine Lösung darin, das Large Language Model (LLM) aus einem begrenzten Vokabular von Wörtern auswählen zu lassen und eine Whitelist zu erstellen, die für die KI in Ordnung ist, und eine Blacklist mit Wörtern, die verboten sind. Wenn in einer Probe eine unnatürlich große Anzahl von Whitelist-Wörtern auftaucht, würde dies darauf hindeuten, dass sie von der KI generiert wurden.

Dieser vereinfachende Ansatz wäre zu restriktiv, da es schwierig ist, vorherzusagen, welche Wörter für eine Diskussion notwendig sein könnten, wenn man Wort für Wort arbeitet, wie es die meisten LLMs tun. Goldstein schlägt vor, dass ChatGPT die Möglichkeit erhalten könnte, weiter als ein Wort vorauszusehen, damit es einen Satz planen kann, der mit Wörtern auf der weißen Liste gefüllt werden kann, während er immer noch sinnvoll ist.

ChatGPT hat viel Aufsehen erregt, als es in den Community-Schreibpool aufgenommen wurde, und kann auch eine großartige Lehrhilfe sein. Es ist wichtig, künstliche Intelligenz in Schulen einzuführen, da es in Zukunft eindeutig eine wichtige Technologie sein wird, die es zu verstehen gilt, aber sie wird weiterhin umstritten sein, bis das Problem des Plagiats angesprochen wird.