Journalisten die Jobs stehlen? Google testet KI, um Nachrichten zu schreiben

Generative KI scheint, wie Journalisten, nicht bereit zu sein, Produktivität freizusetzen.

Kürzlich verrieten drei mit der Angelegenheit vertraute Personen der „New York Times“, dass Google ein Produkt testet, das KI-Technologie zur Erstellung von Nachrichtenberichten nutzt, und erwägt, es bei den Mutterkonzernen „New York Times“, „Washington Post“ und „Wall Street Journal“ sowie anderen Nachrichtenkonzernen zu bewerben.

Informierte Quellen enthüllten, dass der interne vorläufige Codename des Produkts „Genesis“ lautet (Chinesisch kann mit „Genesis“ übersetzt werden), das auf der Grundlage des Empfangens und Verstehens von Informationen automatisch Nachrichteninhalte generieren kann.
Journalisten die Jobs stehlen? Google testet KI, um Nachrichten zu schreiben - 9 3

▲ Bild von: Pexels

Interessanterweise wussten Journalisten nach Bekanntwerden der Nachricht nicht, dass sie sich bereits stillschweigend dahinter versteckt hatte, als sie ihre Angst vor der Ankunft generativer KI in den Medien zum Ausdruck brachten.

Als eine der Branchen mit dem ausgeprägtesten Gespür für Informationen beschäftigt sich die Medienbranche seit langem mit der Anwendung von KI in der Medienbranche und setzt sich dafür ein, die Interaktion zwischen Mensch und Computer zu realisieren und Mitarbeiter von mühsamen Aufgaben zu befreien.

Beispielsweise nutzte die „Washington Post“ im Jahr 2016 ihren Heliograf-Roboter zum Schreiben von Artikeln und nutzte Instant-Messaging-Software, um Echtzeit-Ergebnisse der Olympischen Spiele in Rio zu übertragen. Allerdings konnte die KI damals nur einige einfache Informationen generieren, wie zum Beispiel Olympia-Ergebnisse, die Gesamtzahl der Goldmedaillen und andere kurze, auf Zahlen basierende Berichte.

Mit der rasanten Entwicklung der KI brachte Bloomberg News (Bloomberg News) zwei Jahre später offiziell den Roboter Cyborg (auf Chinesisch kann dies als Mensch-Computer-Integration übersetzt werden) auf den Markt und half Wirtschaftsreportern dabei, Tausende von Artikeln über Finanzberichte zu schreiben. Im Gegensatz zu Menschen muss sich ein Cyborg überhaupt nicht ausruhen. Solange ein Finanzbericht in das System eingegeben wird, kann er den Bericht sofort analysieren und einen Nachrichtenbericht mit relevanten Fakten und Zahlen veröffentlichen.

Die Explosion von ChatGPT Ende 2022 hat den Menschen erneut die Macht der KI vor Augen geführt. Dieses Mal hat sich die KI auch zu einer generativen KI entwickelt und erobert mit ihrer starken Fähigkeit, Inhalte zu generieren, nach und nach die gesamte Medienbranche.
Journalisten die Jobs stehlen? Google testet KI, um Nachrichten zu schreiben - 2.jpg
Einige ausländische Mainstream-Medien wie The Times, NPR und Insider waren von der generativen KI überzeugt und begannen, die potenziellen tiefgreifenden Einsatzmöglichkeiten von KI zu erforschen, etwa ihren Einsatz in risikoreichen Nachrichtenbereichen in Betracht zu ziehen, die eine extrem hohe Genauigkeit in Sekunden erfordern.

Vielleicht liegt es an dem potenziellen Wert der Anwendung von KI im Nachrichtenbereich, dass Googles Einstieg in die Forschung und Entwicklung von KI-Assistenten zum Verfassen von Nachrichtenartikeln eher einer Ausnutzung dieses Trends gleicht.

Es muss jedoch zugegeben werden, dass es einige Zeit dauern wird, bis die generative KI in der Nachrichtenbranche ausgereift ist.

Auch Google-Sprecherin Jenn Crider räumte in einer Stellungnahme ein, dass generative KI eher eine Hilfsrolle spiele und die Rolle von Journalisten beim Verfassen von Berichten und der Faktenprüfung nicht ersetzen könne. Obwohl die generative KI ein gewisses „Talent“ bei der automatischen Generierung von Inhalten gezeigt hat, wird sie auch „voller Lügen“ sein und einige falsche oder sogar nicht vorhandene Inhaltsinformationen aus dem Nichts erfinden.
Journalisten die Jobs stehlen? Google testet KI, um Nachrichten zu schreiben - 3 2
Im Januar dieses Jahres hat eine Agentur zur Bewertung der Glaubwürdigkeit von Nachrichten namens „News Guard“ in den Vereinigten Staaten 100 gefälschte Informationen in ihrer Datenbank abgerufen und ChatGPT gebeten, die Echtheit dieser Informationen zu überprüfen. Die Ergebnisse zeigen, dass ChatGPT auf 80 % der Inhalte klare, irreführende oder sogar falsche Antworten gab und sogar einige der Antworten voller Gerüchte und Alarmismus waren.

Zufälligerweise nutzte die amerikanische Technologie-Website CNET zur gleichen Zeit generative KI-Technologie, um mehr als 70 Nachrichten zu generieren. Ein aufmerksamer Internetnutzer bemerkte die Seltsamkeit und stellte in Frage, dass der gemeldete Artikel offenbar nicht von Menschenhand erstellt worden sei. In diesem Zusammenhang sagte CNET offen, dass es sich nur um ein „Experiment“ handele, und ergriff einige Maßnahmen zur Kennzeichnung von „KI-Berichten“.

Doch dann fand die Technologieseite Futurism einige „sehr dumme Fehler“ in der KI-Berichterstattung von CNET. In einem Bericht heißt es beispielsweise, dass eine Einzahlung von 10.000 US-Dollar zu einem Zinssatz von 3 % nach dem ersten Jahr 10.300 US-Dollar einbringen würde, während in Wirklichkeit mit 10.000 US-Dollar nur 300 US-Dollar eingebracht würden.

Das Vorhandensein dieser Fehler auf „Bug“-Ebene beeinträchtigt immer noch die spezifische Anwendung der Nachrichtenbranche, aber die Entwicklung der KI-Technologie erfolgt immer in einem Abschnitt nach dem anderen.

Wenn wir ein paar Jahre später eine neue Ebene erreichen, stellen diese im Rückblick vielleicht kein großes Problem mehr dar.

#Willkommen, dem offiziellen öffentlichen WeChat-Konto von Aifaner zu folgen: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich präsentiert.

Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo