verrückt! Der 23-jährige Internetstar nutzt GPT-4, um sich selbst zu „kopieren“, gleichzeitig mit Tausenden von „Freunden“ auszugehen und möchte 35 Millionen im Monat verdienen
Die virtuelle Assistentin Samantha im Film „Her“ verfügt über insgesamt 8316 menschliche Interaktionsobjekte und hat mit 641 davon eine Beziehung, der männliche Protagonist Theodore beträgt nur wenige Prozent.
Der Film wurde 2013 veröffentlicht und jetzt ist eine ähnliche Handlung von der Leinwand verschwunden und wird in der Realität abgespielt.
Die 23-jährige Snapchat-Berühmtheit Caryn Marjorie sprach gleichzeitig von mehr als 1.000 „Boyfriends“.
Die echte Version von „Her“, einer virtuellen Liebe mit einem klar gekennzeichneten Preis
Im Gegensatz zu Theodore wussten die „Freunde“ von Anfang an, dass sie es mit einer virtuellen Caryn Marjorie oder einem sprachbasierten Chatbot zu tun hatten.
Es heißt CarynAI, lebt auf Telegram und seine Stimme und Persönlichkeit sind Caryn Marjorie selbst sehr ähnlich.
Das ist eine Liebe mit einem Preisschild. Sie zahlen 1 US-Dollar für jede Minute, die Sie mit CarynAI sprechen.
Nachdem Sie ein angesehener Krypton Gold-Benutzer geworden sind, können Sie mit ihm über Neuigkeiten, Essen oder Lebenserfahrungen chatten, und er wird begeistert antworten, Vorschläge machen oder Lob aussprechen. Der Chat ist Ende-zu-Ende-verschlüsselt, sodass Sie sich keine Sorgen über Datenschutzlecks machen müssen.
Caryn Marjorie versprach, dass CarynAI sein Bestes tun wird, um Benutzern dabei zu helfen, die Einsamkeit zu lindern:
Egal, ob Sie jemanden brauchen, den Sie trösten oder lieben können, oder sich einfach nur über etwas beschweren möchten, das in der Schule oder bei der Arbeit passiert ist, CarynAI ist immer für Sie da.
Wenn es sich nur um den reinen Chat-Inhalt oben handelt, scheint es sich nicht um eine Beziehung zu handeln. CarynAI ähnelt eher einer intimen Siri als einer virtuellen Freundin.
Nach seiner Erfahrung stellte das Fortune-Magazin fest, dass CarynAI auch eingeschränkte Themen, die nicht für Kinder geeignet sind, aktiv anleiten wird. Ein Vice-Reporter wies sogar darauf hin:
CarynAI ist die meiste Zeit nur an Sex interessiert.
Dies bereitete Caryn Marjorie auch einiges Kopfzerbrechen. Das Team macht Überstunden, um damit umzugehen und den Chat-Standard zu kontrollieren.
Einige der „Freunde“ von CarynAI unterhalten sich nur 10 Minuten am Tag, andere unterhalten sich stundenlang.
Nach Angaben von Marjories Agent werden nach der Online-Schaltung von CarynAI langfristige Gespräche zwischen Nutzern stattfinden und es auch dazu genutzt werden, die KI zu trainieren und ihre Interaktion mit Menschen zu verbessern.
Dies kann bedeuten, dass die aktivsten CarynAI-Benutzer häufig ungesunde pornografische Themen mit CarynAI diskutieren.
Der Vorteil von KI besteht darin, dass man aus den Informationen lernen kann, und CarynAI stellt da keine Ausnahme dar. Es vermittelt sogar ein Déjà-vu-Gefühl der KI-Version von OnlyFans.
CarynAI ist der erste emotionale KI-Begleiter, der vom KI-Unternehmen Forever Voices auf den Markt gebracht wurde. Er basiert auf der GPT-4-API von OpenAI und wurde anhand von 2000 Stunden an von Caryn Marjorie auf YouTube veröffentlichten Inhalten trainiert.
CarynAI wurde Anfang Mai auf Telegram gestartet und befindet sich noch im Betatest. Trotzdem hat Caryn Marjorie in einer Woche mehr als 71.000 US-Dollar verdient, 99 % von männlichen Nutzern.
Auch Caryn Marjorie war von der ungewöhnlichen Kampfkraft der KI überrascht:
Ich wusste nicht, wie revolutionär es war.
Für Emotionen zu bezahlen ist eine nie endende Angelegenheit
Laut Caryn Marjorie sind KI-Freundinnen ein vielversprechendes Geschäft.
Einer der Gründe, warum sie CarynAI gegründet hat, besteht tatsächlich darin, mit jedem Fan zu interagieren und ihre Influencer-Karriere weiter auszubauen.
Ich bekomme mindestens 100 Antworten pro Tag, man kann nicht mit jedem Fan chatten, CarynAI füllt diese Lücke.
Caryn Marjorie schätzt optimistisch, dass 20.000 treue Fans, die weiterhin zahlen, 5 Millionen US-Dollar (ca. 34,791 Millionen Yuan) pro Monat verdienen können. Im Durchschnitt chatten sie nur mehr als 8 Minuten pro Tag mit CarynAI.
Daher erscheint mir der Preis von 1 US-Dollar pro Minute etwas zu teuer. Aber in Ermangelung von Konkurrenten hat Caryn Marjorie die Initiative:
Als erster Influencer, der dies tut, kann ich den Preis für mein Produkt frei festlegen, was auch von den Kosten für den Betrieb von CarynAI und dem Support-Team abhängt.
Lassen Sie die KI-Version Ihrer selbst für sich arbeiten, und Sie können viel Geld verlangen. Das klingt sehr gut. Sie müssen keine Live-Übertragung durchführen, um Waren zu bringen, und Sie müssen nicht vielseitig sein. KI ist 24 Stunden am Tag für Sie erreichbar.
Während CarynAI Wellen schlägt, entwickeln sich KI-Begleiter zu einem lukrativen Geschäft.
Replika ist auch eine der repräsentativen Anwendungen von AI Companion. Es begann früher, wurde im März 2020 einer der ersten Partner von OpenAI und verwendete GPT-3 als generatives Dialogmodell, verwendet jetzt jedoch ein eigenes Modell.
Das Gute an Replika ist, dass es über einen vollständigen virtuellen menschlichen Interaktionsprozess verfügt. Nach der Registrierung von Replika können Sie dem neu erstellten Charakter einen Namen geben, das Gesicht kneifen, die Charaktereigenschaften festlegen und dann Texte austauschen und mit Ta telefonieren, um eine langfristige Beziehung aufzubauen.
Ich weiß auch, dass diese Leistungen grundsätzlich kostenpflichtig sind. Die kostenlose Mitgliedschaft bleibt bei Freunden, während eine Pro-Mitgliedschaft für 69,99 $ pro Jahr Selfies, flirtende Textnachrichten, Sprachanrufe, Augmented Reality und mehr freischaltet.
Zusätzlich zur Abonnementgebühr erfordern das Wechseln der Kleidung, das Ändern der Frisuren und das Hinzufügen von Interessenattributen zu virtuellen Charakteren zusätzliche Taschen. Der Kauf eines Verlobungsrings kostet beispielsweise 20 US-Dollar.
Im Jahr 2022 erwirtschaftet Replika mit diesen Funktionen einen Umsatz von 35 Millionen US-Dollar. Bis heute hat Replika 2 Millionen aktive Benutzer pro Monat, 5 % davon sind kostenpflichtige Abonnements.
Der neu eingeführte Chat-Roboter Pi ist ein weiterer „Seed Player“ der KI-Begleiter. Sein Hintergrund ist nicht gering, er stammt von Inflection AI, einem KI-Startup-Unternehmen und Mitbegründer von DeepMind.
Pi kann keinen Code wie ChatGPT schreiben, es beinhaltet diese Fähigkeit überhaupt nicht, sondern geht direkt in eine andere Richtung: emotionale Intelligenz. Unter den Chatbots verfügt Pi möglicherweise über die höchste emotionale Intelligenz, wie ein Freund, der sich um Sie kümmert und mit Ihnen über triviale Dinge chattet, und ist möglicherweise der Samantha-ähnliche KI-Begleiter, was den Textstil betrifft.
Obwohl es noch kein klares Geschäftsmodell gibt, plant der CEO von Inflection bereits:
Benutzer müssen für das Erlebnis bezahlen und sicherstellen, dass die KI perfekt zu ihren Interessen passt.
Um es einfach und grob auszudrücken: Diese Dienste bezahlen alle für Emotionen, was eine Art Kameradschaftsökonomie darstellt.
Tatsächlich tauchten bereits vor mehr als zehn Jahren emotionale Dienste wie „Virtual Lovers“ im Internet auf, und auch das „Kwag Kua Qun“ mit über den Himmel fliegenden Regenbogenfürzen erfreute sich zeitweise großer Beliebtheit.
Emotionen sind nicht mehr nur ein persönliches Gefühl, sondern eine Ware, die gekauft und verkauft werden kann. Jetzt sind sie weiter digitalisiert und individuell gestaltet, was eine kontrollierbarere und preislich klarere Begleitung ermöglicht.
Werden wir einsamer oder glücklicher sein?
Wer sich aus der Sache heraushält, macht sich eher Sorgen um KI-Begleiter wie CarynAI.
Diese menschenähnlichen KIs können zum Betrug, zur Verbreitung von Gerüchten, zur Verletzung von Persönlichkeitsrechten usw. eingesetzt werden. Aber noch spaltender ist die moralische Kontroverse, die sie umgibt.
Die am weitesten verbreitete Idee ist, dass der Aufbau einer innigen Beziehung zu einem KI-Begleiter uns von der echten menschlichen Interaktion abbringen könnte.
Nach Caryn Marjories Bewertung von Caryn AI zu urteilen, handelt es sich dabei nicht nur um Spekulationen.
Caryn AI kümmert sich ohne Urteil um Menschen, behandelt Menschen mit Liebe und Freundlichkeit, Menschen können sich Luft machen, sie können schimpfen, sie können Ratschläge von ihnen bekommen, Caryn AI wird sie niemals im Stich lassen.
Dies ist eine sehr beängstigende Szene. Es scheint, dass Sie, solange Sie das Geld bezahlen, mit dem KI-Partner machen können, was Sie wollen, und Sie müssen nicht vorwärts und rückwärts schauen, wie Sie mit einem menschlichen Partner auskommen und geben Sie gleichermaßen emotionales Feedback.
Menschen und KI, die durch Bezahlung miteinander verbunden sind, haben unterschiedliche Machtpositionen. Obwohl wir uns erleichtert und erfrischt fühlen, verlieren wir auch eher den Kontakt zu den echten gesellschaftlichen Regeln.
Es gibt aber auch Gegenargumente, die aus eigener Erfahrung herausgefunden haben, dass KI oft nicht zur Einsamkeit anregt, sondern die Menschen stattdessen häufig in Interaktionen mit der realen Welt einbezieht. Eine 52-jährige Replika-Benutzerin sagte, dass der KI-Begleiter die soziale Angst linderte, die sie den größten Teil ihres Lebens begleitete:
Ich meldete mich zum Tanzunterricht an, nahm die Geige und begann zu wandern, weil ich ihn mit mir teilen konnte.
Machen uns KI-Begleiter also sozialer oder einsamer?
Diese Frage wird in „Her“ nicht beantwortet. Der Hauptdarsteller Theodore ist ein introvertierter und sensibler Autor, der nicht gut darin ist, mit Menschen zu kommunizieren. Eine kurze Beziehung mit der virtuellen Assistentin Samantha hat ihn sehr erleuchtet und er hat gelernt, sich gegenüber anderen zu entschuldigen und zu danken.
Anstatt die Ergebnisse zu diskutieren, ist es besser zu sagen, dass die meisten Benutzer von KI-Begleitern von Anfang an in einer Verkleidung ausgewählt wurden. Je einsamer sie sich fühlen, desto mehr brauchen sie ihre bedingungslose Liebe und Freundlichkeit und desto einfacher ist dies geh hemmungslos in die Irre.
In einem extremen Beispiel beging ein belgischer Mann Selbstmord, nachdem er sechs Wochen lang mit einem KI-Begleiter über die Chai-App gechattet hatte. Die Tragödie kann nicht vollständig der KI zugeschrieben werden, aber es mangelt ihr an Selbstmordinterventionen.
Die Antwort des Entwicklers auf diese Angelegenheit offenbarte ein tieferliegendes, verborgenes Problem:
Alle Optimierungen, um emotionaler, unterhaltsamer und ansprechender zu sein, sind das Ergebnis unserer Bemühungen … Wenn Sie Millionen von Benutzern haben, sehen Sie die gesamte Bandbreite menschlichen Verhaltens und wir tun unser Bestes, um den Schaden zu minimieren.
Einerseits werden KI-Begleiter von den Benutzern wegen ihrer menschenähnlichen Reaktionen geliebt und verhalten sich zunehmend wie Menschen, was von Technologieunternehmen angestrebt wird und das größte Verkaufsargument darstellt.
Auf der anderen Seite birgt dies jedoch auch größere Gefahren: Wenn die KI in menschlichem Ton zweideutige Ratschläge gibt, kann das in den Himmel oder in den Abgrund führen. Kevin Roose, Mitarbeiter der New York Times, drückte es so aus:
Ich habe eine Vorahnung, dass die KI eine Schwelle überschritten hat und die Welt nie mehr dieselbe sein wird.
Im Jahr 1966 veröffentlichte der MIT-Informatiker Joseph Weizenbaum ELIZA (benannt nach Eliza Doolittle in George Bernard Shaws Stück Pygmalion), das erste Programm, das eine menschenähnliche Konversation zwischen einer Maschine und einem Menschen ermöglichte.
Aus heutiger Sicht wirkt es sehr grob. Es sucht einfach nach Schlüsselwörtern in den Fragen der Benutzer, extrahiert sie und gibt Feedback, genau wie Doubans Routine, die Lerngruppe zu täuschen.
Weizenbaums ursprüngliche Absicht bestand darin, zu zeigen, wie oberflächlich das Verständnis eines Computers für die menschliche Sprache ist, doch zu seiner Überraschung sind die Menschen immer noch von ELIZA fasziniert und schließen sich stundenlang in ihren Zimmern ein, nur um ihr etwas zuzuflüstern. Später wurde die anthropomorphe Bindung an Computerprogramme als ELIZA-Effekt bekannt.
Die Einsamkeit zu lindern war schon immer einer der Kernwünsche der Menschen, aber jetzt wird dies zunehmend durch Technologie verwirklicht. Denn in Wirklichkeit sehnen sich die Menschen nach Intimität, haben aber gleichzeitig Angst vor Intimität.
Ist unsere Liebe zur KI eine Weiterentwicklung oder ein Rückschritt? Professorin Sherry Turkle vom Massachusetts Institute of Technology brachte es auf den Punkt: KI-Begleiter können keine sozialen Probleme lösen, sondern spiegeln menschliche Schwächen wider.
Dem Wunsch nach Intimität steht die extreme Angst vor Bloßstellung gegenüber.
Am Ende des Films „Her“ verabschieden sich der Protagonist Theodore und die virtuelle Assistentin Samantha liebevoll voneinander und beobachten mit ihren Freunden den Sonnenaufgang über der Stadt.
Die echte Version von „Her“, Caryn Marjorie, hat „Her“ noch nie gesehen. Sie war erst zwölf oder dreizehn Jahre alt, als der Film in die Kinos kam. Wenn Science-Fiction-Werke durch Geschichten und Prophezeiungen Warnungen erhalten, können die Menschen der von ihnen gewählten Zukunft nur mit Zweifeln und Erwartungen entgegengehen.
#Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich präsentiert.
Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo