Wenn die Lebensversicherung Ihnen KI gibt, sollten Sie Limonade machen?

Ein wachsender Trend betrifft Versicherungsunternehmen, die künstliche Intelligenz in ihren Geschäftsabläufen einsetzen. In Anzeigen zu diesen Methoden wird oft erwähnt, wie Kunden sich dank KI schneller für Policen anmelden, Ansprüche effizienter geltend machen und rund um die Uhr Unterstützung erhalten.

Ein kürzlich veröffentlichter Twitter-Thread von Lemonade – einer Versicherungsmarke, die KI verwendet – beleuchtet jedoch die potenziellen Probleme dieser Praxis. Die Leute sahen es und entschieden dann, dass der Lemonade-KI-Ansatz hervorhebt, wie Technologie je nach Anwendung schaden und helfen kann.

Twitter Transparenz schlägt Alarm

Viele Unternehmen geben keine Details darüber preis, wie sie KI einsetzen. Die Idee dahinter ist, dass die Geheimhaltung der KI den Eindruck eines futuristischen Angebots erweckt und gleichzeitig die proprietäre Technologie eines Unternehmens schützt.

Als Lemonade zu Twitter ging, um den Leuten Einblicke in die Funktionsweise seiner KI zu geben, begann die Kommunikation mit der Erklärung, wie es Informationen verwendet. Ein Lemonade-Tweet bestätigte beispielsweise, dass etwa 100-mal mehr Daten gesammelt werden als bei herkömmlichen Versicherungsunternehmen.

Der Thread fuhr fort, indem er erklärte, wie der KI-Chatbot des Unternehmens seinen Kunden 13 Fragen stellt. Dabei sammelt es mehr als 1.600 Datenpunkte. Das ist im Vergleich zu den 20-40 anderen Versicherern, die der Tweet weitergibt. Das Unternehmen verwendet diese Informationen, um das damit verbundene Risiko eines Kunden abzuschätzen, was Lemonade hilft, seine Betriebskosten und Schadenquote zu senken.

Der vierte Tweet der Zeichenfolge mit sieben Nachrichten betrat noch mehr Augenbrauen, was darauf hindeutet, dass die Lemonade-KI-Analyse nonverbale Hinweise im Zusammenhang mit betrügerischen Behauptungen erkennt. Der Prozess des Unternehmens beinhaltet, dass Kunden ihre Telefone verwenden, um Videos zu drehen, die erklären, was passiert ist.

Twitter-Nutzer stellten die Ethik dieses Ansatzes in Frage und wiesen auf die Probleme mit nicht rechenschaftspflichtigen Computern hin, die Entscheidungen über lebensverändernde Behauptungen treffen, wie zum Beispiel bei abgebrannten Häusern. Einer nannte die Praxis "eine noch offenkundiger pseudowissenschaftliche Version eines traditionellen Lügendetektortests".

Auch KI macht Fehler

Die Betrugserkennung geht über die KI-Methoden von Versicherungen hinaus, die verdächtige Anzeichen und Muster erkennen . Viele Banken verwenden es beispielsweise, um seltsame Belastungen zu kennzeichnen. Die Technologie könnte jedoch Situationen falsch wahrnehmen – und das tut sie. Selbst die erfahrensten Programmierer können nicht fehlerfrei arbeiten.

Die meisten Menschen sind gelegentlich mit der peinlichen Situation konfrontiert, wenn sie versuchen, einen Artikel zu kaufen, und die Kassiererin ihnen mitteilt, dass die Transaktion fehlgeschlagen ist, obwohl sie viel Geld auf ihren Konten hatten. Die Behebung der Situation ist normalerweise so einfach wie der Kontakt des Karteninhabers mit dem Aussteller, um die Situation zu erklären und die Belastung zu genehmigen.

Schwieriger wird die Situation jedoch wohl, wenn es sich um einen Anspruch auf lebenswichtiges Eigentum einer Person handelt. Was ist, wenn die KI einen Fehler macht und die legitime Katastrophe eines Versicherungsnehmers als betrügerisch kategorisiert? Wer seine Versicherungskosten treu bezahlt und erwartet, dass der Versicherungsschutz nach katastrophalen Situationen Ruhe gibt, könnte schließlich doch nicht geschützt sein. Ein vom Menschen verursachter Fehler bei der Programmierung kann für einen KI-Versicherungskunden zu einem falschen Ergebnis führen.

Mit Lemonade können Kunden jederzeit kündigen und Rückerstattungen für den verbleibenden bezahlten Zeitraum einer Police erhalten. Nachdem die Leute seinen beleidigenden Twitter-Thread gelesen hatten, gaben viele öffentlich an, den Anbieter wechseln zu wollen. Es ist zu früh, um zu sagen, wie viele folgen werden.

Profitieren auf Kosten der Kunden?

Ein weiterer Teil des Tweet-Strings von Lemonade erwähnte, dass das Unternehmen im ersten Quartal 2017 einen Gewinnverlust von 368% hatte. Im ersten Quartal 2021 waren es jedoch nur 71%. Die Versicherungsgesellschaft ist nicht die einzige, die ihre KI-Investitionen erhöht, um Gewinne zu erzielen.

Die Schritte, die Unternehmensführer bei der Implementierung von KI unternehmen, wirken sich auf die Ergebnisse aus. Eine Studie von BDO zeigte ein durchschnittliches Umsatzwachstum von 16 % bei gleichzeitig höheren Investitionen in die IT während der KI-Implementierung. Der durchschnittliche Anstieg betrug jedoch nur 5 %, ohne dass mehr Ressourcen für die IT bereitgestellt wurden.

Unabhängig von den konkreten Schritten, die ein Unternehmensleiter beim Einsatz von künstlicher Intelligenz unternimmt, löste das Fiasko von Lemonade in der Öffentlichkeit verständliche Sorgen aus. Einer der Hauptnachteile von KI ist, dass Algorithmen oft die Faktoren nicht erklären können, die sie zu einem Schluss gebracht haben.

Selbst die Tech-Profis, die sie bauen, können die verschiedenen Aspekte nicht bestätigen, die dazu führen, dass ein KI-Tool eine bestimmte Entscheidung gegenüber einem anderen trifft. Dies ist eine besorgniserregende Realität für Versicherungs-KI-Produkte und alle anderen Branchen, die künstliche Intelligenz verwenden, um wichtige Entscheidungen zu treffen. Einige KI-Analysten sprechen sich in HDSR verständlicherweise gegen den unnötigen Einsatz von Black-Box-Modellen aus.

Auf der Website von Lemonade wird erwähnt, wie KI einen erheblichen Prozentsatz ihrer Schadenentscheidungen in Sekundenschnelle trifft. Das ist eine gute Nachricht, wenn das Ergebnis zu Gunsten des Kunden ausfällt. Sie können sich jedoch den zusätzlichen Druck vorstellen, der auf einen bereits gestressten Versicherten ausgeübt wird, wenn die KV weniger als eine Minute braucht, um einen gültigen Anspruch abzulehnen. Lemonade und andere KI-gesteuerte Versicherer mögen nichts dagegen haben, wenn dieses System ihnen hilft, zu profitieren, aber die Kunden werden es tun, wenn die Technologie des Unternehmens unfaire Urteile fällt.

Limonade Backpedals

Die Vertreter von Lemonade löschten schnell ihren umstrittenen Tweet-String und tauschten ihn mit einer Entschuldigung aus. In der Nachricht heißt es, dass Lemonade AI Ansprüche nie automatisch ablehnt und sie nicht nach Merkmalen wie dem Geschlecht oder dem Aussehen einer Person bewertet.

Benutzer wiesen schnell darauf hin, dass im ursprünglichen Tweet des Unternehmens die Verwendung von KI zur Bewertung nonverbaler Hinweise erwähnt wurde. Die Situation wurde noch zweifelhafter, als ein Lemonade-Blogpost behauptete, das Unternehmen verwende keine KI, um Behauptungen aufgrund von physischen oder persönlichen Merkmalen abzulehnen.

In dem Beitrag wurde erörtert, wie Lemonade Gesichtserkennung verwendet, um Fälle zu melden, in denen dieselbe Person Ansprüche unter mehreren Identitäten geltend macht. Der erste Tweet erwähnte jedoch nonverbale Hinweise, die sich von der Untersuchung des Gesichts einer Person zu unterscheiden scheinen, um zu authentifizieren, wer sie sind.

Etwas wie "Lemonade AI verwendet Gesichtserkennung zur Identitätsprüfung während des Schadenprozesses" zu sagen, würde viele Menschen davon abhalten, erschreckende Schlussfolgerungen zu ziehen. Der Blog brachte auch zur Sprache, wie Verhaltensforschung darauf hindeutet, dass Personen seltener lügen, wenn sie sich selbst beim Sprechen beobachten – beispielsweise über die Selfie-Kamera eines Telefons. Der Ansatz ermöglicht es, "berechtigte Ansprüche schneller zu bezahlen und gleichzeitig die Kosten niedrig zu halten". Andere Versicherungsunternehmen setzen künstliche Intelligenz jedoch wahrscheinlich anders ein.

Ein potenzielles Problem jedes KI-Versicherungsinstruments besteht darin, dass die Menschen, die es verwenden, unter Stress Merkmale aufweisen können, die denen unwahrer Personen entsprechen. Ein Versicherungsnehmer kann stottern, schnell sprechen, sich wiederholen oder sich umschauen, während er ein Schadenvideo erstellt. Sie könnten diese Zeichen aus großer Not zeigen – nicht unbedingt aus Unehrlichkeit. Auch der Personalbereich setzt KI bei der Durchführung von Vorstellungsgesprächen ein. Ein damit verbundenes Risiko besteht darin, dass sich jeder unter Druck oft anders verhält als er selbst.

KI-Nutzung und Potenzial für Datenschutzverletzungen

Die Leistung des KI-Algorithmus verbessert sich normalerweise, wenn ein Tool Zugriff auf mehr Informationen erhält. Die ursprünglichen Tweets von Lemonade behaupteten, dass mehr als 1.600 Datenpunkte pro Kunde gesammelt wurden. Diese schiere Menge gibt Anlass zur Sorge.

Zunächst fragen Sie sich vielleicht, was der Algorithmus weiß und ob er falsche Schlussfolgerungen gezogen hat. Eine weitere Sorge ergibt sich daraus, ob Lemonade und andere KI-Versicherungsunternehmen Daten angemessen schützen.

Verwandte: Die besten Dienste zum Schutz vor Identitätsdiebstahl und zur Überwachung

Cyberkriminelle zielen darauf ab, den schlimmsten Schaden anzurichten, wenn sie Opfer angreifen. Das bedeutet oft, dass versucht wird, Netzwerke und Tools mit den meisten verfügbaren Daten zu infiltrieren. Online-Täter wissen auch, dass KI viele Informationen benötigt, um gut zu funktionieren. Ebenso stehlen sie gerne Daten, um sie später im Dark Web zu verkaufen.

Bei einem Vorfall im Februar 2020 erlitt ein Gesichtserkennungsunternehmen namens Clearview AI eine Datenschutzverletzung. CPO berichtet, dass nicht autorisierte Parteien auf seine vollständige Kundenliste und Informationen über die Aktivitäten dieser Unternehmen zugegriffen haben. Das Unternehmen hatte staatliche Strafverfolgungs- und Bundesbehörden, darunter das FBI und das Department of Homeland Security, zu seinen Kunden.

Datenschutzverletzungen schaden den Kunden, indem sie ihr Vertrauen untergraben und sie dem Risiko von Identitätsdiebstahl aussetzen. Da es so häufig zu Vorfällen von gestohlenen oder falsch gehandhabten Daten kommt, schrecken viele Menschen möglicherweise davor zurück, dass ein KI-Versicherungstool im Hintergrund Informationen über sie sammelt. Dies gilt insbesondere dann, wenn ein Unternehmen seine Datenschutz- und Cybersicherheitsrichtlinien nicht spezifiziert.

Bequemlichkeit gepaart mit Sorge

KI im Versicherungsbereich hat zahlreiche hilfreiche Aspekte. Viele Leute lieben es, Anfragen an Chatbots zu schreiben und fast sofortige Antworten zu erhalten, anstatt wertvolle Zeit am Telefon zu verbringen, um einen Agenten zu erreichen.

Wenn ein KI-Tool für Versicherungsfälle die richtigen Schlussfolgerungen zieht und Unternehmensvertreter die Daten schützen, liegen offensichtliche Vorteile vor. Diese Übersicht erinnert jedoch daran, dass KI keine narrensichere Lösung ist und Unternehmen sie möglicherweise missbrauchen, um Gewinne zu steigern. Da immer mehr Versicherer KI erforschen, müssen Tech-Analysten und Verbraucher diese Unternehmen ehrlich und ethisch halten, indem sie ihre berechtigten Bedenken zum Ausdruck bringen. Dadurch wird sichergestellt, dass die Daten der Benutzer vor Cyberkriminalität geschützt sind.