KI macht einen langjährigen Betrug noch effektiver
![Eine ältere Person, die ein Telefon hält.](https://www.digitaltrends.com/wp-content/uploads/2023/03/person-using-phone.jpeg?fit=720%2C511&p=1)
Sie haben sicherlich schon von dem Betrug gehört, bei dem der Täter eine ältere Person anruft und vorgibt, ihr Enkelkind oder ein anderer naher Verwandter zu sein. Die übliche Routine besteht darin, in einem verzweifelten Zustand zu handeln, vorzugeben, dass sie sich in einer schwierigen Situation befinden, und um eine dringende Geldüberweisung zu bitten, um die Situation zu lösen. Während viele Großeltern erkennen, dass die Stimme nicht die ihres Enkelkindes ist, und auflegen, werden andere es nicht bemerken und, nur allzu erpicht darauf, ihrem besorgten Verwandten zu helfen, weitermachen und Geld auf das Konto des Anrufers überweisen.
Ein Bericht der Washington Post vom Sonntag enthüllt, dass einige Betrüger den Betrug auf eine ganz neue Ebene gehoben haben, indem sie KI-Technologie einsetzen, die Stimmen klonen kann, was es noch wahrscheinlicher macht, dass das Ziel auf die List hereinfällt.
Um diese ausgeklügeltere Version des Betrugs zu starten, benötigen Kriminelle laut der Post „eine Audioprobe mit nur wenigen Sätzen“. Das Sample wird dann durch eines von vielen weit verbreiteten Online-Tools laufen gelassen, die die Originalstimme verwenden, um eine Replik zu erstellen, die angewiesen werden kann, alles zu sagen, was Sie wollen, indem Sie einfach Sätze eingeben.
Daten der Federal Trade Commission deuten darauf hin, dass es allein im Jahr 2022 mehr als 36.000 Berichte über sogenannte Betrügereien gab, davon mehr als 5.000 telefonisch. Die gemeldeten Verluste erreichten 11 Millionen US-Dollar.
Die Befürchtung ist, dass mit immer effektiver und breiter verfügbar werdenden KI-Tools in den kommenden Monaten und Jahren noch mehr Menschen auf den Betrug hereinfallen werden.
Der Betrug erfordert jedoch noch etwas Planung, da ein entschlossener Täter eine Audioprobe einer Stimme sowie die Telefonnummer des zugehörigen Opfers finden muss. Audiobeispiele könnten beispielsweise online über beliebte Websites wie TikTok und YouTube gefunden werden, während Telefonnummern auch im Internet gefunden werden könnten.
Der Betrug kann auch viele Formen annehmen. Die Post nennt ein Beispiel, bei dem jemand, der sich als Anwalt ausgab, ein älteres Ehepaar kontaktierte und ihnen mitteilte, dass ihr Enkel wegen eines mutmaßlichen Verbrechens in Haft sei und dass sie mehr als 15.000 US-Dollar für Rechtskosten benötigen. Der falsche Anwalt gab dann vor, das Telefon ihrem Enkel zu übergeben, dessen geklonte Stimme um Hilfe bei der Zahlung der Gebühren bat, was sie auch taten.
Sie bemerkten erst, dass sie betrogen worden waren, als ihr Enkel sie später an diesem Tag zu einem Gespräch anrief. Es wird angenommen, dass der Betrüger seine Stimme aus YouTube-Videos geklont hat, die der Enkel gepostet hat, obwohl es schwer ist, sicher zu sein.
Einige fordern, dass die Unternehmen, die die KI-Technologie herstellen, die Stimmen klont, für solche Verbrechen verantwortlich gemacht werden. Aber bevor dies geschieht, scheint es sicher, dass viele andere durch diesen schändlichen Betrug Geld verlieren werden.
Um sich ein Beispiel einer geklonten Stimme anzuhören und zu sehen, wie nah sie dem Original kommen kann, lesen Sie diesen Artikel über digitale Trends .