Hauptgefahren von Deepfakes und wie man sie erkennt

In einer Welt, in der Ihre Online-Identität direkt mit Ihnen verknüpft ist, ist die Aussicht auf eine perfekte Replikation besorgniserregend. Aber genau dem begegnen wir mit dem Aufkommen der Deepfake-Technologie.

Was sind die Gefahren von Deepfakes, wenn die Technologie billiger und benutzerfreundlicher wird? Wie können Sie außerdem eine Deepfake im Vergleich zum Real Deal erkennen?

Was ist eine Deepfake?

Eine Deepfake ist der Name für Medien, bei denen eine Person im Video oder Bild durch die Ähnlichkeit einer anderen Person ersetzt wird. Der Begriff ist ein Portmanteau von "Deep Learning" und "Fake" und verwendet Algorithmen für maschinelles Lernen und künstliche Intelligenz, um realistische und dennoch synthetische Medien zu erstellen.

Im einfachsten Fall finden Sie möglicherweise ein Gesicht, das einem anderen Modell überlagert ist. In seiner sich schnell entwickelnden schlimmsten, vernichteten Technologie werden ahnungslose Opfer in gefälschte pornografische Videos, gefälschte Nachrichten, Scherze und mehr verwandelt.

Weitere Informationen zu den Ursprüngen der Technologie finden Sie in unserem ausführlichen Erklärungsbericht .

Was sind die Gefahren von Deepfakes?

Gefälschte Bilder gab es schon immer. Herauszufinden, was gefälscht ist und was nicht, ist ein häufiger Teil des Lebens, insbesondere nach dem Aufkommen digitalisierter Medien. Die Probleme, die die Deepfake-Technologie verursacht, sind jedoch unterschiedlich und verleihen gefälschten Bildern und gefälschten Videos eine beispiellose Genauigkeit.

Eines der ersten Deepfake-Videos, das ein breiteres Publikum erreichte, war Jordan Peele, der sich in einem Video als Barack Obama ausgab und genau das Problem diskutierte:

Das Video wirkt grob, mit einer seltsamen Stimme und körnigen Artefakten auf dem geklonten Gesicht. Trotzdem zeigt es die Deepfake-Technologie.

Oder haben Sie sich jemals gefragt, wie es gewesen wäre, wenn Will Smith Neo in The Matrix anstelle von Keanu Reeves gespielt hätte (ich meine, wer hat das nicht?!)? Wundere dich nicht mehr:

Diese beiden Videos sind nicht böswillig und erfordern Hunderte von Stunden maschinellen Lernens zum Kompilieren. Die gleiche Technologie steht jedoch jedem zur Verfügung, der genügend Zeit zum Lernen und die dazugehörige Rechenleistung hat. Die Barriere für den Einsatz von Deepfake-Technologie war anfangs recht hoch. Da sich die Technologie verbessert und die Eintrittsbarrieren erheblich sinken, finden die Menschen negative und schädliche Verwendungsmöglichkeiten für Deepfakes.

Bevor wir uns mit der dunklen Seite von Deepfakes befassen, ersetzt Jim Carrey Jack Nicholson in The Shining:

Hauptgefahren von Deepfakes und wie man sie erkennt - jim carrey deepfake the shining

1. Gefälschtes Material für Erwachsene mit Prominenten

Eine der Hauptbedrohungen der Deepfake-Technologie ist synthetisches Material für Erwachsene oder so genannter Deepfake-Porno. Es gibt Zehntausende gefälschter Videos für Erwachsene mit den Gesichtern prominenter weiblicher Prominenter wie Emma Watson, Natalie Portman und Taylor Swift.

Alle verwenden Deepfake-Algorithmen für maschinelles Lernen, um das Promi-Gesicht auf den Körper einer erwachsenen Schauspielerin zu nähen, und alle ziehen auf den zahlreichen Websites mit Inhalten für Erwachsene zig Millionen Aufrufe an.

Dennoch tut keine dieser Websites etwas gegen Promi-Deepfakes.

"Bis es einen starken Grund für sie gibt, zu versuchen, sie zu entfernen und zu filtern, wird nichts passieren", sagt Giorgio Patrini, CEO und Chefwissenschaftler bei Sensity, einem Unternehmen für tiefgreifende Erkennung und Analyse. "Es steht den Menschen weiterhin frei, diese Art von Material ohne Konsequenzen auf diese Websites hochzuladen, die von Hunderten Millionen Menschen angesehen werden."

Die Videos sind ausbeuterisch und weit davon entfernt, opferfrei zu sein, wie einige Deepfake-Schöpfer behaupten.

2. Gefälschtes Material für Erwachsene mit normalen Personen

Was ist schlimmer als synthetischer Porno mit Prominenten? Das ist richtig: gefälschtes Material für Erwachsene mit ahnungslosen Frauen. Eine Sensity-Studie deckte einen Deepfake-Bot in der Social-Messaging-App Telegram auf, der über 100.000 Deepfake-Nacktbilder erstellt hatte. Viele der Bilder werden von Social-Media-Konten gestohlen, auf denen Freunde, Freundinnen, Frauen, Mütter usw. abgebildet sind.

Der Bot ist ein großer Fortschritt in der Deepfake-Technologie, da der Image-Uploader keine Kenntnisse über Deepfakes, maschinelles Lernen oder KI benötigt. Es ist ein automatisierter Prozess, der ein einzelnes Bild erfordert. Darüber hinaus scheint der Telegramm-Bot nur mit Frauenbildern zu funktionieren, und Premium-Abonnements (mehr Bilder, entferntes Wasserzeichen) sind lächerlich billig.

Wie die Promi-Deepfakes sind auch die Deepfake-Bilder des Telegramm-Bots ausbeuterisch, missbräuchlich und amoralisch. Sie könnten leicht den Weg zum Posteingang eines Ehemanns, Partners, Familienmitglieds, Kollegen oder Chefs finden und dabei Leben zerstören. Das Potenzial für Erpressung und andere Formen der Erpressung ist sehr hoch und erhöht die Bedrohung durch bestehende Probleme wie Rachepornos.

Das Posten der Deepfakes auf Telegram schafft ebenfalls ein weiteres Problem. Telegramm ist ein datenschutzorientierter Messaging-Dienst, der seine Benutzer nicht zu sehr stört. Es gibt eine Richtlinie zum Entfernen von Pornobots und anderen Bots, die sich auf Material für Erwachsene beziehen, hat jedoch in diesem Fall nichts unternommen.

3. Scherzmaterial

Sie haben gesehen, wie Jordan Peele Obama gespielt hat. In diesem Video warnt er vor den Gefahren von Deepfakes. Eine der größten Sorgen in Bezug auf die Deepfake-Technologie ist, dass jemand ein Video erstellt und veröffentlicht, das so realistisch ist, dass es zu einer Tragödie in irgendeiner Form führt.

Am äußersten Ende der Skala sagen die Leute, dass gefälschte Videoinhalte einen Krieg auslösen könnten. Es gibt aber auch andere wichtige Konsequenzen. Zum Beispiel könnte ein Deepfake-Video, in dem ein großes Unternehmen oder ein Bankchef eine schädliche Aussage macht, einen Börsencrash auslösen. Wieder ist es extrem. Aber echte Menschen können ein Video überprüfen und verifizieren, während die globalen Märkte sofort auf Nachrichten reagieren und automatisierte Ausverkäufe stattfinden.

Die andere zu berücksichtigende Sache ist die Lautstärke. Da die Erstellung von Deepfake-Inhalten immer billiger wird, besteht die Möglichkeit, dass große Mengen von Deepfake-Inhalten derselben Person erstellt werden, wobei der Schwerpunkt auf der Übermittlung derselben gefälschten Nachricht in verschiedenen Tönen, Orten, Stilen und mehr liegt.

4. Reales Material verweigern

Als Erweiterung des Scherzmaterials müssen Sie berücksichtigen, dass Deepfakes unglaublich realistisch werden. So sehr, dass die Leute anfangen zu fragen, ob ein Video echt ist oder nicht, unabhängig vom Inhalt.

Wenn jemand ein Verbrechen begeht und der einzige Beweis ein Video ist, was soll ihn davon abhalten, zu sagen: "Es ist eine tiefe Fälschung, es ist ein falscher Beweis"? Umgekehrt, was ist mit dem Pflanzen von gefälschten Videobeweisen, die jemand finden kann?

5. Gefälschte Vordenker und soziale Kontakte

Es gab bereits mehrere Fälle, in denen sich gefälschte Inhalte als Vordenker ausgaben. Profile auf LinkedIn und Twitter beschreiben hochrangige Rollen in strategischen Organisationen. Diese Personen existieren jedoch nicht und werden wahrscheinlich mithilfe von Deepfake-Technologie generiert.

Dies ist jedoch kein Deepfake-spezifisches Problem. Seit jeher verwenden Regierungen, Spionagenetzwerke und Unternehmen gefälschte Profile und Personas, um Informationen zu sammeln, Agenden voranzutreiben und zu manipulieren .

6. Phishing-Betrug, Social Engineering und andere Betrügereien

Social Engineering ist bereits ein Thema, wenn es um Sicherheit geht. Menschen wollen anderen Menschen vertrauen. Es liegt in unserer Natur. Dieses Vertrauen kann jedoch zu Sicherheitsverletzungen, Datendiebstahl und vielem mehr führen. Social Engineering erfordert häufig persönlichen Kontakt, sei es über das Telefon, über einen Videoanruf usw.

Angenommen, jemand könnte Deepfake-Technologie verwenden, um einen Director nachzuahmen und Zugriff auf Sicherheitscodes oder andere vertrauliche Informationen zu erhalten. In diesem Fall könnte es zu einer Flut von gefälschten Betrügereien kommen.

So erkennen und erkennen Sie Deepfakes

Bei zunehmender Qualität von Deepfakes ist es wichtig, herauszufinden, ob Deepfakes entdeckt werden. In den frühen Tagen gab es einige einfache Tells: verschwommene Bilder, Videoverfälschungen und Artefakte und andere Unvollkommenheiten. Diese verräterischen Probleme nehmen jedoch ab, während die Kosten für die Verwendung der Technologie rapide sinken.

Es gibt keine perfekte Möglichkeit, Deepfake-Inhalte zu erkennen, aber hier sind vier nützliche Tipps:

  1. Details . So gut die Deepfake-Technologie auch wird, es gibt immer noch Probleme, mit denen sie zu kämpfen hat. Insbesondere feine Details in Videos wie Haarbewegungen, Augenbewegungen, Wangenstrukturen und Bewegungen während des Sprechens sowie unnatürliche Gesichtsausdrücke. Augenbewegung ist ein großes Tell. Obwohl Deepfakes jetzt effektiv blinken können (in den frühen Tagen war dies ein wichtiger Hinweis), ist die Bewegung der Augen immer noch ein Problem.
  2. Emotion . Ins Detail zu binden ist Emotion. Wenn jemand eine starke Aussage macht, zeigt sein Gesicht eine Reihe von Emotionen, wenn er die Details liefert. Deepfakes können nicht die gleiche Tiefe von Emotionen liefern wie eine reale Person.
  3. Inkonsistenz . Die Videoqualität ist so hoch wie nie zuvor. Das Smartphone in Ihrer Tasche kann in 4K aufnehmen und übertragen. Wenn ein politischer Führer eine Erklärung abgibt, befindet er sich vor einem Raum voller erstklassiger Aufnahmegeräte. Daher ist eine schlechte visuelle und akustische Aufnahmequalität eine bemerkenswerte Inkonsistenz.
  4. Quelle . Wird das Video auf einer verifizierten Plattform angezeigt? Social Media-Plattformen verwenden die Überprüfung, um sicherzustellen, dass global erkennbare Personen nicht nachgeahmt werden. Klar, es gibt Probleme mit den Systemen. Wenn Sie jedoch überprüfen, wo ein besonders ungeheuerliches Video gestreamt oder gehostet wird, können Sie herausfinden, ob es echt ist oder nicht. Sie können auch versuchen, eine umgekehrte Bildsuche durchzuführen, um andere Stellen anzuzeigen, an denen das Bild im Internet gefunden wird.

Tools zum Erkennen und Verhindern von Deepfakes

Du bist nicht allein im Kampf gegen das Erkennen von Deepfakes. Mehrere große Technologieunternehmen entwickeln Tools zur Erkennung von Deepfakes, während andere Plattformen Schritte unternehmen, um Deepfakes dauerhaft zu blockieren.

Das Deepfake-Erkennungstool von Microsoft , der Microsoft Video Authenticator , analysiert beispielsweise innerhalb von Sekunden und informiert den Benutzer über seine Authentizität (ein Beispiel finden Sie im GIF unten). Gleichzeitig können Sie mit Adobe Inhalte digital signieren , um sie vor Manipulationen zu schützen.

Hauptgefahren von Deepfakes und wie man sie erkennt - Disinf GIF

Plattformen wie Facebook und Twitter haben bereits böswillige Deepfakes verboten (Deepfakes wie Will Smith in The Matrix sind immer noch ein faires Spiel), während Google an einem Text-zu-Sprache-Analysetool arbeitet, um gefälschten Audio-Snippets entgegenzuwirken.

Wenn Sie Ihre Fähigkeiten zur Erkennung gefälschter Medien auffrischen möchten, lesen Sie unsere Liste mit Tests zur Erkennung gefälschter Medien zum Erkennen und Lernen .

Deepfakes kommen – und sie werden besser

Die Wahrheit ist, dass Deepfakes, die 2018 den Mainstream erreichten, hauptsächlich Frauen missbrauchen. Egal, ob es darum geht, gefälschte Pornos mit einem Promi-Gesicht zu erstellen oder jemandem in den sozialen Medien die Kleidung auszuziehen, alles konzentriert sich darauf, Frauen auf der ganzen Welt auszubeuten, zu manipulieren und zu erniedrigen.

Es besteht kein Zweifel, dass ein Aufstand von Deepfakes am Horizont liegt. Der Aufstieg dieser Technologie stellt eine Gefahr für die Öffentlichkeit dar, doch es gibt kaum einen Rückgriff, um ihren Vormarsch zu stoppen.