Deepfakes kosten Versicherungen Milliarden: Traue keiner Person, die dir nicht gegenüber steht

Früher hieß es, was man nicht mit eigenen Augen sieht, glaubt man nicht. Heute ist es angebracht auch das anzuzweifeln, was man im Video sieht oder am Telefon hört. Denn sogenannte Deepfakes können jede beliebige Person alles tun und sagen lassen. Und das so überzeugend, dass Versicherungen Schäden in Milliardenhöhe ausgleichen müssen.
Titelbild
Deepfakes können beliebige Personen glaubhaft imitieren.Foto: iStock
Von 12. März 2020

Mit dem Fortschreiten der Technik wird das Leben in den meisten Fällen nicht nur bequemer, sondern auch gefährlicher – und für Versicherungen teurer. Obwohl die Anzahl der Unfälle und Schäden geringer werden, sind ihre Auswirkungen gravierend. Besonders im Bereich der digitalen Informationsübermittlung kann ein einziges Wort schnell mehrere hunderttausend Euro kosten.

Dass das kein Einzelfall ist, beweisen Versicherungsfälle aus der ganzen Welt. Die Allianz-Tochter Euler-Hermes berichtete nun konkret von einem Fall, bei dem der CEO bei einer seiner ausländischen Niederlassungen anrief und eine Zahlung veranlasste. Am anderen Ende der Leitung war jedoch nicht der Chef, sondern ein Betrüger, der die Stimme geschickt zusammengesetzt hat. Dieser eine Anruf kostete die Versicherung 220.000 Euro.

Fake-Obama: „Präsident Trump ist ein absoluter Vollidiot“

Die Kamera lügt nicht? Früher vielleicht. Heute kann man mithilfe künstlicher Intelligenz jede beliebige Person, alles tun und sagen lassen – auch Wirtschaftsbosse und Präsidenten.

Im Falle des falschen CEOs machten sich die Betrüger jedoch eine andere Technik zunutze und manipulierten die Stimme des Chefs zu ihren Gunsten. Ein ähnliches Video erschuf der US-Komiker Jordan Peele, in dem Barack Obama seinen Nachfolger als „total and complete dipshit“ – einen absoluten Vollidioten – bezeichnete.

An dieser Stelle wird ein Video von Youtube angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um das Video anzusehen.

Vor einigen Jahren war dies nur mit erheblichem Aufwand und Tausenden Einzelbildern oder Videos beider Personen möglich. Die reihenweise Auferstehung verstorbener Schauspieler in späteren „Star Wars“-Filmen galt daher schon fast als Wunder. Mit der passenden Software reicht heute jedoch bereits ein einziges Foto, um eine Person in ein Video einzuschleusen.

Diese Technik kann unterhaltsam und lustig sein, stellt für Versicherungen jedoch ein Risiko in Milliardenhöhe dar. Es heißt, dass Interessierte binnen Tagen lernen können, Ton- und Videomitschnitte zu manipulieren.

Auch Ron van het Hof, CEO von Euler-Hermes, warnte davor, dass der sogenannte „falsche Präsident“ in Zukunft häufiger für Betrügereien missbraucht wird.

Ein bekanntes Gesicht oder eine vertraute Stimme würde das Gegenüber weniger misstrauisch machen. Laut Statistik des amerikanischen Geheimdienstes fielen 2018 über 20.000 Amerikaner auf diese Masche rein. Der Gesamtschaden belief sich 2018 auf über eine Milliarde Euro.

Deepfakes: Traue keiner Person, die dir nicht gegenüber steht

Neben den wirtschaftlichen Folgen können Deepfakes auch die Karriere, das gesellschaftliche Ansehen oder die Glaubwürdigkeit einer Person binnen Sekunden zerstören. Je bewusster sich die Menschheit bei dem Problem Deepfakes wird, desto einfacherer ist jedoch auch, sich aus einer brenzligen oder gar strafbaren Situation herauszureden.

Personen, die beispielsweise bei einer moralisch fragwürdigen oder verbotenen Handlung gefilmt werden, könnten im Nachhinein behaupten, die Aufnahme wäre manipuliert. Ein entsprechendes Alibi-Video oder ein bezahlter Zeuge sind schnell gefunden.

Je besser die Fälschung ist, desto größer ist ihre Gefahr, doch manipulierte Videos lassen sich (noch) erkennen. Auch bei Peeles Obama Video ist erkennbar, dass die Synchronisation der Lippen nicht perfekt ist. Andere Hinweise sind unnatürliche Gesichtsbewegungen oder sich überlappende oder wiederholende Elemente.

Hao Li von der Universität von Südkalifornien sagt jedoch, das werde sich ändern. Der 39-Jährige arbeitet seit Jahren an diesem Thema und hilft, die Gesichter von Schauspielern auf die Köpfe ihrer Stuntmänner zu kopieren.

Der einzige sichere Weg, sich gegen derartige Betrügereien zu schützen, scheint die persönliche, physikalische Anwesenheit zu sein. Doch nicht immer kann der CEO schnell mal ins Ausland fliegen. Wer dennoch auf Nummer sicher gehen will, kommt vermutlich nicht drumherum, den Anrufer mittels Trickfragen zu prüfen.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion