Das Fake-Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey.
Das Fake-Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey.Foto: Senatskanzlei Berlin/dpa

„Deep Fake“: Wenn man den eigenen Augen nicht trauen kann

Epoch Times26. Juni 2022 Aktualisiert: 28. Juni 2022 8:56
Franziska Giffey war sich sicher, dass in der Videokonferenz tatsächlich Kiews Bürgermeister Klitschko zu sehen ist. Sie hatte es aber mit einem sogenannten Deep Fake zu tun. Wie funktioniert die Fälschung mit Hilfe der künstlichen Intelligenz?

Vielleicht hätte Berlins Regierende Bürgermeisterin Franziska Giffey (SPD) misstrauisch werden sollen, dass ihr Gesprächspartner Vitali Klitschko mitten im Sommer mit dicker Jacke und Pullover zur vereinbarten Videokonferenz erschienen war.

So dauerte es einige Zeit, bis Giffey und ihr Team wegen der merkwürdigen Fragen des vermeintlichen Bürgermeisters von Kiew misstrauisch wurden. „Es gab keine Anhaltspunkte dafür, dass die Videokonferenz nicht mit einer echten Person geführt wird. Allem Anschein nach handelt es sich um Deep Fake“, erklärte die Senatskanzlei auf Twitter.

Was ist ein sogenannter Deep Fake?

Damit wird ein Medieninhalt bezeichnet, der mit Techniken künstlicher Intelligenz (KI) manipuliert wurde. Dabei kann es sich beispielsweise um ein vermeintlich authentisches Video oder eine Audio-Aufnahme handeln. Der Begriff „Deep Fake“ ist von den Worten „Deep Learning“ und „Fake“ (Fälschung) abgeleitet. Deep Learning ist ein Verfahren in der künstlichen Intelligenz, bei dem das System durch eine intensive Beobachtung lernt. Dabei werden Lippenbewegungen, Mimik und Körperhaltung analysiert. Beobachtet wird auch, zum Beispiel wie sich eine Person bewegt oder wie sie spricht.

Wie kam der Fake-Klischko in die Videokonferenz?

Für die Auftritte des Fake-Klitschko bei Giffey und anderen europäischen Bürgermeistern wurde mit hoher Wahrscheinlichkeit Videomaterial eines echten Klitschko-Interviews mit dem ukrainischen Journalisten Dmytro Hordon verwendet. Dabei wurden in Echtzeit die Lippenbewegungen aus dem Video mit den Aussagen desjenigen zusammengeführt, der tatsächlich mit Giffey gesprochen hat.

Haben die Forscher damit nicht eine Monster-Technologie geschaffen?

Als Meilenstein in der Entwicklung von Systemen, die für solche Videomanipulationen geeignet sind, gilt ein Experiment der University of Washington. 2017 stellten Forscher der Universität Algorithmen vor, die in der Lage waren, beliebige Audioclips in ein realistisches, lippensynchrones Video der Person umzuwandeln.

Die Wissenschaftler wollten eigentlich ein System entwickeln, um die Bildqualität bei Videokonferenzen zu verbessern. Da das Streaming von Audio über das Internet weit weniger Bandbreite benötigt als Video, wollte man den Ton nutzen, um daraus ein Video in viel besserer Qualität zu produzieren. Die Wissenschaftler diskutierten damals aber schon die Gefahr, dass diese Technologie missbraucht werden kann.

Braucht man für Deep Fakes einen Supercomputer?

In den App-Stores gibt es etliche Anwendungen, die eigentlich dazu dienen sollen, Selfies zu optimieren oder Porträts zu retuschieren. Doch diese Apps ermöglichen es auch, in Videos die Gesichter auszutauschen. Andere Programme wandeln Fotos in animierte Videos um. Bei der Bildqualität stoßen diese Apps jedoch schnell an Grenzen. Für ausgeklügelte Deep-Fake-Attacken auf Politiker benötigt man derzeit noch leistungsfähige Rechner.

Setzen Kriminelle Deep-Fake-Technik ein?

Ja. Zum einen kann die Technik für böswillige Fake-Videos missbraucht werden, mit denen sich die Täter strafbar machen. Deep Fakes werden aber auch beispielsweise von Kriminellen verwendet, um betrügerische Geldüberweisungen zu veranlassen. Beim Chef-Betrug erhält beispielsweise ein Buchhalter einer Firma eine manipulierte Sprachnotiz seiner Chefin, in der sie eine Überweisung auf ein bestimmtes Bankkonto anordnet. Der Absender ist wie die Audioaufnahme gefälscht.

Die Technik der Videomanipulation wird aber auch von Strafverfolgungsbehörden verwendet. So hat die niederländische Polizei in diesem Frühjahr einen Teenager fast 20 Jahre nach dessen gewaltsamem Tod in einem Video digital zum Leben erweckt – und daraufhin Dutzende Hinweise erhalten.

Wie kann man Deep Fakes erkennen?

Das wird immer schwerer fallen. Die Algorithmen der künstlichen Intelligenz und die verwendeten Hardware-Systeme werden künftig in der Lage sein, gefälschtes Videomaterial zu produzieren, das absolut authentisch aussieht. Man wird also seinen Augen und Ohren allein nicht mehr unbedingt vertrauen können. Um so wichtiger ist es, mit Logik und gesundem Menschenverstand aufsehenerregende Videoclips in Frage zu stellen.

Bei einer völlig überraschenden Entwicklung oder weitreichenden Aussage, sollten sich Nutzer stets fragen: Wie wahrscheinlich ist es, dass sie auf diese Weise verbreitet wird? Manchmal kann auch künstliche Intelligenz bei der Entdeckung von Fake-KI helfen: So kann man auf der Website deepware.ai Videos oder Links zu Videos hochladen, um eine Einschätzung zu erhalten, ob es sich dabei um Deep Fakes handelt. (dpa/red)



Gerne können Sie EPOCH TIMES auch durch Ihre Spende unterstützen:

Jetzt spenden!


Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die juristische Verantwortung für jeden veröffentlichten Kommentar tragen müssen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.

Die Kommentarfunktion wird immer weiter entwickelt. Wir freuen uns über Ihr konstruktives Feedback, sollten Sie zusätzliche Funktionalitäten wünschen an [email protected]


Ihre Epoch Times - Redaktion