Logo Epoch Times
plus-iconGefälschte Videos erkennen

Geheimcode von Lampen soll manipulierte Videos entlarven

Die rasante Entwicklung von KI-Tools zur Videobearbeitung macht es immer schwieriger, Fälschungen aufzudecken. Derzeit sind die Fälscher ihren Verfolgern deutlich voraus. Ein neues Verfahren könnte den Abstand jedoch verkürzen.

top-article-image

Dank moderner KI-Werkzeuge entstehen immer mehr Fake-Videos. Eine neue Technik soll helfen, sie aufzuspüren.

Foto: Deagreez/iStock

author-image
Artikel teilen

Lesedauer: 5 Min.


In Kürze:

  • Forscher entwickeln für das Auge unsichtbare Lichtcodes als Wasserzeichen für Videos.
  • Deepfakes und KI-Manipulationen lassen sich damit technisch entlarven.
  • Lampen können unabhängig nachgerüstet werden. Kameras erfordern keine Umrüstung.
  • Erste Tests waren erfolgreich, auch im Freien und bei unterschiedlichen Hauttönen.

 
Videos galten lange Zeit als der ultimative Beweis. Wer Szenen aufnahm, konnte sich sicher sein: Bilder lügen nicht. Doch spätestens mit der Verbreitung generativer KI ist diese Gewissheit dahin. Innerhalb weniger Minuten lassen sich täuschend echte Aufnahmen konstruieren – von politischen Reden hin zu frei erfundenen Ereignissen. Auf Social Media verbreiten sich Deepfakes oft schneller, als Faktenchecker reagieren können.
„Früher wurden Videos als Quelle der Wahrheit behandelt, aber diese Annahme können wir nicht länger aufrechterhalten“, sagte Abe Davis, Informatikprofessor an der US-amerikanischen Cornell University. Heute lasse sich „im Prinzip jedes beliebige Video erschaffen“. Genau hier setzt das neue Verfahren an: Die Authentizität soll durch Licht selbst nachweisbar werden.

Licht als unsichtbares Wasserzeichen

Das Forschungsteam hat ein Verfahren entwickelt, das geheime Informationen direkt in Leuchtmitteln versteckt. Diese senden minimale Helligkeitsschwankungen aus, die für Menschen nicht sichtbar sind. In Videos hinterlassen sie jedoch ein unsichtbares Wasserzeichen. So sendet jede Lichtquelle einen individuellen Code, der später wie ein digitaler Fingerabdruck zur Überprüfung dient.
Im Unterschied zu klassischen Pixel-Wasserzeichen bleibt diese Methode gänzlich unabhängig von Kameras oder Dateiformaten. Sobald ein Video in entsprechendem Licht aufgenommen wird, ist es mit diesem unsichtbaren Code versehen – unabhängig davon, wer die Aufnahme macht oder über welchen Kanal sie verbreitet wird.

Mini-Chip verwandelt jede Lampe in Sicherheitsschlüssel

Die technische Umsetzung ist erstaunlich simpel. Bereits vorhandene, programmierbare Leuchten lassen sich direkt durch Software steuern. Herkömmliche Lampen können mit einem winzigen Chip nachgerüstet werden – gerade einmal so groß wie eine Briefmarke. Dieser regelt die Lichtintensität nach einem geheimen Muster und macht jede Lampe zum Träger eines Wasserzeichens.
Für das menschliche Auge wirken die Schwankungen wie – ohnehin vorhandenes – zufälliges Rauschen oder natürliches Flimmern von Licht. Wer jedoch den Code kennt, kann aus dem Videomaterial eine zweite, verborgene Spur auslesen. Dieses „Code-Video“ zeigt eine grobe Kopie der Szene – genug, um Manipulationen aufzudecken.
Das Prinzip: Jede Abweichung zwischen sichtbarem und unsichtbarem Signal deckt eine Bearbeitung auf. Schneidet jemand ein Interview, entstehen Lücken im Code-Video. Fügt eine KI künstlich Personen oder Objekte ein, erscheinen diese im unsichtbaren Bild als schwarze Flächen.
Das Verfahren kann zudem mehrere Lichtquellen gleichzeitig nutzen. Jede Lampe sendet ihren eigenen Code. Ein Fälscher müsste dann gleich mehrere verdeckte Datenströme gleichzeitig fälschen. Dieser Aufwand gilt als nahezu unüberwindbar.

Erste Tests auch draußen erfolgreich

Die Forscher prüften das Verfahren nicht nur in der Laborumgebung. Erste Tests belegen, dass es auch im Freien funktioniert, etwa bei wechselnden Lichtverhältnissen. Sogar unterschiedliche Hauttöne führten nicht zu Fehlern – ein wichtiger Nachweis für die Praxistauglichkeit.
Damit könnte die Technik künftig bei Pressekonferenzen, Interviews, politischen Auftritten oder in internationalen Institutionen wie der UNO verwendet werden. Jede Aufnahme, die im „codierten Licht“ entsteht, wäre eindeutig überprüfbar.
Auch wenn die Ergebnisse vielversprechend sind, warnen die Forscher vor überzogenen Erwartungen. „Der Kampf gegen Falschinformationen ist ein Wettrüsten“, so Davis. KI-Systeme werden immer leistungsfähiger, und auch Manipulationsmethoden entwickeln sich weiter. Absolute Sicherheit wird es nicht geben. Doch das neue Verfahren schafft einen klaren Vorsprung – und liefert Faktenprüfern ein robustes Instrument.

Forschung mit politischer Dimension

Vorgestellt wurde die Arbeit von Peter Michael, Informatik-Doktorand an der Cornell University, im August 2025 auf der weltweit renommierten SIGGRAPH-Konferenz in Vancouver. Neben Michael und Davis waren auch Zekun Hao von der Universität Kopenhagen und Serge Belongie beteiligt.
Gefördert wurde die Arbeit unter anderem durch Stipendien aus dem US-Programm für nationale Sicherheitsforschung. Das zeigt, dass diese Forschung längst eine sicherheitspolitische Dimension hat. Sie betrifft nicht nur die Medienwelt, sondern auch Fragen der Demokratie, globaler Sicherheit und öffentlicher Meinungsbildung.
In diesem Spannungsfeld machen die Cornell-Forscher das Licht selbst zum Wahrheitszeugen. Ein unsichtbarer, technischer Fingerabdruck könnte künftig helfen, Deepfakes und manipulierte Videos zuverlässig zu entlarven. Ob sich die Methode international durchsetzt, ist offen. Doch im digitalen Zeitalter, in dem jedes Video potenziell gefälscht sein kann, könnte das passende Flimmern einer Lampe zum glaubwürdigsten Beweis werden.

Kommentare

Noch keine Kommentare – schreiben Sie den ersten Kommentar zu diesem Artikel.