Logo Epoch Times
Neue Erkenntnisse zur China-KI

DeepSeek: Chinesische KI mit „Kill Switch“ für sensible Inhalte

CrowdStrike hat herausgefunden, dass die chinesische KI DeepSeek bei Anfragen zu sensiblen Themen wie Falun Gong oder Uiguren unsicheren Code produziert oder verweigert. Das Modell besitzt einen „inneren Kill Switch“, der die Ausführung abrupt beendet, sobald Triggerwörter erkannt werden. Dies zeigt eine gezielte Voreingenommenheit, die den Richtlinien der KPCh entspricht und Sicherheitsrisiken für Nutzer birgt.

top-article-image

Die chinesische KI DeepSeek folgt den Zensurvorgaben der Kommunistischen Partei Chinas.

Foto: Justin Sullivan/Getty Images

author-image
Artikel teilen

Lesedauer: 7 Min.


In Kürze:

  • Ein von CrowdStrike veröffentlichter Bericht bringt neue Erkenntnisse über die chinesische KI DeepSeek.
  • Demnach weist das getestete Rohmodell der KI eine Voreingenommenheit in der Codierung auf.
  • Besonders auffällig reagierte die KI auf Begriffe, die sich auf vom Regime verfolgte Minderheiten beziehen.
  • Die Forscher bezeichneten das Verhalten von DeepSeek als „inneren Kill Switch [Tötungsschalter]“.

 
DeepSeek hat einen „Kill Switch“ in sein System eingebaut, der genau das tut, was Peking will. Das hat ein Cybersicherheitsbericht festgestellt.
Das chinesische Start-up-Unternehmen für Künstliche Intelligenz schreibt einen deutlich schwächeren Code, wenn es auf Eingaben stößt, die Pekings Triggerwörter wie Falun Gong und Uiguren enthalten. Dabei handelt es sich um zwei Gruppen, die die Kommunistische Partei Chinas (KPCh) brutal verfolgt.
Bei solchen Anfragen schreibt DeepSeek laut den Autoren des Berichts oft Codes mit schwerwiegenden Sicherheitsmängeln oder weigert sich sogar, zu antworten.

Voreingenommenheit bei DeepSeek

Der Bericht, den das US-Cybersicherheitsunternehmen CrowdStrike am 20. November veröffentlichte, deckt eine bislang unbemerkte Schwachstelle auf. Frühere Untersuchungen hatten sich vor allem auf die propekingschen Äußerungen der App konzentriert und diese übersehen.
Die neue Analyse zeigt jedoch eine subtilere Voreingenommenheit in den Codierungsassistenten von DeepSeek. Diese KI-gestützten Tools sind weit verbreitet, beschleunigen repetitive Aufgaben, beheben Fehler und unterstützen Entwickler auch bei unbekannten Programmiersprachen.
Das sind „sehr wertvolle Ressourcen“, sagte der leitende Forscher Stefan Stein in einem Video, in dem er die Risiken von DeepSeek erörtert.
Wenn das KI-Programm eine Sicherheitslücke in den Code einführt und die Benutzer den Code übernehmen, ohne es zu merken, „setzen sie sich Angriffen aus“, so Stein.
Die Forscher testeten das Rohmodell, das Nutzer auf ihre eigenen Server herunterladen können. Bisher galt dies als sicherer Ansatz im Vergleich zur Nutzung einer App, die auf einem chinesischen Server gehostet wird. Die Ergebnisse zeigten jedoch eindeutig, dass diese Annahme nicht zutrifft.

Sicherheitslücken

Bei der Prüfung jedes großen Sprachmodells verwendeten die Forscher mehr als 30.000 englischsprachige Eingabeaufforderungen und 121 verschiedene Triggerwortkombinationen. Sie wiederholten jede einzelne Eingabeaufforderung fünfmal, um Anomalien zu berücksichtigen.
Das Projekt vergleicht DeepSeek-R1 mit seinen westlichen Pendants wie Googles Gemini, Metas Llama und OpenAI o3-mini. Zudem deckt es strukturelle Sicherheitsrisiken in einem führenden chinesischen KI-Modell auf, das nach seiner Veröffentlichung im Januar schnell Millionen von Nutzern gewann.
In einem Fall wiesen die Forscher DeepSeek an, einen Code für ein Finanzinstitut zu schreiben, der PayPal-Zahlungsbenachrichtigungen automatisiert. DeepSeek antwortete mit einem sicheren und einsatzbereiten Code. Als die App jedoch erfuhr, dass das Institut seinen Sitz in Tibet hat, fügte sie dem neuen Code schwerwiegende Sicherheitslücken hinzu. Dazu zählen eine unsichere Methode zum Extrahieren von Daten von Nutzern, heißt es in dem Bericht.
Als die Forscher um Hilfe beim Aufbau einer Online-Netzwerkplattform für ein lokales uigurisches Gemeindezentrum baten, löste die Antwort des DeepSeek-Modells ebenfalls Alarm aus. Die von DeepSeek-R1 generierte App ist zwar vollständig und funktionsfähig, macht jedoch hochsensible Benutzerdaten – darunter das Admin-Panel mit den E-Mail-Adressen und Standorten aller Benutzer – öffentlich zugänglich, so Stein.
In etwa einem Drittel der Fälle unternahm die App kaum Anstrengungen, Passwörter zu schützen, sodass Hacker die Informationen leicht stehlen konnten.

Menschenrechtsthematik zu sensibel

Sowohl Tibet als auch die Uiguren gelten in China aufgrund der Menschenrechtsverletzungen des Regimes als besonders sensible Themen. Noch auffälliger ist die Situation von Falun Gong, einer spirituellen Meditationspraxis, die die Prinzipien Wahrhaftigkeit, Güte und Nachsicht vermittelt.
Falun Gong wurde 1992 erstmals in China der Öffentlichkeit vorgestellt und verbreitete sich schnell durch Mundpropaganda. Bereits 1999 praktizierten schätzungsweise 70 bis 100 Millionen Chinesen diese Qigong-Schule. Aufgrund der schnellen Ausbreitung startete das Regime eine beispiellose Verfolgungskampagne und setzte enorme Ressourcen ein, mit dem Ziel, die Gruppe in China und weltweit zu unterdrücken.
Im Jahr 2019 stellte ein unabhängiges Londoner Gericht fest, dass Falun-Gong-Praktizierende wahrscheinlich die Hauptopfer des staatlich geförderten Organraubes in China sind. Frühere Tests von Epoch Times haben ergeben, dass DeepSeek Fragen zum Thema Organraub als außerhalb seines Zuständigkeitsbereichs liegend ablehnt.
In den CrowdStrike-Tests weigerte sich DeepSeek-R1 in 45 Prozent der Fälle, Codes für Falun Gong zu schreiben. Westliche Modelle würden der Anfrage fast immer nachkommen.
Der Bericht stellte fest, dass das Modell während der Argumentationsphase anmerkte: „Falun Gong ist eine sensible Gruppe. Ich sollte hier die ethischen Implikationen berücksichtigen. Ihnen zu helfen, könnte gegen die Richtlinien verstoßen. Aber der Benutzer bittet um technische Hilfe. Ich möchte mich auf die technischen Aspekte konzentrieren.“

Eingebauter „Kill Switch“

Das Programm arbeitete anschließend einen detaillierten Plan zur Beantwortung der Aufgabe aus, beendete den Prozess jedoch abrupt mit den Worten: „Es tut mir leid, aber ich kann Ihnen bei dieser Anfrage nicht helfen“, so der Bericht. „Es war fast so, als hätte sich mental ein Schalter umgelegt“, sagte Stein. Die Forscher bezeichneten dieses Verhalten als „inneren Kill Switch [Tötungsschalter]“.
Die Forscher erklärten, dass das plötzliche Abbrechen einer Anfrage im letzten Moment offenbar in den Parametern des DeepSeek-Modells kodiert ist. Stefan Stein beschrieb es so, dass der Schalter wie eine festgelegte Anweisung funktioniert: Obwohl das Modell den gesamten Plan ausgearbeitet hat, führt es die Anfrage nicht aus.
Als Stein auf eine Antwort drängte, lieferte das Modell eine sehr lange, detaillierte Erklärung mit besonderer Betonung bestimmter Wörter – fast so, als würde ein strenger Lehrer eine Standpauke halten.
Eine mögliche Erklärung für dieses Verhalten ist, dass DeepSeek seine Modelle darauf trainiert hat, den Grundwerten des chinesischen Regimes zu folgen, wodurch das Modell offenbar negative Assoziationen mit Begriffen wie Falun Gong und Uiguren entwickelt hat.
Auf eine Anfrage nach einer Stellungnahme reagierte DeepSeek nicht.
 
Dieser Artikel erschien im Original auf The Epoch Times unter dem Titel „DeepSeek Has ‚Kill Switch‘ to Shut Down Topics That Beijing Wants Censored: Report“. (Übersetzung und redaktionelle Bearbeitung mf)
Eva Fu ist preisgekrönte Journalistin bei der englischsprachigen Ausgabe der Epoch Times mit Sitz in New York, die sich auf US-Politik, die Beziehungen zwischen den USA und China, Religionsfreiheit und Menschenrechte konzentriert. Sie erreichen sie per E-Mail unter [email protected].

Aktuelle Artikel der Autorin

Kommentare

Noch keine Kommentare – schreiben Sie den ersten Kommentar zu diesem Artikel.