Arbeitskreis fordert nationale KI-Strategie für Bundeswehr und ihre Waffensysteme

Der Arbeitskreis „KI & Verteidigung“ hat eine nationale KI-Strategie für Waffensysteme gefordert. In den USA und Frankreich gebe es bereits entsprechende Grundsatzpapiere.
Titelbild
Eine US-Drohne im Einsatz im Irak. Im Bereich der Drohnentechnologie spielt militärisch nutzbare KI eine immer größere Rolle.Foto:  Lt. Col. Leslie Pratt/Symbol/dpa
Von 23. Juni 2023

Der Arbeitskreis „KI & Verteidigung“ hat die Vorlage einer nationalen Strategie zu Künstlicher Intelligenz in militärischen Waffensystemen gefordert. Jüngst hat die 2020 gegründete Einrichtung dazu bereits ein eigenes Impulspapier vorgelegt. In den USA und in Frankreich gebe es seit Jahr und Tag Leitlinien für den militärischen Einsatz von KI, heißt es vonseiten der Autoren. In Deutschland sei es dafür ebenfalls an der Zeit.

Geplante EU-Verordnung zu KI nimmt militärischen Bereich explizit aus

Der Arbeitskreis setzt sich zusammen aus Vertretern des Bundesverbands der Deutschen Sicherheits- und Verteidigungsindustrie (BDSV). Dazu kommen Wissenschaftler eines Instituts der Fraunhofer-Gesellschaft und der Bundeswehr-Universität in München.

Wie „table.media“ berichtet, will der Arbeitskreis mit seinem Papier einen „konkreten Beitrag zur Formulierung einer nationalen militärischen KI-Strategie“ leisten. Diese sei „angesichts der Bedrohungslage und der technischen Entwicklung“ aus ihrer Sicht „zwingend notwendig“.

In der Vorwoche hatte das EU-Parlament einen Entwurf für ein KI-Gesetz angenommen. Allerdings bezog sich dies vorwiegend auf Künstliche Intelligenz im zivilen Bereich. Vom Anwendungsbereich der geplanten Verordnung ausdrücklich ausgenommen sind „KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden“.

Ethische Fragen klären, „bevor wir etwas entwickeln“

BDSV-Hauptgeschäftsführer Hans Christoph Atzpodien warnt: Ohne eigene KI-Strategien könnte Deutschland gezwungen sein, sich den entsprechenden Vorgaben anderer anzupassen. Die Verantwortung beginne bereits bei der Entwicklung der militärisch nutzbaren KI. In weiterer Folge erstrecke sie sich auf Einsatzplanung und Ausführung.

Der Mitautor mahnt die Wahrung des Völkerrechts an, ebenso wie die Notwendigkeit, Daten zur Entwicklung solcher KI sorgfältig auszuwählen. Frank Sauer von der Universität der Bundeswehr gibt zu bedenken, wie elementar es sei, das Verhältnis zwischen Mensch und Maschine adäquat zu beschreiben.

Wolfgang Koch vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) will ethische Fragen klären, „bevor wir etwas entwickeln“.

International gehört Deutschland zu den Nachzüglern – zum Leidwesen der Industrie

Deutschland gehört bislang nicht zu den führenden Herstellern KI-gestützter Militärtechnologie. Den Weltmarkt beherrschen die USA und China – weitere aufstrebende Mächte bei der Entwicklung von KI-Drohnen sind Israel und die Türkei.

In diesen Ländern ist auch die vollautomatisierte Steuerung solcher Waffensysteme ein Thema. Autonome Systeme sind in der Lage, gegnerische Ziele zu erkennen – fraglich ist allerdings, ob sie auch deren Umfeld richtig deuten. So galt der Drohnenkrieg der US-geführten Koalition in Afghanistan in den 2010er-Jahren zu Beginn als vermeintlich „saubere“ und „chirurgische“ Form der Bekämpfung von Terroristen. Dieser Eindruck verflog, als es immer häufiger dazu kam, dass ganze Hochzeitsgesellschaften ins Visier von Drohnenangriffen gerieten, weil sich ein Terrorverdächtiger dort aufhielt.

Auch die Rüstungsindustrie wünsche Atzpodien zufolge Klarheit über die Möglichkeiten und Grenzen der Arbeit an KI-gestützten militärischen Systemen. Die Unternehmen wollten wissen, was sie entwickeln dürften. Zudem solle es ihnen weiter gestattet sein, das zu entwickeln, „was unsere Streitkräfte für ihren durchweg defensiven Auftrag benötigen“.

USA: Menschen müssen die letztendliche Kontrolle über die Systeme behalten

Die USA haben ihre nationale KI-Strategie für Waffensysteme in unterschiedlichen Richtlinien verankert, die sich mit dem Einsatz von KI in militärischen Kontexten befassen. Die US-Regierung sieht KI als einen wesentlichen Bestandteil der nationalen Sicherheitsstrategie und fördert die Entwicklung und den Einsatz von KI-Technologien.

Zu den zentralen Elementen gehören dabei die autonomen Systeme. Deren Potenzial gilt als erheblich, allerdings müssten Menschen die endgültige Kontrolle über deren Einsatz behalten. Autonome Systeme sollten demnach als Werkzeuge dienen, um menschliche Entscheidungsfindung zu unterstützen, anstatt diese zu ersetzen.

Der Einsatz militärischer KI und autonomer Waffensysteme müsse „den Grundsätzen der Verhältnismäßigkeit, Unterscheidungsfähigkeit und menschlichen Verantwortung“ genügen. In der Forschung und Entwicklung gehe es wiederum vorrangig um Zuverlässigkeit, Effektivität und Sicherheit.

Nationale militärische KI-Strategie in Frankreich setzt ähnliche Akzente

Frankreich hatte im Jahr 2019 seine bis heute gültige nationale KI-Strategie für Verteidigung und Sicherheit vorgelegt. Auch dabei geht es unter anderem um die Notwendigkeit menschlicher Kontrolle über den Einsatz von Waffensystemen. Autonome Waffensysteme, die in der Lage sind, gezielte Angriffe ohne menschliches Eingreifen durchzuführen, werden abgelehnt.

Die Strategie betont zudem die Bedeutung ethischer Grundsätze und internationaler Rechtsnormen für den Einsatz von KI in Waffensystemen. Der Einsatz von KI müsse stets „in Übereinstimmung mit dem humanitären Völkerrecht, insbesondere den Grundsätzen der Verhältnismäßigkeit und Unterscheidungsfähigkeit“ erfolgen.

Die französische Regierung will außerdem die Forschung und Entwicklung stärken, um auch im Bereich militärisch einsetzbarer KI wettbewerbsfähig zu bleiben. Dabei betont die Strategie die Bedeutung der internationalen Zusammenarbeit und des Austauschs bewährter Verfahren.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion