Google-Mitarbeiter rebellieren gegen Beteiligung an „Geschäft mit dem Krieg“

Epoch Times16. Mai 2018 Aktualisiert: 16. Mai 2018 12:18
Mitarbeiter von Google haben den Konzern aufgerufen, sich vom "Geschäft mit dem Krieg" fernzuhalten: Die Menschheit sei "nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten - ohne menschliche Aufsicht oder aussagekräftige Kontrolle".

Zahlreiche Mitarbeiter von Google haben den US-Technologiekonzern aufgerufen, sich vom „Geschäft mit dem Krieg“ fernzuhalten. Google müsse klar erklären, dass weder der Internetriese noch seine Subunternehmen „jemals Kriegstechnologie herstellen“, hieß es in einer Petition, die bis Dienstag Berichten zufolge rund 4000 Angestellte unterzeichneten.

Darin fordern sie Google auf, Drohnenprogramme des US-Militärs nicht mithilfe künstlicher Intelligenz zu verbessern. Dem Internetportal „Gizmodo“ zufolge reichten bereits mehrere Entwickler aus ethischen Gründen ihre Kündigung ein.

Hintergrund: Projekt Maven

Hintergrund der Proteste ist das sogenannte „Project Maven“, bei dem laut US-Medien intelligente Algorithmen bei der Erkennung und Unterscheidung von Menschen in Drohnenvideos für das Pentagon zum Einsatz kommen. „Wir fordern, dass das ‚Project Maven‘ gestoppt wird“, heißt es in der Petition, von der Kopien im Internet veröffentlicht wurden. „Wir glauben, dass Google nicht im Geschäft mit dem Krieg sein sollte.“

Das Unternehmen war am Dienstag für eine Stellungnahme zunächst nicht zu erreichen. Unterstützung für die Petition kam von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und dem International Committee for Robot Arms Control (ICRAC), das sich dafür einsetzt, die militärische Nutzung von Robotern zu begrenzen.

Auch wenn die durch künstliche Intelligenz gewonnenen Erkenntnisse noch einmal von menschlichen Analysten überprüft werden sollten, könne diese Technologie den Weg für automatisierte Zielerfassungssysteme bei Kampfdrohnen ebnen, schrieb das ICRAC in einem offenen Brief.

Wenn Befehlshaber des Militärs zu der Erkenntnis gelangen, dass die Algorithmen verlässlich sind, gibt es die Versuchung, die Überprüfung durch Menschen für diese Systeme abzuschwächen oder sogar abzuschaffen.“

Dann sei die Menschheit „nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten – ohne menschliche Aufsicht oder aussagekräftige Kontrolle“, warnte das Komitee.

Ethische Sicht: Es steht enorm viel auf dem Spiel

Google habe in der Vergangenheit betont, die Arbeit des Technologiekonzerns zur Verbesserung der Fähigkeiten zur Objekterkennung diene keinen Angriffszwecken, erklärte die EFF. Nun zeige sich allerdings ein „düsteres Bild“, schrieben Cindy Cohn und Peter Eckersley in einem Online-Beitrag im vergangenen Monat.

Durch die von Google bereitgestellte Technologie könnten von Drohnen erkannte Objekte oder Menschen für eine Überprüfung durch Menschen markiert werden. Dies könne dann in einigen Fällen tatsächlich zu Luftangriffen führen, schrieben Cohn und Eckersley. Dadurch stehe aus ethischer Sicht enorm viel auf dem Spiel – „selbst wenn in dieser Tötungskette noch weiter oben Menschen sind.“

Sowohl EFF als auch ICRAC riefen dazu auf, eine ernsthafte Debatte über die Notwendigkeit ethischer Rahmenbedingungen für die Nutzung künstlicher Intelligenz in der Waffentechnik zu führen.

Diese Debatte sei von entscheidender Bedeutung und müsse international geführt werden, forderte die Electronic Frontier Foundation. Firmen wie Google müssten sich der Folgen ihres Handels bewusst sein und von den Militärvertretern Verhaltensstandards und Verantwortlichkeit einfordern – ebenso wie von sich selbst. (afp)

Themen
Panorama
Newsticker
Kommentieren
Werte Leserinnen und Leser,
Ihre Kommentare sind uns willkommen, bitte lesen Sie vorher die Netiquette HIER.
Die Kommentare durchlaufen eine stichprobenartige Moderation.
Beiträge können gelöscht oder Teilnehmer können gesperrt werden.
Bitte bleiben Sie respektvoll und sachlich.

Ihre Epoch Times-Redaktion