Wer haftet, wenn eine „Künstliche Intelligenz“ einen Unfall baut? – Allianz regt Debatte an: KI so gefährlich wie AKW

Ein selbstfahrendes Auto mit Technik von Google.Foto: Andrej Sokolow/Archiv/dpa
Die sogenannte Künstliche Intelligenz (KI), ist in unserer hochtechnisierten Gesellschaft im Vormarsch und soll das Leben vereinfachen. Mit ihr wird im Allgemeinen versucht, menschenähnliche Entscheidungsstrukturen in einem offenen Umfeld nachzubilden, d. h., einen Computer bzw. eine Maschine so zu bauen oder zu programmieren, dass er/sie eigenständig Probleme bearbeiten kann.
KI wird in der Logistik, im Medizinwesen, in der Automobilindustrie, im Maschinenbau, in der Softwareindustrie, in der Rüstungsindustrie und vielem mehr genutzt.
Unfälle zeigen – KI birgt Gefahren
Doch, und darauf verweisen zunehmend mehr Kritiker, birgt die Technik auch Gefahren, was sich unter anderem in Unfällen mit selbstfahrenden Autos bereits widerspiegelte. Menschen verlassen sich zunehmend auf die Technik und nicht auf ihre eigenen Fähigkeiten. Der Mensch gerät so unmerklich in ein Abhängigkeitsverhältnis.
Ein anderer Aspekt sind die vorhandenen straf- und zivilrechtlichen Strukturen, die nicht auf KI ausgelegt sind. Sie stellen sowohl den Gesetzgeber als auch die Versicherungsbranche vor Schwierigkeiten.
Denn wer haftet bei einem Unfall, bei dem finanzieller Schaden entsteht, oder noch schlimmer, wie im März in den USA geschehen, ein Mensch durch einen Unfall mit einem selbstfahrenden Auto ums Leben kommt? In dem erwähnten Fall ist die Schuldfrage noch immer ungeklärt.
Damals wurde eine Fußgängerin tödlich durch ein selbstfahrendes Auto von „Uber“ getroffen, weil die Software die Frau nicht richtig erkannt hat und weil bei den Autos keine automatische Notbremsung vorgesehen ist. Die Frau schob ein Fahrrad über eine mehrspurige Straße.
Eine Untersuchung zeigte, dass die Software die Frau zunächst als unbekanntes Objekt einstufte, dann als Fahrzeug und schließlich als Fahrrad – und sei sich unsicher gewesen, in welche Richtung sich das „Objekt“ überhaupt bewegt. Auch die im Fahrzeug sitzende Sicherheitsfahrerin löste keine Notbremsung aus.
Kontroverse Ansichten zur Schuldfrage bei KI
Bisher war es aus Sicht der Versicherung eindeutig: Fahrer, Halter, Eigentümer oder Hersteller eines Fahrzeugs haften, je nachdem wer schuldhaft gehandelt hat. Doch mit der KI-Technologie sind kontroverse Ansichten entstanden.
Wer ist bei einem selbstfahrenden Auto der Fahrer? Um diese Schwierigkeit zu lösen gibt es Befürworter, die KI-Programme bzw. mit KI-gesteuerte Maschinen eine Rechtspersönlichkeit zusprechen wollen. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.
Doch dem stehen allein schon praktische Gründe entgegen, denn eine Maschine hat kein Konto. Selbst wenn ihr schuldhaftes Verhalten zugesprochen würde, wo kommt das Geld zum Schadensausgleich her? So muss letztendlich immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.
Zudem müsste, wenn man KI-Maschinen bzw. KI-Software als Rechtspersönlichkeit anerkennt, das Zivil- und Strafrecht angepasst werden. Gibt es also dann bald Haftstrafen für selbstfahrende Autos oder sogar gerichtlich angeordnete Zwangsverschrottungen? Natürlich nicht – kriminelle Maschinen im Gefängnissen bleiben reine Science Fiction.
Hersteller von KI soll haften
Aber was ist dann mit dem Hersteller, soll er nicht für Schäden, die seine KI-Programme anrichten, haften? „Das kann sich der Gesetzgeber überlegen“, sagt der Rechtswissenschaftler Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München, „Heise“ gegenüber.
Ich persönlich halte das nicht für sinnvoll, denn auch bisher ist es schon so, dass für Produktfehler der Hersteller haftet.“
Doch reicht dies rechtlich aus? Was ist, wenn der Computer einfach die falsche Entscheidung trifft? Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten selbsttätig Muster und Situationen erkennen und darauf reagieren.
„Es erscheint mir schwierig, Programmen ein Verschulden anzulasten – egal ob sie ausschließlich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln“, sagt Allianz-Vorstandsmitglied Müller dem „Heise-Verlag“ dazu.
Oder kann man einfach sagen, dass bereits im ursprünglich durch Menschen programmierten Algorithmus bereits ein Fehler liegen muss – sodass der Hersteller haftet?
Gefährdungshaftung bei KI
Manche Rechtsexperten halten die derzeitigen Regelungen für ausreichend und sehen bei den selbstfahrenden Autos hauptsächlich den Halter in der Verantwortung. Denn für bestimmte Maschinen und Anlagen gilt auch jetzt schon eine Gefährdungshaftung.
Dazu zählen bereits Autos, Züge, Flugzeuge und Atomkraftwerke. Hier haftet vorrangig der Betreiber bzw. Halter einer Maschine oder Anlage, es sei denn ein Fahrer oder Bediener handelt vorsätzlich oder fahrlässig. „Diese Haftung reicht aus, auch wenn das Auto selbst fährt“, sagt Rechtswissenschaftler Lorenz.
Auch nach Einschätzung des Bundesjustizministeriums besteht derzeit kein Handlungsbedarf. Regelungen zum automatisierten Fahren sind erst 2017 in das Straßenverkehrsgesetz aufgenommen worden. „Bisher sehen wir keinen Grund, dass wir an der bewährten Reihenfolge der Haftung etwas ändern sollten“, äußerte ein Sprecher des Ministeriums „Heise“ gegenüber.
Klare gesetzliche Regelungen notwendig
Der Versicherungskonzern Allianz regt an, darüber nachzudenken, den Gefährdungshaftungstatbestand explizit in einem Gesetz zur Verwendung von Künstlicher Intelligenz zu formulieren.
Was bedeuten würde, dass KI dann rechtlich ähnlich zu betrachten wäre wie ein Auto oder ein Atomkraftwerk, also als potenziell gefährlich. (er)
- 15:20Modeste trifft zum Kölner Sieg - St. Pauli und Kiel gewinnen
- 15:17Norweger siegen bei WM-Skiathlon - Deutsche verpassen Top-15
- 15:10Lieber Krimi als Musk: Schwaches Interesse am ESC-Vorentscheid
- 15:042. Bundesliga: Köln gewinnt gegen Sandhausen
- 15:02Rohr gebrochen: Halb Bayreuth ohne Trinkwasser
- 15:00Wirtschaftsweise: Alle Geschäfte sollen Bargeld und Karten annehmen müssen
- 14:41Trumps Politik der eingelösten Versprechen (Teil 1)
- 14:13Meuthen kritisiert "rücksichtslose Radikale" in der AfD
- 14:13Mehr als 90 Tote durch gepanschten Alkohol in Indien
- 14:00Fehler bei Missbrauchs-Ermittlung: Polizeichef greift durch
- 13:55Venezuelas Armee setzt Tränengas gegen Demonstranten an Grenze zu Kolumbien ein
- 13:18Snowboarder holen Sieg und zwei dritte Plätze
- 13:13Missbrauchsskandale: Marx fordert Ende der Vertuschung
- 12:50Linken-Politiker greift Kramer an: "Der Verfassungsschutz ist gefährlich"
- 12:48Vergessene Pergamente über König Artus und Merlin in britischer Bibliothek entdeckt
- 12:47Ein gutes Omen, vielleicht... Eine Erzählung
- 12:35Super-G in Bansko wegen zu viel Schnee abgesagt
- 12:34Spannungen zwischen EU-Partnern: Regeln für Waffenexporte funktionieren nicht
- 12:34Bär will "Digitalkunde" als Pflichtfach ab erster Klasse
- 12:32Weidle und Wenig abgeschlagen bei Damen-Abfahrt
- 12:23Friedrich & Weik: Helikoptergeld - Der letzte Akt der Insolvenzverschleppung
- 12:18Spannung in Nigeria: Wahlen in Afrikas größter Demokratie
- 12:14Internet-Adressverwaltung warnt vor umfassendem Angriff auf Netz-Infrastruktur
- 11:59FDP gegen Förderung von Holz-Heizungen: "Regierung ist völlig verrückt"
- 11:49Ein Dino mit Herz im Schwanz: Neue entdeckter Titanosaurus besaß herzförmige Knochen
- 11:43Guaidó besucht Konzert seiner Anhänger an kolumbianisch-venezolanischer Grenze
- 11:28Nasa gibt grünes Licht für ersten Testflug von bemannbarer SpaceX-Raumkapsel
- 11:15Staatliches Schulprojekt: Schüler in Brandenburg sollen im Unterricht Hochprozentiges trinken
- 10:59Doppelsitzer Eggert/Benecken Sieger im Gesamtweltcup
- 10:56"Gelbwesten"-Anführer in Grenoble festgenommen
- 10:46Scholz pocht auf Grundrente ohne Bedürftigkeitsprüfung
- 10:45Tödlicher Streit in Hannover - 18-Jähriger erstochen