Wer haftet, wenn eine „Künstliche Intelligenz“ einen Unfall baut? – Allianz regt Debatte an: KI so gefährlich wie AKW

Epoch Times3. July 2018 Aktualisiert: 3. Juli 2018 19:39
Die Künstliche Intelligenz hält in immer mehr Bereiche unseres Lebens Einzug. Jedoch warnen zunehmend Kritiker davor, dass mit dieser Technologie Gefahren und auch viele offene juristische Fragen verbunden sind.

Die sogenannte Künstliche Intelligenz (KI), ist in unserer hochtechnisierten Gesellschaft im Vormarsch und soll das Leben vereinfachen. Mit ihr wird im Allgemeinen versucht, menschenähnliche Entscheidungsstrukturen in einem offenen Umfeld nachzubilden, d. h., einen Computer bzw. eine Maschine so zu bauen oder zu programmieren, dass er/sie eigenständig Probleme bearbeiten kann.

KI wird in der Logistik, im Medizinwesen, in der Automobilindustrie, im Maschinenbau, in der Softwareindustrie, in der Rüstungsindustrie und vielem mehr genutzt.

Unfälle zeigen – KI birgt Gefahren

Doch, und darauf verweisen zunehmend mehr Kritiker, birgt die Technik auch Gefahren, was sich unter anderem in Unfällen mit selbstfahrenden Autos bereits widerspiegelte. Menschen verlassen sich zunehmend auf die Technik und nicht auf ihre eigenen Fähigkeiten. Der Mensch gerät so unmerklich in ein Abhängigkeitsverhältnis.

Ein anderer Aspekt sind die vorhandenen straf- und zivilrechtlichen Strukturen, die nicht auf KI ausgelegt sind. Sie stellen sowohl den Gesetzgeber als auch die Versicherungsbranche vor Schwierigkeiten.

Denn wer haftet bei einem Unfall, bei dem finanzieller Schaden entsteht, oder noch schlimmer, wie im März in den USA geschehen, ein Mensch durch einen Unfall mit einem selbstfahrenden Auto ums Leben kommt? In dem erwähnten Fall ist die Schuldfrage noch immer ungeklärt.

Damals wurde eine Fußgängerin tödlich durch ein selbstfahrendes Auto von „Uber“ getroffen, weil die Software die Frau nicht richtig erkannt hat und weil bei den Autos keine automatische Notbremsung vorgesehen ist. Die Frau schob ein Fahrrad über eine mehrspurige Straße.

Eine Untersuchung zeigte, dass die Software die Frau zunächst als unbekanntes Objekt einstufte, dann als Fahrzeug und schließlich als Fahrrad – und sei sich unsicher gewesen, in welche Richtung sich das „Objekt“ überhaupt bewegt. Auch die im Fahrzeug sitzende Sicherheitsfahrerin löste keine Notbremsung aus.

Kontroverse Ansichten zur Schuldfrage bei KI

Bisher war es aus Sicht der Versicherung eindeutig: Fahrer, Halter, Eigentümer oder Hersteller eines Fahrzeugs haften, je nachdem wer schuldhaft gehandelt hat. Doch mit der KI-Technologie sind kontroverse Ansichten entstanden.

Wer ist bei einem selbstfahrenden Auto der Fahrer? Um diese Schwierigkeit zu lösen gibt es Befürworter, die KI-Programme bzw. mit KI-gesteuerte Maschinen eine Rechtspersönlichkeit zusprechen wollen. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.

Doch dem stehen allein schon praktische Gründe entgegen, denn eine Maschine hat kein Konto. Selbst wenn ihr schuldhaftes Verhalten zugesprochen würde, wo kommt das Geld zum Schadensausgleich her? So muss letztendlich immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.

Zudem müsste, wenn man KI-Maschinen bzw. KI-Software als Rechtspersönlichkeit anerkennt, das Zivil- und Strafrecht angepasst werden. Gibt es also dann bald Haftstrafen für selbstfahrende Autos oder sogar gerichtlich angeordnete Zwangsverschrottungen? Natürlich nicht – kriminelle Maschinen im Gefängnissen bleiben reine Science Fiction.

Hersteller von KI soll haften

Aber was ist dann mit dem Hersteller, soll er nicht für Schäden, die seine KI-Programme anrichten, haften? „Das kann sich der Gesetzgeber überlegen“, sagt der Rechtswissenschaftler Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München, Heise gegenüber.

Ich persönlich halte das nicht für sinnvoll, denn auch bisher ist es schon so, dass für Produktfehler der Hersteller haftet.“

Mögen Sie unsere Artikel?
Unterstützen Sie EPOCH TIMES
HIER SPENDEN

Doch reicht dies rechtlich aus? Was ist, wenn der Computer einfach die falsche Entscheidung trifft? Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten selbsttätig Muster und Situationen erkennen und darauf reagieren.

„Es erscheint mir schwierig, Programmen ein Verschulden anzulasten – egal ob sie ausschließlich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln“, sagt Allianz-Vorstandsmitglied Müller dem „Heise-Verlag“ dazu.

Oder kann man einfach sagen, dass bereits im ursprünglich durch Menschen programmierten Algorithmus bereits ein Fehler liegen muss – sodass der Hersteller haftet?

Gefährdungshaftung bei KI

Manche Rechtsexperten halten die derzeitigen Regelungen für ausreichend und sehen bei den selbstfahrenden Autos hauptsächlich den Halter in der Verantwortung. Denn für bestimmte Maschinen und Anlagen gilt auch jetzt schon eine Gefährdungshaftung.

Dazu zählen bereits Autos, Züge, Flugzeuge und Atomkraftwerke. Hier haftet vorrangig der Betreiber bzw. Halter einer Maschine oder Anlage, es sei denn ein Fahrer oder Bediener handelt vorsätzlich oder fahrlässig. „Diese Haftung reicht aus, auch wenn das Auto selbst fährt“, sagt Rechtswissenschaftler Lorenz.

Auch nach Einschätzung des Bundesjustizministeriums besteht derzeit kein Handlungsbedarf. Regelungen zum automatisierten Fahren sind erst 2017 in das Straßenverkehrsgesetz aufgenommen worden. „Bisher sehen wir keinen Grund, dass wir an der bewährten Reihenfolge der Haftung etwas ändern sollten“, äußerte ein Sprecher des Ministeriums „Heise“ gegenüber.

Klare gesetzliche Regelungen notwendig

Der Versicherungskonzern Allianz regt an, darüber nachzudenken, den Gefährdungshaftungstatbestand explizit in einem Gesetz zur Verwendung von Künstlicher Intelligenz zu formulieren.

Was bedeuten würde, dass KI dann rechtlich ähnlich zu betrachten wäre wie ein Auto oder ein Atomkraftwerk, also als potenziell gefährlich. (er)

Themen
Newsticker