Angriff der Roboter-Nazis? Künstliche Intelligenz wird von sich aus „rassistisch“ und „sexistisch“

Fortschrittliche Mythen machen gerne eine bewusste Verschwörung böswilliger Akteure des „Patriarchats“ oder des „Kapitals“ zu einem bestimmten Punkt der Geschichte für Ungleichheit und Spaltung in der Gesellschaft verantwortlich. Ein Experiment zeigte nun aber, dass auch autonome Maschinen erstaunliches Verhalten entwickeln.
Titelbild
„Bis 2028 könnten einige dieser Roboter damit beginnen, authentische Emotionen zu entwickeln und emotional auf uns zu reagieren“, meinen die Forscher.Foto: iStock
Von 14. September 2018

Einem Bericht von „FOX News“ zufolge haben Computerwissenschaftler und Psychologen von der Universität Cardiff und der US-amerikanischen MIT eine breit angelegte Testreihe mit Robotern durchgeführt. Ziel der Versuchsreihe war es, Strukturen im Sozialverhalten künstlicher Intelligenz zu erkennen. Vor allem ging es um die Frage, wie die Roboter Verhaltensweisen kopieren und von Vorgehensweisen anderer lernen.

Die Ergebnisse der Studie, die jüngst das Magazin „Scientific Reports“ publizierte, haben bei den Forschern für erhebliche Irritationen gesorgt. Demnach seien Roboter nämlich in der Lage, Vorurteile wie „Rassismus und Sexismus“ zu entwickeln, und zwar offenbar völlig autonom. Tausende von Simulationen, die Experten für künstliche Intelligenz an den Robotergehirnen durchgeführt hatten, zeigten, dass auch die Maschinen sich selbst in Gruppen zusammenfinden und „Außenseiter“ ausgrenzen.

Das Experiment beinhaltete unter anderem ein System von Nehmen und Geben, die Roboter konnten dabei auswählen, welchen „Kollegen“ sie dabei Geschenke überreichten. Mit Fortdauer des Spiels würden die Maschinen als von den „Mitspielern“ lernende Einheiten eigene Strategien des Schenkens entwickeln.

„Voreingenommenheit ist starke Kraft in der Natur“

Dies geschah dann auch – allerdings nicht auf die Weise, die ihre Entwickler sich gewünscht hätten. Die Roboter begannen im Verlaufe der Simulation, vor allem ihren eigenen Vorteil ins Auge zu fassen. Sie haben sich in kleineren Gruppen zusammengefunden und Außenstehende davon abgehalten, ihre eigene Situation zu verbessern.

„Indem wir diese Simulationen tausende und tausende Male wiederholt haben, erlangten wir ein Verständnis dafür, wie Vorurteile entstehen und welche Bedingungen sie fördern oder hindern“, erklärte der Mitautor der Studie, Roger Whitaker von der Universität Cardiff. „Unsere Simulationen zeigen, dass Voreingenommenheit eine starke Kraft in der Natur und durch die Evolution hindurch ist. Virtuelle Populationen können leicht Anreize dafür schaffen, zum Schaden einer weiteren Verbindungsfähigkeit mit anderen.“

Die „vorurteilsgeleiteten Gruppen“ haben demnach bewirkt, dass die ausgegrenzten Außenseiter ihrerseits ihre eigenen rivalisierenden Gruppen bildeten, was am Ende eine zersplitterte Population zur Folge gehabt hätte. „So weitreichende Vorurteile sind schwer zu reversieren.“

Das Erlernen der voreingenommenen Verhaltensweisen habe keine große mentale Anstrengung erfordert, erklärten die Urheber der Studie. Es ging einzig um das Nachahmen anderer Roboter auf der Basis ihres Erfolges im Spiel rund um „Geben und Nehmen“.

Bevölkerungsexplosion unter den Robotern?

Die Wissenschaftler warnen, dass sich Roboter, sobald sie eines Tages weit verbreitet seien, menschliche Vorurteile aneignen können. Die Universität Cardiff argwöhnt, dass die Maschinen in weiterer Folge auch „Rassismus und Sexismus“ an den Tag legen könnten.

„Es ist anzunehmen, dass autonome Maschinen, die fähig sind, sich mit Diskriminierung zu identifizieren und andere zu kopieren, künftig für Vorurteilsphänomene empfänglich sind, die wir in der menschlichen Bevölkerung sehen“, befürchtet Whitaker. „Viele Entwicklungen im Bereich der künstlichen Intelligenz, die wir beobachten, haben Autonomie und Selbstkontrolle zum Gegenstand, was heißt, dass das Verhalten von Vorrichtungen auch durch jenes anderer in deren Umfeld beeinflusst wird.“

Bereits vor dieser Studie waren aus Wissenschaft und Industrie Warnungen vor einer möglichen feindlichen Übernahme der Welt durch Roboter geäußert worden. Im Frühjahr erklärte Futurologe Dr. Ian Pearson der „Sun“, die Roboterpopulation liege heute bei 57 Millionen. Sie könnte innerhalb der nächsten 30 Jahre jedoch auf 9,4 Milliarden anwachsen und bis 2048 die der Menschen überragen.

Maschinen werden uns „wie Meerschweinchen“ behandeln

„Bis 2028 könnten einige dieser Roboter damit beginnen, authentische Emotionen zu entwickeln und emotional auf uns zu reagieren“, fügte er hinzu. Diese würden sich offenbar jedoch nicht auf „Roboterliebe“ beschränken. Die Maschinen würden uns vielmehr als Barbaren betrachten und könnten dazu übergehen, uns „wie Meerschweinchen“ zu behandeln.

Auch der im Vorjahr verstorbene Physiker Stephen Hawking warnte, die künstliche Intelligenz könnte eines Tages die Menschheit ersetzen. „Wenn Menschen in der Lage sind, Computerviren zu entwickeln, wird auch jemand Künstliche Intelligenz schaffen, die sich selbst weiterentwickelt und repliziert. Das wird eine neue Lebensform sein, die Menschen übertrifft.“

Elon Musk, der Gründer von Tesla, PayPal und SpaceX, meinte gar, die Künstliche Intelligenz stelle eine „fundamentale Bedrohung für die Existenz unserer Zivilisation“ dar.

Möglicherweise haben zu wenige Entwickler im Bereich der Künstlichen Intelligenz bedacht, dass ihr Projekt zumindest in seinen Ursprüngen nicht klüger sein konnte als seine Programmierer.

 



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion