KI-Systeme „eher zu dumm“: Forscher sehen in ChatGPT keine Bedrohung

Der Erfolg von ChatGPT hat vielfach Angst vor zu großer Dynamik im Bereich der KI ausgelöst. Elon Musk forderte eine „Nachdenkpause“. Experten widersprechen nun.
Der ChatbotChatGPT von OpenAI hat auch unter privaten Nutzern einen Hype um Künstliche Intelligenz ausgelöst.
Der ChatbotChatGPT von OpenAI hat auch unter privaten Nutzern einen Hype um Künstliche Intelligenz ausgelöst.Foto: Karl-Josef Hildenbrand/dpa
Von 7. April 2023

Bis dato sollen bereits mehr als 10.000 Personen den Aufruf des „Future of Life Institutes“ (FLI) für eine sechsmonatige „Nachdenkpause“ in Sachen KI unterzeichnet haben. Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak hatten zu den Erstunterzeichnern gehört. Anlass für die Initiative war der durchschlagende Erfolg des Kommunikationstools ChatGPT.

Nicht nur die Unterstützer des FLI-Aufrufs sind in Sorge ob der potenziellen Risiken unkontrollierter KI. Entscheidungstheoretiker Eliezer Yudkowsky meint sogar, eine aus dem Ruder laufende künstliche Intelligenz könnte Ambitionen entwickeln, die Menschheit auszulöschen. Italiens Regierung hat Restriktionen zur Nutzung von ChatGPT eingeführt, auch andere Länder könnten dem Beispiel folgen. Sie begründen ihr Vorgehen mit behaupteten Datenschutzverletzungen des Entwicklerunternehmens OpenAI.

ChatGPT & Co. stoßen auch schnell an Grenzen

Wie das Fachportal „heise.de“ berichtet, haben mehrere Experten auf dem Gebiet der KI das Wort ergriffen. Sie weisen die ins Treffen geführten Schreckensszenarien zurück und fordern eine sachliche Debatte über Chancen und Risiken Künstlicher Intelligenz. Vor allem verweisen sie auf die Grenzen der Technologien – die durchaus gegen ein allzu hohes destruktives Potenzial sprächen.

Hinrich Schütze, Lehrstuhlinhaber für Computerlinguistik an der Ludwig-Maximilians-Universität in München (LMU), hält das geforderte Moratorium für unrealistisch. Weder das Regime in China noch große Unternehmen würden sich an ein solches halten. Die Chance auf einen Wettbewerbsvorteil würden sich die Akteure nicht entgehen lassen.

Der FLI-Appell hatte eine sechsmonatige Unterbrechung des Trainings von KI-Systemen gefordert, die leistungsfähiger seien als GPT-4. Dieser ist der aktuelle Standard von ChatGPT.

Derzeit bestehende Systeme von ungewöhnlichen Anfragen überfordert

Wichtiger wäre es, so Schütze, Large Language Models wissenschaftlich zu verstehen, um sie so zum Nutzen der Menschheit einzusetzen. Eine „Nachdenkpause“ bei ChatGPT und anderen KI-Modellen sei dabei sogar eher hinderlich:

Wir können die Modelle aber nicht optimal erforschen, wenn ihre Weiterentwicklung willkürlich hinausgeschoben wird.“

Kristian Kersting, Professor für Machine Learning und KI an der TU Darmstadt, sieht einen großen Nutzen durch fähige KI-Systeme. Diese könnten Menschen in vielerlei Lebensbereichen assistieren und ihnen Routineaufgaben abnehmen. Kersting, der selbst ein KI-Forschungszentrum betreibt, sieht eher neue Berufe entstehen, als dass ChatGPT massenhaft Menschen arbeitslos werden lasse.

Derzeit seien bestehende KI-Systeme eher „zu dumm“ als zu leistungsfähig. ChatGPT und Co. seien brillant in jenen Bereichen, auf die sie trainiert seien. In ungewöhnlichen Kontexten seien sie jedoch schnell überfordert. Nutzer von ChatGPT können diese Einschätzung bestätigen: Vor allem dort, wo Verwender mit wenig alltäglichen oder zu speziellen Fragen an den Bot herantreten, begnügt dieser sich mit Allgemeinplätzen oder erfindet Angaben.

„OpenAI verdient mehr Vertrauen als autoritäre Regime“

Schütze erklärt zudem, es sei besser, kommerziellen Unternehmen wie OpenAI, Microsoft oder Google Freiräume bei der Forschung zu lassen. Die Alternative wäre, autoritären Regimen oder kriminellen Strukturen einen möglichen Vorsprung zu verschaffen.

Der Erfolg von ChatGPT und anderen Modellen von OpenAI beruhe auch darauf, dass diese über ausgeklügelte „Guardrails“ verfügten. Diese ließen wenig Raum für Rassismus, medizinische Fehlinformation oder politische Propaganda. Hingegen seien Themen wie ein angeblich drohendes „Roboterbewusstsein“ frühestens in 100 oder 200 Jahren relevant. Es sei vordringlich, die Probleme der Gegenwart zu lösen.

ChatGPT liegt „ganz auf der Linie der Zivilisationsentwicklung“

Armin Grunwald wiederum relativiert Szenarien, wonach KI zu einem massenhaften Verlust von Arbeitsplätzen führen werde. Er ist Professor für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie (KIT). Seit Kurzem gehört er auch dem Deutschen Ethikrat an. Apokalyptische Befürchtungen und überhöhte Erwartungen im Bereich der Technologie träten seit den 1970er-Jahren in Wellen auf, betont er.

ChatGPT liege „ganz auf der Linie der Zivilisationsentwicklung seit der Industriellen Revolution“. Dies wäre laut Grunwald auch noch der Fall, wenn solche Systeme bessere Texte als Menschen schrieben. Technik werde dazu entwickelt, in bestimmten Hinsichten besser als Menschen zu sein, „sonst bräuchten wir sie nicht“. Dass Computerprogramme seit fast 30 Jahren besser Schach spielen könnten als Menschen, „war ein Schritt auf diesem Weg, aber keine Katastrophe“.

Ein potenzielles Problem könnte hingegen sein, dass große Datenkonzerne aus China oder den USA perspektivisch ein Oligopol bei Forschung und Entwicklung von KI erlangen könnten.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion