Buchdruck oder Atombombe? OpenAI-Chef Altman fordert Regulierung für KI

Vor dem US-Senat hat der CEO von OpenAI, Sam Altman, Regeln für KI (Künstliche Intelligenz) als sinnvoll bezeichnet. Gleichzeitig warnte er vor Panikmache wegen ChatGPT.
Der Chef des ChatGPT-Erfinders, Sam Altman, spricht während einer Anhörung im US-Senat.
Der CEO von OpenAI, Sam Altman, spricht während einer Anhörung im US-Senat.Foto: Patrick Semansky/AP/dpa
Von 17. Mai 2023

An dieser Stelle wird ein Podcast von Podcaster angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um den Podcast anzuhören.

Am Dienstag, 16. Mai, hat der CEO von OpenAI, Sam Altman, an einer Anhörung im US-Senat teilgenommen. Eingeladen hatte ihn dazu der Unterausschuss für Recht, Privatsphäre und Technologie. Vor den Senatoren sprach Altman über die Fortschritte bei der Entwicklung seines KI-Bots ChatGPT. Gleichzeitig erneuerte er sein Bekenntnis dazu, dass es einige grundlegende Regulierung zu Künstlicher Intelligenz geben sollte.

Altman forderte bereits vor Wochen „globale Kontrollinstanz“ für KI

Bereits vor einigen Wochen hatte Altman angeregt, eine „globale Kontrollinstanz“ zu schaffen, um das Machtpotenzial von KI in den Griff zu bekommen. Er nahm dabei Bezug auf die Internationale Atomenergiebehörde IAEA, der ebenfalls eine globale Verantwortung zukomme, Sicherheitsstandards für den Umgang mit nuklearem Material aufzustellen.

Zudem überprüfe die Einrichtung die Einhaltung dieser Standards und trage Sorge dafür, dass die Technologie nicht zu militärischen Zwecken eingesetzt werde. Ähnliches sei auch mit Blick auf generative KI sinnvoll:

Ich denke, dass eine gewisse Regulierung in diesem Bereich durchaus sinnvoll wäre. Die Menschen müssen wissen, ob sie mit einer KI sprechen, ob der Inhalt, den sie betrachten, generiert sein könnte oder nicht.“

Microsoft hat bereits 13 Milliarden US-Dollar in Altmans Unternehmen OpenAI investiert. Ende November 2022 hatte dieses den KI-Bot ChatGPT vorgestellt. Innerhalb von nur zwei Monaten hat der Chatbot weltweit 100 Millionen Nutzer erreicht.

ChatGPT als revolutionäre Erfindung wie die Druckerpresse?

Wie BBC berichtet, hat Altman die Erfindung von ChatGPT mit jener der Druckerpresse verglichen. In gleicher Weise könne auch diese Technologie ein neues Zeitalter der Produktivität einläuten. Allerdings, so räumte der CEO ein, könne es auch unwillkommene Auswirkungen geben, so zum Beispiel auf den Arbeitsmarkt.

Man versuche, möglichst deutlich dahin gehend zu werden, dass die Technologie Einfluss auf den Arbeitsmarkt haben werde:

Meine schlimmsten Befürchtungen sind, dass wir – das Feld, die Technologie, die Industrie – der Welt erheblichen Schaden zufügen. Ich denke, das kann auf viele verschiedene Arten geschehen.“

Auch deshalb sei er für Maßnahmen wie verpflichtende unabhängige Untersuchungen von Organisationen wie OpenAI offen. Gleichzeitig nahm er auch seine Entwicklung ChatGPT vor Panikmache in Schutz. Der Bot sei „ein Werkzeug, kein eigenes Wesen“. Altman fügte hinzu:

GPT4 und ähnliche Systeme eignen sich für die Erledigung von Aufgaben, nicht von kompletten Jobs. Sie sehen also bereits Leute, die GPT4 nutzen, um ihre Arbeit viel effizienter zu erledigen.“

Senator Hawley griff Altmans Bezugnahme auf Atombombe auf

Auch prominente Senatoren äußerten sich im Rahmen der Anhörung, wie die englischsprachige Epoch Times berichtet. Das ranghöchste Mitglied des Unterausschusses, Josh Hawley (R-Mo.), würdigte auf der einen Seite die revolutionäre Entwicklung, die KI in vielen Bereichen angestoßen habe. Diese werde wahrscheinlich künftig noch in den Schatten gestellt – „so wie Smartphones die klobigen Mobiltelefone von vor 30 Jahren in den Schatten gestellt haben.“

Gleichzeitig gehe von ihr auch eine „tiefgreifende Bedrohung für die nationale Sicherheit und Stabilität“ aus. Vor diesem Hintergrund, so Hawley, stehe der Kongress im Wesentlichen vor der Aufgabe, zu bestimmen, welche Art von Revolution die KI einleiten werde.

Auf der einen Seite, so Hawley, gebe es das Beispiel des Buchdrucks, der als Vorbote für eine mächtigere Zivilisation und mehr Freiheit in ganz Europa diente. Auf der anderen Seite gebe es das Beispiel der Atombombe, deren Erschaffung die Nationen der Welt bis heute beschäftige.

Als Beispiel für destruktives Potenzial nannte Hawley künstliche Intelligenz, die Wahlergebnisse voraussagen könne. Eine solche könnten Politiker und spezielle Interessengruppen zur psychologischen Manipulation und Emotionalisierung des Publikums einsetzen.

Blumenthal: Kongress soll bei ChatGPT Versäumnisse der Social-Media-Ära vermeiden

Der demokratische Senator Richard Blumenthal betonte unterdessen, wie wichtig es sei, dass eine von KI dominierte Zukunft „mit den gesellschaftlichen Werten in Einklang“ stehe. Er forderte den Kongress auf, aus den Versäumnissen der Vergangenheit zu lernen.

So habe die Gesetzgebung bereits versäumt, die sozialen Medien angemessen zu regulieren. Dabei sei es erforderlich, „das Wohl der Allgemeinheit über den möglichen Schaden“ zu stellen. Blumenthal erklärte:

Der Kongress hat es versäumt, rechtzeitig seine Befugnisse bei den sozialen Medien zu nutzen. Jetzt haben wir die Pflicht, dies bei der künstlichen Intelligenz zu tun, bevor die Bedrohungen und Risiken real werden.“

Senator illustrierte die Möglichkeiten für Deepfakes

Blumenthal verglich das Potenzial der KI mit einer „Bombe im Porzellanladen“. Die damit verbundene „neue industrielle Revolution“ könne Millionen amerikanischer Arbeitnehmer verdrängen. Zudem könne sie die öffentliche Sicherheit und das Vertrauen in wichtige Institutionen „dramatisch untergraben“.

Vernünftige Schutzmaßnahmen stünden nicht im Widerspruch zur Innovation, äußerte der Senator weiter. Der Zweck der Anhörung bestehe unter anderem darin, „diese neuen Technologien zu entmystifizieren und rechenschaftspflichtig zu machen“.

Um sein Anliegen zu verdeutlichen, präsentierte Blumenthal zu Beginn seiner Rede eine Audioaufnahme. Diese beinhaltete eine von ChatGPT geschriebene Rede, welcher der Prompt zugrunde gelegen hätte, seinen Stil zu imitieren. Zudem wurde sie auch von einer KI-Stimmenklon-Software gesprochen, die darauf trainiert wurde, seine Reden zu imitieren.

Das Ergebnis illustriere die Gefährlichkeit von Deepfake-Technologien, die der Öffentlichkeit zunehmend zugänglich seien und im öffentlichen Diskurs präsenter würden.

Drohen schon bald KI-generierte Beweismittel für Geschworene bei Gericht?

Gary Marcus, emeritierter Professor für Psychologie und Neurowissenschaften an der New York University, warnte zudem vor einer Aushöhlung des Rechtsstaats durch KI. Die derzeitigen Instrumente, so Marcus, „sind intransparent und schützen unsere Privatsphäre nicht“.

Der Siegeszug von KI befeuere das Phänomen der „gefälschten Menschen“, also von vermeintlichen Experten oder Zeugen, die vollständig von einer künstlichen Intelligenz erfunden worden seien.
KI sei, so Marcus, unter anderem zur Fälschung von Forschungspapieren verwendet worden. In einem anderen Fall habe ChatGPT eine öffentliche Person fälschlicherweise eines Fehlverhaltens beschuldigt. Auch habe es von KI generierte gefälschte Beweise für ein Gerichtsverfahren gegeben. Eine andere Erfahrung sei gewesen, dass ein KI-Programm seinem Nutzer, der sich als 13-jähriges Mädchen ausgegeben hatte, beigebracht habe, wie man mit einem Mann in den 30ern durchbrenne.

Ohne klare Regeln könnten eines Tages Geschworene nicht mehr wissen, ob Videobeweise oder Hörproben, die man ihnen präsentiere, authentisch seien. Am Ende könnte eine Welt stehen, „in der man nichts mehr glauben kann“.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion