Künstliche Intelligenz: Stephen Hawking und andere Experten besorgt über Supercomputer

Epoch Times14. Februar 2015 Aktualisiert: 8. September 2017 9:54
„Ich bin einer derjenigen, die über Superintelligenz besorgt sind“, sagte Bill Gates. Damit ist er nicht allein: Auch Stephen Hawking und Tesla-Chef Elon Musk ist schnelle Entwicklung der künstlichen Intelligenz nicht geheuer.

Hat die Menschheit ihre Forschungen noch im Griff? Offenbar befinden wir uns an einem Punkt, an dem was getan werden muss, denn immer mehr Top-Wissenschaftler warnen vor den Gefahren Künstlicher Intelligenz, englisch abgekürzt „AI“. Darunter fallen sämtliche Softwares und Computer, die im Bestreben programmiert werden, menschliche Intelligenz nachzuahmen und sich automatisiert intelligent verhalten zu können.

Tesla-Chef Musk machte den Anfang

Unter den Besorgten waren in letzter Zeit so prominente Leute wie Stephen Hawking, Tesla-Chef Elon Musk und Microsoft-Gründer Bill Gates „Ich bin einer derjenigen, die über Superintelligenz besorgt sind“, hatte Gates neulich bei einer Fragerunde im Internet geantwortet und seinem Kollegen Elon Musk explizit Recht gegeben, der im November gewarnt hätte, dass es schon in fünf Jahren, spätestens in zehn, ein echtes Problem mit schädlicher AI geben könnte, die sich verselbstständigt hat. Musks Statement, das als Kommentar auf Edge.com erschienen war, wurde kurz nach dem Erscheinen gelöscht aber im Screenshot dokumentiert und erregte großes Aufsehen auf Reddit.

„In fünf, spätestens zehn Jahren haben wir ein Problem“

Hier der Wortlaut:

Das Tempo, in dem die künstliche Intelligenz Fortschritte macht (ich beziehe mich hier nicht auf den engeren Begriff von AI) ist unglaublich schnell. Sofern ihr nicht direkt mit Gruppen wie Deepmind zu tun habt, habt ihr keine Ahnung, wie schnell es ist – das Wachstum erfolgt in nahezu exponentiellen Schritten. Das Risiko, dass etwas ernsthaft Gefährliches passiert, liegt innerhalb eines Zeitrahmens von fünf Jahren. Zehn Jahren höchstenfalls. Ich schlage hier nicht Alarm bezüglich einer Sache, von der ich keine Ahnung habe.“

„Ich bin nicht als einziger der Ansicht, dass wir besorgt sein sollten. Die führenden AI Unternehmen haben große Fortschritte gemacht, um Sicherheit zu garantieren. Sie wissen um die Gefahr, glauben aber, dass sie die digitalen Superintelligenzen formen und kontrollieren können und verhindern können, dass die schlechten ins Internet ausbüchsen. Das bleibt abzuwarten…“ – Elon Musk

Was Bill Gates dazu sagte …

Am 21. Januar gab Bill Gates auf Reddit seine dritte AMA-Fragerunde. „AMA“ steht für „Ask Me Anything“, die User konnten den Ex-Chef von Microsoft also alle möglichen Fragen stellen und darunter war auch diese: „Sehen Sie in maschineller Superintelligenz eine existenzielle Bedrohung“. Und Bill Gates stimmte zu:

Ich bin einer derjenigen, die besorgt sind über Superintelligenz. Zunächst werden uns die Maschinen viele Jobs abnehmen und nicht superintelligent sein. Das sollte etwas Positives sein, wenn wir es gut kontrollieren. Aber ein paar Jahrzehnte später wird die Intelligenz so stark sein, dass es besorgniserregend ist. Ich stimme da Elon Musk und anderen zu und verstehe nicht, warum manche Leute nicht besorgt sind.“

(Bill Gates)

Die Website Turn-On berichtete.

Stephen Hawkings: „Supercomputer könnten Menschheit auslöschen“

Auch das britische Genie Stephen Hawking warnte im Dezember in einem Bericht der BBC vor den Gefahren künstlicher Intelligenz.

„Die Entwicklung einer vollständigen künstlichen Intelligenz könnte das Ende der Menschheit bedeuten“, so der Wissenschaftler, der wegen seiner Körperbehinderung selbst auf die Hilfe bestimmter Software-Programme angewiesen ist. Aktuell wären die primitiven Formen von AI sehr nützlich, so Hawking, speziell auch für beeinträchtigte Menschen. Sobald es eine AI gebe, die genauso klug oder klüger als der Mensch sei, werde es aber richtig gefährlich. „Sie würde von selbst abheben und sich selbst ständig neu erfinden – in immer schnelleren Zyklen“, so der Astrophysiker.

Menschen würden da nicht mehr mithalten können, weil sie durch langsam ablaufende, biologische Evolutionsprozesse beschränkt seien, so Hawkings. Er geht davon aus, dass Maschinen den Menschen schließlich verdrängen würden.

Wissenschaftler fordern: „AI muss tun, was WIR wollen“

Dass Computer sich eines Tages komplett verselbstständigen könnten, ist auch die Hauptsorge des Future of Life Institutes, einer Forschervereinigung, die sich damit beschäftigt „existentielle Gefahren für die Menschheit zu verringern“. Sie veröffentlichte Anfang des Jahres einen offenen Brief, der mittlerweile von vielen renommierten Leuten unterschrieben wurde, darunter Professoren des MIT und Harvard sowie Google-, IBM- und Microsoft-Forschern.

Es sei jetzt ein wichtiger und richtiger Zeitpunkt, um für die zukünftige Sicherheit und Nützlichkeit von AI zu forschen, hieß es im Brief: „Wir empfehlen erweiterte Forschungen, um sicherzustellen, dass immer fähigere AI-Systeme stabil und wohltätig sind: Unsere AI-Systeme müssen das tun, was wir wollen.“

(rf)

Mögen Sie unsere Artikel?
Unterstützen Sie EPOCH TIMES
HIER SPENDEN