Billiglöhner in Kenia machten ChatGPT resistent gegen toxische Inhalte

Anders als frühere KI-gestützte Bots zeigt sich ChatGPT bislang recht resistent gegen toxische Inhalte. OpenAI verdankt dies auch einem Partner aus Kenia.
Die Homepage von ChatGPT. Der Software-Riese Microsoft baut sein Engagement bei OpenAI, dem Entwickler des Chatbots ChatGPT, kräftig aus.
Die Website von OpenAI, dem Entwickler des künstlich intelligenten Chatbots „ChatGPT".Foto: Karl-Josef Hildenbrand/dpa
Von 26. Januar 2023

Der Chatbot „ChatGPT“ von OpenAI zählt jetzt schon zu den wichtigsten technologischen Innovationen des Jahres 2022. Das auf „Künstlicher Intelligenz“ beruhende Tool kann Texte zu einer Vielzahl an Themen generieren – in einer Weise, die kaum zu unterscheiden ist von menschengemachten Texten. Investitionen von Partnern wie Microsoft könnten dem Unternehmen bald einen Marktwert von etwa 29 Milliarden US-Dollar verschaffen.

Im Unterschied zu vielen bisherigen KI-Projekten dieser Art zeigt sich ChatGPT bislang wenig anfällig für Missbrauch. Die KI erkennt Anfragen rassistischen, kriminellen oder sozial schädlichen Inhalts und ist darauf trainiert, diese nicht zu bearbeiten. Was bislang aber kaum bekannt ist: Dass der Bot beim Herausfiltern toxischer Inhalte so erfolgreich ist, verdankt er auch Billigarbeitern aus Kenia.

Spezialist für „ethische KI“ wirkte an ChatGPT mit

Wie das „Time“-Magazin jüngst enthüllte, unterhielt OpenAI eine Partnerschaft mit dem Unternehmen Sama. Dieses hat seinen Sitz in San Francisco, betreibt jedoch in Kenia, Uganda und Indien Einrichtungen zur Datenetikettierung. Zu den Kunden von Sama zählen Silicon-Valley-Größen wie Google, Meta und Microsoft.

Sama bezeichnet sich selbst als Spezialist für „ethische KI“ und wirbt für sich mit der Darstellung, mehr als 50.000 Menschen aus der Armut geholfen zu haben. „Time“, das vor Ort recherchiert hatte, spricht hingegen von „Sweatshop“-Bedingungen, unter denen Beschäftigte in Nairobi arbeiteten. Der Nettolohn der Beschäftigten im Auftrag von OpenAI habe zwischen umgerechnet 1,32 und 2 US-Dollar pro Stunde gelegen.

Sama selbst spricht davon, dass es für Mitarbeiter am ChatGPT-Projekt ein monatliches Grundgehalt von 21.000 kenianischen Schilling (170 US-Dollar) gegeben habe. Dazu seien bei hoher Geschwindigkeit und Genauigkeit Prämien von etwa 70 US-Dollar gekommen.

Ein Mitarbeiter, der in Neun-Stunden-Schichten arbeitete, konnte mit einem Stundenlohn von mindestens 1,32 US-Dollar nach Steuern rechnen, hieß es vonseiten des Unternehmens. Erreichte er seine Ziele, konnte er sogar bis zu 1,44 US-Dollar erhalten. Sogenannte „Qualitätsanalytiker“ konnten demgegenüber bis zu zwei US-Dollar pro Stunde erzielen. Sie hatten jedoch auch Leitungsaufgaben.

Projekt von enormer Bedeutung für Qualität vom ChatGPT

Pro Schicht musste ein Mitarbeiter laut „Time“ bis zu 250, laut Sama etwa 70 Textpassagen beschriften. Eine Passage soll zwischen 100 und 1.000 Wörter umfasst haben. Nach Steuern hätten die Arbeiter zwischen 1,46 und 3,74 US-Dollar verdienen können. Zum Vergleich: Der Mindestlohn für eine Empfangsdame liegt in Nairobi bei 1,52 US-Dollar pro Stunde.

Für OpenAI und das ChatGPT-Projekt war die Arbeit von enormer Wichtigkeit. Sie half, einen zusätzlichen KI-gestützten Sicherheitsmechanismus zu entwickeln, um Hassreden, Gewaltaufrufe oder Kinderpornografie zu erkennen. Für die Mitarbeiter war sie hingegen hoch traumatisierend. Obwohl Sama eine psychologische Betreuung vor Ort bot, sah das Unternehmen sich genötigt, im Februar 2022 die Zusammenarbeit einzustellen. Damit endete der drei Verträge umfassende Auftrag über insgesamt 200.000 US-Dollar acht Monate eher als geplant.

Mitarbeiter zeigten sich noch über Monate hinweg belastet

Um den KI-Detektor für schädliche Inhalte zu entwickeln, lieferte OpenAI ab November 2021 Zehntausende Textfragmente an das Partnerunternehmen in Kenia. Diese enthielten jedoch nicht selten detaillierte Beschreibungen von sexuellem Missbrauch, Rassismus, Gewalt, Mord, Folter, Sodomie oder Suizid.

Die Mitarbeiter hatten dabei die Aufgabe, für das ChatGPT-Tool zur Erkennung toxischer Inhalte die entsprechenden Inhalte zu etikettieren. In weiterer Folge fütterte man ein Trainingstool damit. Auf dieser Grundlage kann der Chatbot nun schädliche Texte und Bilder klassifizieren und filtern.

Das entwickelte Modell könnte am Ende auch helfen, toxische Texte aus den Trainingsdaten zukünftiger KI-Modelle herauszufiltern. Der Preis dafür ist jedoch hoch: Mitarbeiter des Projekts gaben an, die Beschreibungen, mit denen sie zu tun hatten, hätten sie noch über Wochen und Monate hinweg psychisch belastet.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion