Blinder Einsatz von KI bringt Gefahr für Leib und Seele

Kunstblumen statt echte Pflanzen oder Roboterhund statt liebevolle Spürnase: Die moderne Gesellschaft ersetzt immer mehr Lebendes durch Leeres. Dies lässt nicht nur Güte und Menschlichkeit schwinden, sondern bringt auch Gefahren – besonders bei KI-Ärzten.
KI im Gesundheitswesen: Ärzte ohne Herz und Seele
In der modernen Gesellschaft kommt auch im Gesundheitswesen immer mehr Technik und KI zum Einsatz.Foto: iStock
Von 28. November 2023

An dieser Stelle wird ein Podcast von Podcaster angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um den Podcast anzuhören.

Künstliche Intelligenz (KI) kommt im Gesundheitswesen immer häufiger zum Einsatz – egal ob bei der Auswertung von Röntgenbildern oder bei der Überwachung von Gesundheitswerten. Derzeit testen sogar einige Krankenhäuser in Dänemark den Einsatz von KI für schnelle Diagnosen in Notaufnahmen.

Für KI-überzeugte Mediziner ist dies jedoch erst der Anfang. Künftig könnten in Krankenhäusern und Psychiatrien sogar Risikoanalysen von dem digitalen Mitarbeiter übernommen werden. Der KI käme damit die Aufgabe des Arztes zu – mit dem entscheidenden Unterschied, dass die KI weder Berufserfahrung noch Bauchgefühl hat.

KI: Berechnungen statt Einfühlungsvermögen

In anderen Ländern wird KI bereits eingesetzt, um zu beurteilen, wer eine Behandlung gegen Depressionen erhalten sollte. Geplant ist damit eigentlich eine Entlastung des Personals. In der Realität könnte dies allerdings auch das Gegenteil bewirken und das Gesundheitssystem so weiter unter Druck setzen.

Laut Wissenschaftlern der Universität Kopenhagen kann der blinde Einsatz von KI sogar zu stärkerer Ungleichheit führen. Statt von einfühlsamen Ärzten, die mit Herz und Seele arbeiten, würden psychisch verletzte Patienten dann von kalten Instrumenten und auf Grundlage wirtschaftlicher Berechnungen behandelt werden.

Künstliche Intelligenz hat ein großes Potenzial. Allerdings müssen wir vorsichtig sein, denn ihre blinde Anwendung kann das Gesundheitssystem auf neue, schwer erkennbare Weise schädigen. Ergebnisse, die auf den ersten Blick korrekt erscheinen, könnten sich als falsch erweisen“, sagte Melanie Ganz von der Universität Kopenhagen.

Dies begründet Ganz mit ihrer aktuellen Studie, die zeigt, wie sich versteckte Vorurteile in einen Algorithmus zur Berechnung des Depressionsrisikos einschleichen.

Unsichtbare Diskriminierung

In ihrer Studie untersuchten Ganz und ihre Kollegen einen Algorithmus, dessen Grundlage bereits im dänischen Gesundheitssystem verwendet wird. Anhand tatsächlicher Depressionsdiagnosen erkannte der Algorithmus im Vorhinein bei Menschen ein Risiko, an einer Depression zu erkranken.

„In anderen Ländern wird immer häufiger untersucht, wie man Depressionen in einem frühen Stadium erkennen und verhindern kann. In den USA beispielsweise wird KI zunehmend von privaten Versicherern eingesetzt, um Ressourcen zu priorisieren. Dies ist eine Entwicklung, die in naher Zukunft wahrscheinlich auch in Dänemark Einzug halten wird. Die Frage ist, wie gut die Grundlage für eine solche Prioritätensetzung tatsächlich ist“, erklärt Mitautor Sune Holm.

Die Forscher nutzten dabei Depressionen als Fallstudie, um das Können der Algorithmen zu prüfen und bewerten zu können. So sollen eventuelle Probleme rechtzeitig erkannt und korrigiert werden, bevor die Algorithmen richtig zum Einsatz kommen.

„Algorithmen können, wenn sie richtig trainiert sind, für jede Kommune mit begrenzten Ressourcen ein enormer Gewinn sein. Unsere Forschung zeigt jedoch, dass maschinelles Lernen, wenn es nicht gut gehandhabt wird, den Zugang zur Behandlung verzerren kann. Dies geht so weit, dass einige Gruppen übersehen oder sogar ausgeschlossen werden“, fasst Ganz die Ergebnisse zusammen.

15 von 100 Menschen könnten notwendige Behandlung nicht erhalten

Laut der Studie fällt es dem Algorithmus bei einigen Personengruppen leichter und bei anderen schwerer, das Depressionsrisiko zu erkennen. Dies liege an der Grundlage der zur Schulung verwendeten Variablen: zum Beispiel Bildung, Geschlecht oder ethnische Zugehörigkeit. Tatsächlich schwankte die Fähigkeit, das Depressionsrisiko zu erkennen, zwischen den verschiedenen Gruppen um bis zu 15 Prozent.

„Das bedeutet, dass selbst Regionen oder Gemeinden, die in gutem Glauben den Algorithmus einführen, eine Gesundheitsversorgung verzerrt werden kann“, so Ganz.

Einerseits könne der Algorithmus messbare Erfolge bringen, indem er die Ressourcen denjenigen zuweist, die sie tatsächlich benötigen. Andererseits kann er aber auch versteckte Vorurteile haben, die bestimmte Gruppen ausschließen oder benachteiligen, ohne dass dies für diejenigen, die ihn verwalten, sichtbar ist.

Im schlimmsten Fall könnten KI-Systeme zu einem Instrument der kalten Berechnung werden. Im Extremfall könne die Wahl bestimmter Algorithmen sogar zu einer Priorisierung von Ressourcen und somit zur Priorisierung bestimmter Personengruppen führen.

Ethische Bedenken

Außerdem bringt der Einsatz von KI im Gesundheitswesen einige grundlegende ethische Dilemmata mit sich. „Wenn wir diese Algorithmen und Systeme einsetzen, muss geklärt werden, wer für die Priorisierung von Ressourcen und individuellen Therapien verantwortlich ist. Zudem könnte es für einen Arzt schwierig sein, einem Patienten zu erklären, warum eine Entscheidung getroffen wurde, wenn der Algorithmus selbst unverständlich ist“, sagt Holm.

Mit ihrer Studie deckten die Forscher somit nicht nur Lücken im Bereich des maschinellen Lernens – besonders wenn es um die Diskriminierung von Gruppen geht – auf, sondern lieferten auch eine wertvolle Möglichkeit, das System zu bewerten.

„Die von uns entwickelten Methoden können als konkretes Rezept verwendet werden, um die Fairness von Algorithmen zu bewerten, [und zwar] bevor sie eingesetzt werden. Auf diese Weise hoffen wir, dass die Forschung dazu beitragen kann, die richtigen Instrumente zur Verfügung zu haben, wenn die Algorithmen tatsächlich in diesem Bereich Einzug halten“, so Melanie Ganz.

„Sowohl Politiker als auch Bürger müssen sich nicht nur der Vorteile, sondern auch der Fallstricke bewusst sein, die mit dem Einsatz von KI verbunden sind. So kann man kritisch sein, anstatt die Pille ohne Weiteres zu schlucken“, sagt Holm.

 

 



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion