Der Einsatz künstlicher Intelligenz (KI) zur Unterstützung von Patienten mit psychischen Erkrankungen ist ein ethisches Minenfeld.
Bei richtiger Anwendung kann KI zusammen mit maschinellem Lernen (ML) dazu beitragen, neue Therapien zu finden und die Behandlung von Patienten zu erleichtern. Wird sie jedoch falsch eingesetzt, kann dies zu Fehldiagnosen führen und hilfsbedürftigen Menschen die n?tige Unterstützung vorenthalten.
Gleichzeitig gibt es einen Mangel an Fachpersonal im Bereich der psychischen Gesundheit. Nach einer Prognose der Weltgesundheitsorganisation (engl. World Health Organization, WHO) gab es im Jahr 2019 fast eine Milliarde Menschen mit einer psychischen St?rung, und es besteht ein erheblicher Mangel an Beratern, Psychiatern und Psychologen, die Patienten unterstützen k?nnen.
Vor diesem Hintergrund entwickeln Softwareanbieter KI-basierte Apps und Chatbots wie Woebot und Wysa, die Nutzern bei leichten Symptomen wie Depressionen und Angstzust?nden helfen. Mit diesen Chatbots k?nnen Patienten über ihre Emotionen sprechen und erhalten grundlegende Unterstützung und Anleitung von einem automatischen Agenten.
Auch wenn Studien zeigen, dass viele User diese Apps praktisch finden, sind sie nicht ohne Risiken. So hat Anfang dieses Jahres ein Mann in Belgien Selbstmord begangen, nachdem der KI-Chatbot Chai den Nutzer nach sechsw?chigem Dialog dazu ermutigt haben soll, sich umzubringen.
In diesem Fall k?nnte der KI-Chatbot, der negative Antworten lieferte, dafür verantwortlich gewesen sein, dass sich die schutzbedürftige Person das Leben nahm.
KI und Psychiatrie: ethische Argumente im Mittelpunkt
Angesichts der Tatsache, dass beim Einsatz von KI im Gesundheitswesen so viel auf dem Spiel steht wie Leben oder Tod, müssen Mediziner, klinische Forscher und Softwareentwickler ein akzeptables Risiko für die Verwendung dieser Technologie festlegen.
Wenn ein Softwareanbieter z. B. einen Chatbot entwickelt, mit dem die Nutzer ihre Symptome besprechen k?nnen, sollten sie über klar definierte Leitplanken verfügen, um das Risiko einer KI-Halluzination zu verringern.
Zu den grundlegenden Schutzmechanismen k?nnten ein Haftungsausschluss und Live-Support von qualifizierten Spezialisten geh?ren, um eine zus?tzliche Sicherheitsebene zu schaffen.
Jede Einrichtung, die KI zur Unterstützung von Nutzern zu implementieren plant, muss zun?chst feststellen, ob der Einsatz künstlicher Intelligenz ein Risiko für schutzbedürftige Personen darstellt oder deren Zugang zu Behandlung oder Unterstützung beschleunigt.
Ein Forscher im Bereich der psychischen Gesundheit argumentiert: ?Künstliche Intelligenz hat ein immenses Potenzial, unsere Diagnose neu zu definieren und zu einem besseren Verst?ndnis psychischer Erkrankungen beizutragen. Psychischer Erkrankungen einer Person … Technologien der künstlichen Intelligenz k?nnen m?glicherweise bessere pr?diagnostische Screening-Instrumente entwickeln und Risikomodelle ausarbeiten, um die Veranlagung eines Menschen für eine geistige Erkrankung oder die M?glichkeit einer solchen zu bestimmen.“
Allerdings müssen L?sungen, die auf der Basis von KI psychische Erkrankungen diagnostizieren, auf qualitativ hochwertigen Trainingsdaten aufbauen, um die bestm?gliche Genauigkeit zu gew?hrleisten. Jegliche Unrichtigkeiten im Datensatz k?nnten zu einer Fehldiagnose oder einer falschen Behandlung von hilfsbedürftigen Patienten führen.
Der Einsatz von KI in der Psychiatrie ist ein Bereich, in dem der Zweck die Mittel heiligt. Wenn durch KI der Zugang der Patienten zu Unterstützung vereinfacht und die Medikamentenentwicklung gestrafft werden kann, dann ist das ein positives Ergebnis.
Führt sie zu Fehldiagnosen, Falschinformationen oder hindert sie schutzbedürftige Menschen daran, Zugang zu klinischer Unterstützung zu erhalten, dann ist sie ein No-Go.
Gleichgewicht zwischen Datenschutz und Unterstützung
Eine der vielleicht wichtigsten überlegungen in der ethischen Debatte über KI ist die Erhebung, Speicherung und Nutzung von Daten durch KI-Systeme, auf denen diese L?sungen basieren. Dazu geh?rt alles: von pers?nlichen Daten bis hin zu vertraulichen Emotions- und Verhaltensinformationen eines Menschen.
Klinische Forscher und Softwareanbieter, die Patientendaten verarbeiten, müssen zumindest sicherstellen, dass sie die ausdrückliche Zustimmung der betroffenen Personen haben.
Andernfalls müssen die Daten de-identifiziert oder anonymisiert werden, damit personenbezogene Informationen (engl. personal identifiable information, PII), elektronisch geschützte Gesundheitsdaten (engl. electronic protected health information, EPHI) und Krankenakten nicht an unbefugte Dritte weitergegeben werden.
Die Anforderungen hierfür k?nnen ?u?erst komplex sein, insbesondere wenn Vorschriften wie HIPAA strenge Datenschutzbedingungen für elektronische Gesundheitsinformationen vorsehen. Aber selbst die Anonymisierung kann entschlüsselt werden, wenn sie nicht angemessen geschützt ist.
Aus diesem Grund sind viele Anbieter ?u?erst vorsichtig bei der Auswahl der Daten, die sie für KI-Apps nutzen, um Compliance-Verpflichtungen zu vermeiden. Dies tr?gt zwar zum Schutz der Privatsph?re der Nutzer bei, verringert aber die Menge der insgesamt für die Verarbeitung verfügbaren Daten.
Letztlich gilt es, den Spagat zwischen dem Schutz der Anonymit?t von Patientendaten und der Einholung einer Zustimmung nach Aufkl?rung zu schaffen und dennoch genügend Daten zu sammeln, um hochwertige Erkenntnisse für die Behandlung und Diagnose zu gewinnen.
Fazit
Wenn die KI durchweg positive Ergebnisse für die Patienten liefert, dann wird sie sich als ein Werkzeug rechtfertigen, auf das die ?rzte im Bereich der psychischen Gesundheit zurückgreifen k?nnen.
Schon jetzt sieht man den Erfolg der KI bei der Diagnose und der Entwicklung von Therapien gegen Schizophrenie und bipolare St?rungen. Sollte sich dieser Trend fortsetzen, wird die Angst vor Experimenten mit diesen Technologien in der Branche deutlich geringer sein.
Geraten dagegen mehr Chatbots in die Schlagzeilen, weil sie psychisch kranke Patienten nicht unterstützen, k?nnte dies die KI in diesem Sektor erheblich einschr?nken.
Da die moralischen Aspekte des Einsatzes von KI im Gesundheitswesen noch bestimmt werden müssen, liegt es an Forschern, Praktikern und Softwareanbietern, den Standard für die ethische Seite der KI-Entwicklung zu setzen.