Angemerkt: KI in der sprechenden Medizin – Fluch oder Segen?
Der Einsatz von Künstlicher Intelligenz (KI) in der Medizin ist in einigen Bereichen schon fast Routine, wie in der radiologischen Diagnostik. Die Entwicklung des Chatbots ChatGPT hat ihren Einsatz aber auch im Bereich der sprechenden Medizin deutlich beflügelt. Können Chatbots mit KI also einen Therapeuten oder eine Therapeutin ersetzen? Bei knappen Ressourcen an Psychiater*innen und Therapeut*innen und hoher Verbreitung von Smart Phones bietet sich die Nutzung von KI-gestützten Onlinetherapien zur Verbesserung der psychischen Gesundheit an: Circa 45 Prozent der Weltbevölkerung verfügen über weniger als eine*n Psychiater*in pro 100.00 Einwohner*innen, aber circa 50 Prozent haben ein Smartphone.
Mittlerweile stehen schon zigtausende Apps zur psychischen Gesundheit zum Download bereit – vom Stimmungstracking über eine Stimmauswertung zur ADHS-Diagnostik, von Achtsamkeitsübungen bis hin zu SOS-Funktionen bei Suizidalität, von Virtual Reality zur Behandlung von Phobien bis zur KIunterstützen Diagnostik von Frühsymptomen einer Schizophrenie. Inzwischen ist nahezu alles auf dem Markt.
Doch ein Therapiegespräch ist mehr als nur der Sprachaustausch zweier Individuen. Denn aktuell verfügt die KI-Technologie über keinerlei Emotionen. Nur simulierte Freundlichkeit lässt sie emotional beteiligt erscheinen. Der Mensch fühlt sich verstanden, obwohl die KI per se nichts verstanden hat. Sie hat nur die passenden Antworten generiert. Gleichwohl wird bereits an der Entwicklung eines sozio-empathisch agierenden Avatars geforscht – als adaptives Übergangsobjekt für Depressive nach einer stationären Behandlung.
Nonverbale Aspekte, das Verstehen sozialer Perspektiven, Beziehungsaufbau, Beziehungsarbeit – all das kann die KI nicht leisten. Die intersubjektive Kommunikation braucht Menschen, und nicht Maschinen. KI aber ist zur Intersubjektitvität nicht in der Lage. Sie ist und bleibt ein Objekt. Das muss uns beim Thema KI in der sprechenden Medizin immer bewusst sein – uns als Behandler*innen wie auch den Nutzer*innen.
Bei Online-Therapien ist KI bereits weltweit im Einsatz. Dies birgt Chancen und Risiken. Einerseits können wir dadurch Hilfebedürftige erreichen, die sonst keinen Zugang zur psychiatrischen bzw. psychotherapeutischen Versorgung haben oder die sich Menschen gegenüber nicht öffnen können. Auch die Verbesserung der Diagnostik und Früherkennung oder das Vertiefen von Inhalten als Therapiebegleitung sind neue Möglichkeiten.
Zur Risikominimierung müssten allerdings vor dem Einsatz in der sprechenden Medizin entscheidende Fragen geklärt werden. KIAnwendungen zu therapeutischen Zwecken sollten Medizinprodukte mit entsprechenden Zulassungsverfahren und ethischen Handlungsvorgaben sein. Transparente Überprüfbarkeit auf Objektivität, Reliabilität und Validität sollte genauso Pflicht sein wie eine evidenzbasierte Nutzenbewertung im realen Betrieb mit Vergleich zu Alternativmethoden. Potentielle (Langzeit)-Risiken für die Patient*innen und die Wirtschaftlichkeit der Anwendung müssen analysiert werden.
Denn aktuell gibt es kaum Wissen zu Langzeiteffekten für Nutzende durch regelmäßigen Kontakt mit therapeutischer KI. Verhalten sich Teilnehmer*innen an KI-basierten Gesundheits-Apps genauso wie im echten Leben? Wenn nein, dann würde die KI mit fehlerhaften Daten gefüttert. Und wer kümmert sich dann um das Nachtrainieren der KI, um diese Fehler zu überschreiben? Die ständige Verfügbarkeit von KI unterstützten Onlinetherapien könnte zudem abhängig machen. Auch daran muss gedacht werden.
Auf uns Behandelnde kommen ebenfalls neue Fragen zu: Wenn die sprechende Medizin sich nicht mehr menschlich den Betroffenen zuwendet, sondern zum Datenadministrator von Psycho-Apps wird, was macht das dann mit uns Ärztinnen und Ärzten, uns Therapeut*innen?
Sorgfaltspflichten und haftungsrechtliche Fragen sind noch äußerst unklar. Zwar werden mit KI betriebene Systeme von der Industrie produziert und verkauft. Doch sind die derzeit geltenden EU-Produkthaftungsgesetze überhaupt dazu geeignet, eventuelle Haftungsschäden durch die Nutzung dieser Produkte adäquat zu regeln? Unsere diesbezüglichen Gesetze stammen noch aus der vordigitalen Zeit.
Meine Meinung: KI sollte im Gesundheitssektor, vor allem in der sprechenden Medizin, immer nur als Werkzeug, und nie als Ersatz fungieren. Wir brauchen vorab eine intensive Debatte. Der Bericht des Deutschen Ethikrats vom März 2023 mit dem Titel „Mensch und Maschine“ konnte zum Beispiel zum Thema KI und Psychotherapie nicht überzeugen. Bedenklich erscheint auch die Auswahl der als Quellen genannten Artikel: Ein Viertel davon stammt von Autor*innen mit Interessenskonflikten, die selbst Profiteure oder Stakeholder von E-Health-Anwendungen sind.
Bei aller Befürwortung von Public Private Partnership: Dabei werden unter dem Deckmantel der Forschung zu E-Health und KI-unterstützten Systemen Unmengen von Daten im Gesundheitssektor gesammelt. Die Industrie fühlt sich dabei sehr wahrscheinlich nicht in erster Linie den hilfesuchenden Nutzer*innen der Anwendungen verpflichtet, sondern zuallererst dem eigenen Profit. Schließlich eignen sich solche Daten auch bestens zum personalisierten Marketing für passgenaue Produkte. Neue Start-ups bieten bereits heute KI-unterstützte Optimierungsprogramme zur Steigerung der Verkaufszahlen an. Ist KI also Fluch oder Segen? Die Frage bleibt offen.
Dr. Angela Lüthe
MÄA 19/2023