9/2024 9/2024

Virtuelle Kollegin mit brillanten Ideen

 Von Dr. Stefan Renz

Der Deutsche Ethikrat fordert eine Auseinandersetzung mit den Chancen und Risiken der Künstlichen Intelligenz. Die Kinderheilkunde will sich dieser Aufgabe jetzt stellen.

Im August 2023 hörte ich einen Podcast, in dem die Vorsitzende des Deutschen Ethikrats, Alena Buyx, über die Herausforderungen durch künstliche Intelligenz (KI) sprach. Das Gremium hatte dazu einige Monate zuvor eine Stellungnahme veröffentlicht. “Im Moment stelle ich unser Papier den Berufsverbänden und Landesärztekammern vor”, berichtete Alena Buyx, “und ich sage denen: Bitte denkt darüber nach, was die Kernbereiche Eurer Berufe sind und was Ihr delegieren könnt.”

Ich dachte mir: Sie hat Recht, wir sollten uns schnellstens mit dem Thema beschäftigen. Vor zwei Jahren wurde das “Bündnis für Kinder- und Jugendgesundheit” gegründet, in dem sich alle Player der Kinderheilkunde zusammengeschlossen haben: wissenschaftliche Fachgesellschaft, Berufsverbände, Klinik-Pädiatrie, Kinderkrankenpflege und Elternvereinigung.

Das Bündnis hat eine Ethik-Kommission, und das schien mir der richtige Rahmen zu sein, um sich Gedanken darüber zu machen, wie KI in der Pädiatrie reguliert werden könnte.
Es geht darum, Chancen und Risiken einzuschätzen und gegenein­ander abzuwägen. Die KI könnte die Medizin revolutionieren. Doch sie treibt möglicherweise auch Entwicklungen voran, die der Versorgung nicht zuträglich sind.

Wenn heute beispielsweise der Klinik-Verwaltungschef in der Pädiatrie anruft und sagt: “Bisher haben Sie neun Assistenzärztinnen, mit sieben kriegen Sie den Dienstplan doch sicher genauso gut hingebastelt” – dann könnten künftig vielleicht noch ein paar Stellen mehr gestrichen werden mit dem Hinweis: “Das übernimmt die KI.”

Doch worüber sprechen wir eigentlich? Was ist Künstliche Intelligenz? Eine gängige Definition lautet: KI ist die Fähigkeit von Computern und Maschinen, menschenähnliche Intelligenz zu simulieren, um so komplexe Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern.

In der Medizin gibt es eine Vielzahl von Einsatzmöglichkeiten:

  • Diagnoseunterstützung

  • Patientensteuerung

  • Therapieempfehlungen

  • Therapiepläne auf Intensivstationen und in der Kinder-Onkologie

  • Überwachung von Patienten

  • Automatisierung von standardisierten Untersuchungen

  • Closed-loop-Systeme in der Diabetologie

  • In der Neonatologie/Intensivmedizin (Beatmung/Kreislauf)

  • Entlastung der Pflege

  • Förderung von Forschung und Entwicklung, usw.

Pädiatrie ist eine medizinische Disziplin mit einer sehr großen Zahl an Diagnosen, deshalb könnte die KI gerade hier eine besondere Relevanz bekommen. Es gibt bereits Anwendungen, die zeigen, wie KI im Praxisalltag eingesetzt werden könnte.

Die App “face to gene” beispielsweise kann zur Unterstützung herangezogen werden, wenn man vermutet, dass ein Kind einen Gendefekt hat. Viele genetisch bedingte Syndrome gehen mit charakteristischen Gesichtsmerkmalen und Phänotypauffälligkeiten einher. Um die eigene Blickdiagnose zu unterstützen, lädt man ein Portraitfoto des Kindes hoch. Die App gibt dann mit verschiedenen Wahrscheinlichkeiten an, um welche Krankheit es sich handeln könnte.

Ein anderes Beispiel: Wenn die Ärztin oder der Arzt bei einem neugeborenen Kind das Vorliegen einer Trisomie 21 vermutet, wird ein diagnostischer Bluttest durchgeführt. Nach Anzüchtung der Zellen werden die Chromosomen fotografiert und sortiert. Eine MTA schneidet die Bilder der Chromosomen aus, führt sie paarweise zusammen und prüft, ob ein zusätzliches Chromosom 21 vorhanden ist. Die KI erledigt die Analyse in einem Bruchteil der Zeit. Das Ergebnis muss dann aber natürlich noch von einem Menschen überprüft werden.

Ebenso eindrucksvoll ist die Leistung von KI bei der Analyse oder Befundung von Bilddateien, Röntgen oder Sonographie: Die Maschine scheint heute schon genauer und verlässlicher zu sein als das menschliche Auge, besonders bei der Früherkennung.

Ich erinnere mich an den Fall eines Neugeborenen, das uns in der Praxis vorgestellt wurde zur Abklärung eines Herzgeräusches. Ich sah eine Verengung der Aorta, eine sogenannte Isthmusstenose, allerdings war der Ductus noch offen, was die Diagnose und Prognose schwierig machte.

Daher zog ich meinen Kollegen zu Rate, und wir betrachteten die Aorta aus allen erdenkllichen Perspektiven. Schließlich wiesen wir das Kind ins Krankenhaus ein. Nachmittags kam dann der Anruf des Oberarztes, er stimmte mit uns überein, dass man den weiteren Verlauf abwarten müsse. Er sei aber erstaunt, dass wir über die hochgradig dysplastische Mitralklappe kein Wort geschrieben hätten, die sei uns doch bestimmt aufgefallen. Große Augen bei uns, nein, wir waren von der Aorta so in den Bann gezogen, dass das Naheliegende übersehen wurde.

Eine KI hätte uns wahrscheinlich darauf hingewiesen. Und so stelle ich mir eine ideale Zusammenarbeit mit einer KI vor: Dass sie sich verhält wie eine virtuelle Kollegin, die uns wohlwollend unterstützt und immer gute Nerven, gute Laune und brillante Ideen hat.

Allerdings gibt es ein paar Probleme, die ich hier nur anreißen will: KI hat ja die fatale Eigenschaft zu halluzinieren. Gerade Chatbots (also technische Systeme, die KI nutzen, um einen Dialog zwischen Mensch und technischem System zu ermöglichen) geben bisweilen überzeugend formulierte, aber weitgehend erfundene Aussagen von sich: plausibel klingende Zufallslügen.

Ich habe ChatGPT 3.5 einmal gefragt: „Hast du eine Großmutter mit Diabetes?“ Die Antwort: „Entschuldigung, ich kann keine persönlichen Informationen über meine Familie preisgeben.“

Chatbots wie ChatGPT sind normalerweise nicht speziell für den medizinischen Bereich trainiert. Sie haben sich in manchen Studien aber als gute Diagnostiker und medizinische Berater erwiesen.
ChatGPT bestand sowohl das amerikanische als auch das deutsche medizinische Staatsexamen knapp: Nach Ausschluss der Bildfragen beantwortete ChatGPT im M1 60,1 Prozent (158/263) und im M2 66,7 Prozent (168/252) der Fragen korrekt und bestand somit beide Prüfungen mit der Note 4 (ausreichend).

Die Zukunft werden speziell in Medizin trainierte Systeme sein, wie das von Google entwickelte MedPAlm 2, welches schon jetzt medizinische Fragen zu 88 Prozent korrekt beantwortet und damit Fachärztinnen vergleichbar ist.

An die Entwicklung von KI-Programmen für den medizinischen Alltag müssen hohe Ansprüche gestellt werden. KI-Programme sollten zunächst in hochwertigen Studien ihren Nutzen und ihre Verlässlichkeit belegen müssen.

In seiner oben erwähnten Stellungnahme fordert der Deutsche Ethikrat bei der Anwendung von KI außerdem eine enge Zusammenarbeit mit den relevanten Zulassungsbehörden. Ohne wissenschaftlichen Nutzennachweis und Zulassung sollten KI-Systeme im Praxisalltag nicht eingesetzt werden. Außerdem müssen strenge Anforderungen an Datenschutz und Datensouveränität berücksichtigt werden.

Des Weiteren weist der Ethikrat auf die Gefahr des “automation bias” bei der Anwendung hin. Dieses Phänomen kennen wir vom Umgang mit anderen scheinbar unfehlbaren Maschinen: Wir sind beispielsweise bei Autofahrten oftmals geneigt, dem Navi mehr Kompetenzen zuzuschreiben als unserem menschlichen Beifahrer – und sei dieser noch so ortskundig.

Der Deutsche Ethikrat schreibt zu dieser Problematik: “Da auch KI-basierte Instrumente nicht fehlerfrei arbeiten, sondern mitunter nur andere Fehler als Menschen begehen, und die Nichtentdeckung dieser Fehler fatale Konsequenzen haben kann, sollten KI-gestützte Entscheidungssysteme immer so gestaltet werden, dass die konkrete Art der Übermittlung ihrer Analyseergebnisse (etwa in Gestalt einer Wahrscheinlichkeitsangabe für das Vorliegen einer pathologischen Veränderung) deutlich macht, dass hier noch eine ärztliche Plausibilitätsprüfung erforderlich ist.“

Ein binäres Klassifikationssystem (Krankheit liegt vor, Krankheit liegt nicht vor) sollte mit komplexeren Angaben wie beispielsweise Balkendiagrammen oder Wahrscheinlichkeitsangaben hinterlegt sein, um das Ergebnis nachvollziehbar und transparent zu machen.

KI sollte nicht selbst entscheiden, sondern zur Unterstützung einer ärztlichen Entscheidung herangezogen werden. Verantwortlich bleibt am Ende stets die Ärztin oder der Arzt.

Je größer die Aufgabenbereiche werden, die routinemäßig an KI abgegeben werden, desto mehr theoretisches wie praktisches Erfahrungswissen und entsprechende Fähigkeiten könnten verloren gehen. Der Deutsche Ethikrat spricht in diesem Zusammenhang von der Gefahr eines „Deskilling“.

KI könnte unsere gesamte Ausbildungsstuktur auf den Kopf stellen, denn manches von dem, was gelehrt wird, kommt möglicherweise gar nicht mehr praktisch zur Anwendung, weil es die Maschine erledigt.

Trotzdem müssen die (angehenden) Ärztinnen und Ärzte ihre diagnostischen und therapeutischen Fertigkeiten weiterhin erwerben und trainieren – falls mal der Stom ausfällt oder die KI aus anderen Gründen nicht funktioniert.
Die Aus- und Weiterbildung auf diese spezifischen Anforderungen abzustellen, wird nicht einfach sein.

Kann KI die Ärztinnen und Ärzte von Bürokratie entlasten? Es dürfte eigentlich nicht allzu schwierig sein, Systeme zu entwickeln, die den Praxen und Krankenhäusern in diesem Bereich Arbeit abnehmen.
Bislang allerdings fehlen hierfür oftmals die einfachsten Voraussetzungen. Bei einer Fortbildung habe ich Assistenzärztinnen und -ärzte nach dem Stand der Digitalisierung in ihren Krankenhäusern gefragt. Das brachte natürlich kein repräsentaives Ergebnis, doch immerhin eine Momentaufnahme: Etwa die Hälfte der Teilnehmer gab an, in ihrem Krankenhaus werde noch mit Papierakten gearbeitet.

Kürzlich traf ich einen Krankenhausarzt, der sagte: „Was ich mir am meisten für meine Klinik wünsche, ist ein Internet-Anschluss.“

Wir sind also noch weit entfernt von einer Arbeitswelt, in der digitale Akten per Diktat und automatischer Verschriftlichung gefüllt werden können. Von einer Arbeitswelt, in der KI selbstständig Arztbriefe schreibt und die Untersuchungsergebnisse anderer Praxen sinnvoll in die eigene digitale Akte einfügt. Und in der KI die Inhalte der Akte auf Plausibilität überprüft, in der KI bei der Anamnese und Diagnose unterstützt und Therapieempfehlungen gibt, während die Ärztin oder der Arzt dem Patienten im Behandlungszimmer gegenübersitzt. Dazu müssten die Daten strukturiert vorliegen, davon sind wir in Deutschland noch weit entfernt.

Aktuell verbringen Ärztinnen und Ärzte etwa drei Stunden am Tag mit Dokumentation. Dies ist durch Einsatz der KI sicher drastisch zu verkürzen. Wird die Vernetzung der Klinken und Praxen in Zukunft durch KI gesteuert automatisiert in der Cloud ablaufen?
Diese Szenarien zeigen aber immerhin: KI muss nicht zwangsläufig zu einer Abwertung der sprechenden Medizin führen.

Wenn es gelingt, Bürokratie von der KI erledigen zu lassen, damit sich Ärztinnen und Ärzte auf ihre ärztlichen Kerntätigkeiten konzentrieren können – und wenn KI auch diese ärztlichen Kerntätigigkeiten unterstützt und dann womöglich noch einen allgemeinverständlichen Arztbrief oder Therapieplan für die Patientin schreibt, kann das zu einer Verbesserung von Arzt-Patienten-Interaktion auf jeder Ebene beitragen.

Die von uns geplante Arbeitsgruppe zur Künstlichen Intelligenz im “Bündnis für Kinder- und Jugendgesundheit” wird sich demnächst konstituieren. KI kann viele positive Auswirkungen haben, doch es ist wichtig sicherzustellen, dass sie unter Berücksichtigung der ethischen, rechtlichen und sozialen Aspekte sorgfältig integriert wird.
Hierzu wird die Arbeitsgruppe in den kommenden Wochen einige Leitplanken aufstellen.

DR. STEFAN RENZ
ist Kinder- und Jugendarzt in Eimsbüttel. Von 2009 bis 2021 war er Hamburger Landesvorsitzender, von 2021 bis 2023 Bundes-Vizepräsident des Berufsverbandes der Kinder- und Jugendärzt*innen.

Quellen:

• Alles gesagt? / Zeit-Interviewpodcast: “Alena Buyx, warum ist Leben nicht das höchste Gut?” 17.8.2023. https://www.zeit.de/gesellschaft/2023-08/alena-buyx-ethikrat-interviewpodcast-alles-gesagt
• Deutscher Ethikrat: “Mensch und Maschine – Herausforderungen durch künstliche Intelligenz” / Stellungnahme. 20.3.2023. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
• “ChatGPT bei Diagnose in der Notaufnahme so gut wie Ärzte”, Deutsches Ärzteblatt 14.9.2023 https://www.aerzteblatt.de/nachrichten/145949/ChatGPT-bei-Diagnose-in-der-Notaufnahme-so-gut-wie-Aerzte'
• „ChatGPT besteht schriftliche medizinische Staatsexamina nach Ausschluss der Bildfragen“, Deutsches Ärzteblatt 4.5.2023 https://www.aerzteblatt.de/archiv/231005/ChatGPT-besteht-schriftliche-medizinische-Staatsexamina-nach-Ausschluss-der-Bildfragen
• Singhal, Karan u.a.: “Towards Expert-Level Medical Question Answering with Large Language Models”, arXiv 16.5.2023 https://arxiv.org/pdf/2305.09617.pdf
• Schroeder, Carina / Krauter, Ralf: „Künstliche Intelligenz in der Medizin: Erspart mir KI den Besuch beim Arzt?“, Deutschlandfunk 3.8.2023 https://www.deutschlandfunk.de/kuenstliche-intelligenz-in-der-medizin-erspart-mir-ki-den-besuch-beim-arzt-dlf-0feb118a-100.html
• Bierfreund, Ina: „Rolle von KI in Versorgung und Forschung“, Tagesspiegel Background Gesundheit & E-Health, 10.4.2024 https://background.tagesspiegel.de/digitalisierung/rolle-von-ki-in-versorgung-und-forschung

LESERBRIEF SCHREIBEN
redaktion@kvhh.de