INnovation
Gesundheit
Österreich
28.08.2024

Expert*innen fordern Regulierung von KI-basierten Gesundheitsanwendungen

Eine Studie der MedUni Wien zeigt das Potenzial von künstlicher Intelligenz für die medizinische Forschung, insbesondere die biomedizinische Simulation. Ein Expert*innenteam vom Else Kröner Fresenius Zentrum für Digitale Gesundheit der Technischen Universität Dresden fordert in einer aktuellen Publikation Rahmenbedingungen, die den Fähigkeiten und Grenzen von auf Large Language Models basierenden Gesundheitsanwendungen gerecht werden.

Large Language Models (LLM) wie GPT-4 haben sich in verschiedenen Bereichen als nützlich erwiesen, so auch in der Biomedizin. Ein Forschungsteam des Instituts für Künstliche Intelligenz der MedUni Wien und des CeMM Forschungszentrum für Molekulare Medizin unter der Leitung von Matthias Samwald und Christoph Bock hat gezeigt, dass ein großes Sprachmodell wie GPT-4 effektiv als Simulator für biologische Systeme eingesetzt werden kann. Die im Journal Computers in Biology and Medicine veröffentlichte Studie testete die Hypothese, dass die schrittweise Simulation biologischer und medizinischer Prozesse mit GPT-4 zu besseren Ergebnissen führt. Dies ist sowohl für die zukünftige Anwendung in der biomedizinischen Forschung als auch für das Verständnis dieser neuen Modelle relevant.

Computersimulationen biologischer Prozesse sind ein wichtiges Instrument für die biomedizinische Forschung, erfordern jedoch in der Regel viel Fachwissen und manuelle Anpassungen. Das Wiener Forschungsteam hat „SimulateGPT“ entwickelt, eine wissensbasierte Simulationsmethode durch strukturierte Eingaben in GPT-4. Diese Methode wurde in verschiedenen Szenarien wie Mausexperimenten, Unterstützung bei der Behandlung von Sepsis, Vorhersage von essentiellen Genen in Krebszellen und progressionsfreiem Überleben von Krebspatient*innen getestet und validiert. Die Methode ist für die Grundlagenforschung konzipiert und nicht für den klinischen Einsatz vorgesehen.

„Diese Studie zeigt, dass Large Language Models wie GPT-4 eine neue Klasse von biomedizinischen Simulatoren ermöglichen könnten“, erklärt Matthias Samwald. „Textbasierte Simulationen sind besonders geeignet, um lebende Systeme zu modellieren und zu verstehen, da Text und Sprache die Flexibilität und Interpretierbarkeit mitbringen, die notwendig sind, um die Komplexität der Biologie zu beschreiben. Für die Weiterentwicklung von LLM-basierten biomedizinischen Simulatoren schlagen wir mehrere Richtungen vor, darunter die Integration biologischer Datenbanken und mathematischer Modellierung, sowie das Training neuer KI-Modelle mit experimentellen Daten.“

Chancen und Risiken von LLM-basierten Gesundheitsanwendungen

LLMs gewinnen nicht nur in der medizinischen Grundlagenforschung an Bedeutung, sondern auch in der Diagnose, Versorgung und Betreuung von Patient*innen. Gleichzeitig gibt es Bedenken bezüglich ihrer Sicherheit und Regulierung. Ergebnisse variieren häufig, sind schwer nachvollziehbar und bergen das Risiko erfundener Aussagen. Die Zulassung LLM-basierter Anwendungen für medizinische Zwecke als Medizinprodukte nach US- und EU-Recht stellt die zuständigen Behörden vor Herausforderungen. Trotz der Risiken, etwa durch Fehldiagnosen oder ungeprüfte medizinische Ratschläge, sind solche Anwendungen bereits auf dem Markt. 

Ein Expert*innenteam um Stephen Gilbert und Jakob N. Kather vom Else Kröner Fresenius Zentrum (EKFZ) für Digitale Gesundheit der Technischen Universität Dresden gibt in einer Publikation in The Lancet Digital Health einen Überblick über Stärken und Schwächen sowie die regulatorischen Herausforderungen von Gesundheitsanwendungen, die auf LLMs basieren. Die Forschenden weisen auf offene rechtliche und ethische Fragen hin, insbesondere mit Blick auf Datenschutz, Wahrung des geistigen Eigentums sowie auf die Problematik geschlechtsspezifischer und rassistischer Vorurteile. Sie fordern angemessene Rahmenbedingungen, die den Fähigkeiten und Grenzen dieser KI-Anwendungen gerecht werden und betonen, dass bestehende Vorschriften dringend durchgesetzt werden müssen. Ein zögerliches Vorgehen seitens der Behörden gefährde nicht nur Nutzer*innen, sondern auch das Potenzial zukünftiger LLM-Anwendungen in der Medizin.

„Diese Technologien existieren bereits auf dem Markt und wir müssen zwei grundlegende Dinge beachten, um eine sichere Entwicklung solcher Anwendungen zu gewährleisten. Erstens braucht es passende Methoden, um diese neuen Technologien bewerten zu können. Zweitens müssen die geltenden rechtlichen Vorgaben gegenüber unsicheren LLM-Anwendungen auf dem Markt durchgesetzt werden. Das ist unerlässlich, wenn wir diese medizinischen KI-Anwendungen in Zukunft sicher nutzen wollen“, sagt Stephen Gilbert, Professor für Medical Device Regulatory Science am EKFZ für Digitale Gesundheit der TU Dresden.

Text: Birgit Kofler; Foto: Emiliano Vittoriosi auf Unsplash  

Quellen: Schaefer et al: GPT-4 as a biomedical simulator. Computers in Biology and Medicine, 178, 2024; Freyer et al: A future role for health applications of large language models depends on regulators enforcing safety standards. The Lancet Digital Health, 6 (9) 2024; Pressemitteilungen der Meduni Wien und der TU Dresden

 

Haben Ihnen diese Artikel gefallen?

Erhalten Sie regelmäßig alle relevanten Nachrichten aus dem österreichischen Gesundheitswesen.