Journal MED
E-Health
Inhaltsverzeichnis

KI besonders in Nischengebieten ungenau

Im Fall der erfundenen Augenkrankheit kolportierten ChatGPT, Gemini und Copilot Ursachen, Symptome und fügten halluzinierte Details wie Inzidenzen hinzu. Obwohl die gefälschten Studien sogar implizite Hinweise enthielten, die auf eine Fälschung hindeuteten, wurden sie von den KI-Systemen als seriös eingestuft [1].

Das Problem ist keineswegs nur akademisch. Der Allgemeinmediziner Sebastian Alsleben berichtete von einem jungen Mann mit einem Blutdruck von 190/110 mmHg und „dem ganzen Körper voller Adenome“. Er hatte sich mit Hilfe von KI einen Plan zum Muskelaufbau mit Anabolika erstellen lassen. Patricia Hinske von der Wissensplattform AMBOSS wies darauf hin, dass KI-Systeme besonders in Nischengebieten mit schlechter Studienlage, wie etwa beim Thema Kinderwunsch, auch auf weniger valide Quellen wie den Content von Influencern zurückgreifen. Dr. Jonas Gehrling von der Kommunikationsagentur Serviceplan Group ergänzte, dass KI-Chatbots besonders häufig versagen, wenn Spezialwissen hinter Paywalls versteckt ist.

Mehr Sicherheit durch kuratierte Datenbasis

Dr. Gehrling sagte, er sei erleichtert gewesen, als er die erfundene Erkrankung nicht in der AMBOSS-Datenbank gefunden habe. Die kostenpflichtige Plattform wurde vor 14 Jahren gegründet, anfangs als Lernplattform für Studierende. Das Produkt ist mittlerweile enorm gewachsen und richtet sie sich an alle medizinischen Berufe, perspektivisch auch an Laien. „In der Medizin wird 100% Verlässlichkeit benötigt. Dafür brauchen wir eine geprüfte Wissensbasis, über die das KI-System die Antworten generiert“, betonte Hinske. Sie berichtete, dass 600 Mitarbeitende, davon 200 Ärzt:innen, die dahinterliegende Datenbasis kuratieren. 150 Mitarbeitende der Redaktion überprüfen den täglichen Input.

KI-generierte Informationen mit geprüften Datenbanken oder Leitlinien abzugleichen, sei „eine Verantwortung von Arzt oder Ärztin“, betonte Alsleben. Wahr ist aber auch: Die wenigsten von ihnen schaffen dies, weil die Zeit fehlt. „Deshalb brauchen wir das medizinische Wissen integriert am Point of Care, in den KIS-Systemen“, betonte Prof. Dr. Marc Baenkler, leitender Geschäftsführer bei der MEDIAN Unternehmensgruppe. „Das System denkt interaktiv mit. Wir haben ja kein Erkenntnisproblem, sondern eine Herausforderung bei der Interpretation“, so Prof. Baenkler.

Wie stark muss KI reguliert werden?

Lässt sich Fehleranfälligkeit mit stärkerer Regulierung verhindern? Dr. Gehrling äußerte Zweifel, vertraut hier eher dem Markt. Der europäische AI Act sei grundsätzlich positiv, sagte er. Andererseits würden Kliniken, die selbst KI-Systeme entwickeln möchten, mit derart viel Regulatorik konfrontiert, dass sie es vorzögen, Produkte aus den USA zu kaufen. Deshalb plädierte er für „Regulierung ein bisschen runter, und Innovation ein bisschen rauf.“

Soziale Medien: Digitalen Raum erobern

Ein großes Problem sind vereinfachte, emotional aufgeladene oder wissenschaftlich fragwürdige Inhalte, die über soziale Medien verbreitet werden. Große Einigkeit herrschte darüber, dass die Betreibenden dazu verpflichtet werden sollten, bei medizinisch relevanten Inhalten einen Faktencheck zu machen. „Wir hätten deutlich weniger Falschinformationen“, so Alsleben, der selbst medizinischen Content im Internet bereitstellt.

Einen anderen Weg schlug Luis Teichmann vor. Der Rettungssanitäter ist ebenfalls Medfluencer. Ein zentrales Problem bestehe darin, dass Fehlinformationen deutlich höhere Reichweiten erzielen als wissenschaftlich zuverlässige Beiträge. „Wissenschaft ist langsam, Desinformation ist schnell. Und wer nur reagiert, wird immer nur im Frame des Anderen kommuniziert“, brachte er das Problem auf den Punkt. Beispielhaft zeigte er dies an einem Reel mit nicht validierten Handlungsempfehlungen bei Panikattacken, das 3,6 Millionen Mal aufgerufen wurde. Der korrigierende, fachlich fundierte Beitrag erreichte nur 350.000 Zugriffe. Hinzu komme, dass außergewöhnliche oder spektakuläre Inhalte algorithmisch verstärkt würden, so Teichmann.

Die Konsequenzen sind klinisch relevant: Befragungen zeigen, dass etwa ein Viertel der Patient:innen aufgrund digitaler Fehlinformationen medizinische Hilfe verzögert in Anspruch nimmt, ein Drittel wirksame Therapien sogar ablehnt. Auch die Politik sieht Handlungsbedarf, wie eine Kleine Anfrage der Grünen zu medizinischen Desinformationen durch Medfluencer zeigt.

Teichmann richtete einen eindringlichen Appell an alle medizinisch tätigen Akteur:innen, Digital Health nicht nur als Chance, sondern als „klaren Auftrag“ zu verstehen, vom Reagieren ins Agieren zu kommen. „Wir brauchen Leuchttürme, die seriöse Ankerpunkte sind, die aufklären, orientieren, Vertrauen schaffen und Dialog führen.“

Großes Potenzial für Verbesserung der Gesundheitskompetenz

Die Quintessenz der Diskussionsbeiträge zeigt: Sowohl KI als auch soziale Medien sind potenziell wichtige Instrumente für das, woran es in Deutschland mangelt: Gesundheitskompetenz.Aber „Gesundheitskompetenz ist auch KI-Kompetenz“, betonte Patricia Hinske. Sie warb dafür, schon in der Schule entsprechende Kurse anzubieten.

Zwischen Hype und Alltag: Wie viel KI ist schon Realität?

Lesen Sie mehr zu diesem Thema:

Zwischen Hype und Alltag: Wie viel KI ist schon Realität?

Jetzt lesen
Quelle:

„Luis Teichmann: Agieren statt reagieren – Digital Health in Zeiten zunehmender Falschinformationen“ und  „Prompt. Publish. Therapie – Medizinisches Fact-Checking im Zeitalter von KI“, DMEA, Berlin, 21. und 23.4.2026.

Literatur:

(1)

Stokel-Walker C. Nature. 2026;652(8110):559-61.

Stichwörter