KI-Chatb, Gefährliche

KI-Chatb Gefährliche Fehldiagnosen für Millionen Patienten

24.02.2026 - 18:49:36 | boerse-global.de

Führende Studien warnen vor der Nutzung von KI für medizinische Ratschläge. Die Systeme zeigen in der Praxis gefährliche Schwächen und können lebensbedrohliche Fehlinformationen verbreiten.

Führende Forschungsinstitute warnen eindringlich vor der Nutzung von KI-Chatbots für medizinische Ratschläge. Neue Studien belegen massive Sicherheitslücken, die Patienten in Gefahr bringen können.

Labor vs. Realität: KI bricht in der Praxis ein

Eine groß angelegte Oxford-Studie, kürzlich in Nature Medicine veröffentlicht, zeigt ein alarmierendes Bild. Getestet an zehn medizinischen Szenarien erkannten Sprachmodelle wie GPT-4o im Labor fast immer die richtige Erkrankung. Doch sobald echte Menschen die Systeme nutzten, brach die Leistung ein.

Anzeige

Um bei gesundheitlichen Fragen nicht auf unsichere KI-Aussagen angewiesen zu sein, hilft es, die eigenen Körperwerte besser zu verstehen. Dieser kostenlose Ratgeber erklärt Ihnen verständlich die wichtigsten Laborwerte und schützt Sie so vor folgenschweren Fehldiagnosen. Kostenlosen Laborwerte-Guide jetzt anfordern

Bei einem Versuch mit 1.300 Teilnehmern sank die Trefferquote für relevante Beschwerden auf unter 35 Prozent. Die korrekte Handlungsempfehlung – etwa der Gang in die Notaufnahme – lag bei nur 44 Prozent. Mit KI-Unterstützung schnitten die Probanden nicht besser ab als eine Kontrollgruppe, die auf eigene Internetrecherche setzte.

Sprachmodelle schlucken medizinische Falschmeldungen

Fast zeitgleich liefert eine Mount-Sinai-Studie im Lancet Digital Health weitere beunruhigende Ergebnisse. KI-Modelle übernehmen gefährliche Fehlinformationen kritiklos, sobald diese in vertrautem klinischen Jargon formuliert sind.

Die Forscher fütterten neun Modelle mit echten Krankenhausberichten, Gesundheitsmythen und klinischen Szenarien. Die Systeme gaben erfundene Behauptungen häufig als Fakten aus. In einem Test empfahl ein gefälschter Bericht bei blutenden Speiseröhrenentzündungen das Trinken kalter Milch – eine potenziell lebensgefährliche Fehlinformation. Mehrere KI-Modelle erkannten den Fehler nicht und behandelten die Angabe als legitime Leitlinie.

Größtes Technologie-Risiko für 2026 benannt

Die Brisanz der Studien wird durch eine aktuelle Risikobewertung unterstrichen. Das auf Patientensicherheit spezialisierte ECRI-Institut stufte die missbräuchliche Nutzung von Gesundheits-Chatbots zum Top-Technologierisiko 2026 ein.

Allein bei ChatGPT stellen täglich über 40 Millionen Menschen gesundheitliche Fragen. Die Organisation warnt: Die Chatbots generieren Texte durch Wortmuster, nicht durch echtes medizinisches Verständnis. In eigenen Tests erfanden KI-Modelle nicht existierende Körperteile oder empfahlen unnötige Tests. In einem gravierenden Fall bestätigte eine KI fälschlicherweise eine Elektrodenplatzierung, die in der Praxis zu schweren Verbrennungen führen würde.

Anzeige

Statt sich auf automatisierte Chat-Antworten zu verlassen, sollten Sie bei medizinischen Daten auf Expertenwissen setzen. Erfahren Sie in diesem 25-seitigen Spezialreport von Dr. Ulrich Fricke, welche Vitalstoff-Werte wirklich zählen und wie Sie Ihren nächsten Arztbesuch optimal vorbereiten. Zum Gratis-Download: Laborwerte richtig deuten

Theoretisches Wissen hilft in der Praxis nicht

Bislang dominierten Meldungen über KI-Modelle, die medizinische Examina mit Bravour bestehen. Die neuen Daten zeigen: Dieses theoretische Wissen verliert in der unstrukturierten Interaktion mit Patienten massiv an Wert.

Die Oxford-Studie deckte ein massives Kommunikationsproblem auf. Patienten wussten oft nicht, welche Informationen die KI für eine präzise Antwort benötigte. Die Systeme können individuelle Krankengeschichten und subtile Symptome nicht verlässlich einordnen. Die Schlussfolgerung der Forscher: Die Technologie ist trotz des Hypes nicht bereit, die Rolle eines Arztes zu übernehmen.

Wie geht es weiter? Faktenprüfer und klare Regeln

Experten fordern nun strengere Sicherheitsvorkehrungen. Künftige Gesundheits-KIs benötigen eingebaute Faktenprüfer, die Behauptungen mit verifizierten Datenbanken abgleichen, bevor sie an Nutzer ausgegeben werden.

Auf regulatorischer Ebene wird erwartet, dass Gesundheits-KI im Rahmen des europäischen AI Act als Hochrisiko-Anwendung strenger überwacht wird. Nutzern wird geraten, Chatbots nur als Übersetzungshilfe für Fachbegriffe oder zur Gesprächsvorbereitung zu nutzen – nie für Diagnose- oder Behandlungsentscheidungen.

Hol dir den Wissensvorsprung der Aktien-Profis.

Hol dir den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.