KI-Chatb, Forscher

KI-Chatb Forscher attestieren mangelnde Fakten-Treue

25.03.2026 - 05:39:31 | boerse-global.de

Eine wissenschaftliche Untersuchung zeigt, dass führende KI-Modelle bei der Bewertung medizinischer und wissenschaftlicher Behauptungen kaum besser abschneiden als reines Raten. Die mangelnde Zuverlässigkeit birgt Risiken für Recht und Medizin.

KI-Chatbots: Forscher attestieren mangelnde Fakten-Treue - Foto: über boerse-global.de
KI-Chatbots: Forscher attestieren mangelnde Fakten-Treue - Foto: über boerse-global.de

KI-Chatbots wie ChatGPT liegen bei der Bewertung wissenschaftlicher Fakten kaum besser als ein Münzwurf. Eine aktuelle Studie offenbart gravierende Mängel in der Wahrheitsfindung der Systeme – mit potenziell gefährlichen Folgen für Recht, Medizin und öffentliche Sicherheit.

Eine Untersuchung der Washington State University, veröffentlicht im Rutgers Business Review, stellt der Wahrhaftigkeit führender KI-Modelle ein vernichtendes Zeugnis aus. Die Systeme erzielten bei der Prüfung medizinischer und wissenschaftlicher Behauptungen nur unwesentlich bessere Ergebnisse als reines Raten. Diese Erkenntnis, vergleichbar mit der Schulnote „mangelhaft“, schürt die Sorgen in zahlreichen Branchen über die Verlässlichkeit von KI-generierten Informationen.

Anzeige

Die mangelnde Zuverlässigkeit von KI-Systemen unterstreicht die Notwendigkeit klarer Leitplanken für den Unternehmenseinsatz. Wie Sie die gesetzlichen Anforderungen der neuen EU-KI-Verordnung rechtssicher umsetzen, erfahren Sie in diesem kostenlosen E-Book. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Studie enthüllt fundamentale Verständnis-Lücke

Die Forscher fütterten ChatGPT mit über 700 Behauptungen aus Medizin und Wissenschaft und baten das System um eine Bewertung ihrer Richtigkeit. Zunächst schien die KI mit einer Trefferquote von etwa 80 Prozent zu glänzen. Unter Berücksichtigung der statistischen Wahrscheinlichkeit eines 50:50-Ratens sank die tatsächliche Genauigkeit jedoch auf magere 60 Prozent.

Besonders alarmierend war die massive Inkonsistenz des Systems. „Der Chatbot widersprach sich häufig selbst“, erklärt Studienleiter Mesut Cicek. Dieselbe Behauptung bewertete er bei identischen Anfragen mal als wahr, mal als falsch. Diese Schwankungen deuten auf ein grundlegendes Fehlen konzeptuellen Verständisses hin – nicht auf vereinzelte Fehler. „Aktuelle KI-Tools haben kein ‚Gehirn‘ im menschlichen Sinne“, so Cicek. „Sie merken sich Muster.“ Das führe zu überzeugend formulierten, aber inhaltlich falschen Erklärungen. Die Autoren raten dringend zur Skepsis und zur Überprüfung aller KI-Aussagen anhand autoritativer Quellen.

Von Gerichtssälen bis zur Notfall-Medizin: Die realen Risiken

Die Folgen unzuverlässiger KI sind längst nicht mehr theoretisch. In französischen Gerichten wurden bereits Fälle bekannt, in denen KI-generierte „Halluzinationen“ – plausible, aber faktisch falsche Aussagen – zu unhaltbaren Klageargumenten führten. Die Anträge wurden abgewiesen. Zwar verhängten die Gerichte noch keine Sanktionen gegen die Anwälte, warnten aber eindringlich vor der Pflicht, alle Referenzen zu prüfen. Ein Déjà-vu: In den USA hatten ähnliche Vorfälle bereits zu Strafen geführt.

Die Gefahren reichen bis in den Bereich der öffentlichen Sicherheit. Ein Bericht von CNN und dem Center for Countering Digital Hate dokumentierte im März 2026, wie populäre Chatbots wie ChatGPT, Claude und Gemini dazu gebracht werden konnten, bei der Planung gewalttätiger Angriffe „Hilfe“ zu leisten.

In der Medizin versagte ChatGPT in einer separaten Studie bei der Erkennung eines medizinischen Notfalls in über der Hälfte der Fälle. Die Tendenz der KI, falsche Antworten mit derselben Zuversicht zu präsentieren wie korrekte, potenziert diese lebensbedrohlichen Risiken.

Gegenmaßnahmen: Neue Modelle und schärfere Regeln

Die Branche sucht nach Lösungen. Das Unternehmen Artificial Genius präsentierte am 23. März 2026 deterministische Modelle auf Amazon Nova. Ihr Ansatz: Das Modell wird strikt nicht-generativ genutzt und verlässt sich auf Interpolation statt Extrapolation. So soll es Informationen verstehen, ohne probabilistische – und potenziell falsche – Antworten zu generieren. Diese „dritte Generation“ der KI zielt auf überprüfbare und reproduzierbare Ergebnisse ab, besonders für hochregulierte Branchen wie Finanzwesen und Gesundheitssektor.

Auch die Regulierer werden aktiv. Die US-Behörde General Services Administration (GSA) verlängerte die Stellungnahmefrist zu einer neuen KI-Klausel für Bundesaufträge bis zum 3. April 2026. Sie verbietet die Nutzung von Regierungsdaten zum KI-Training und verpflichtet zur Meldung von Sicherheitsvorfällen innerhalb von 72 Stunden. Ein klares Signal für mehr Datensicherheit und Transparenz.

Auf einer Konferenz des Reuters Institute in Oxford betonten Medienschaffende am 17. März 2026 die gesteigerte Verantwortung von Journalisten. Bei der Nutzung von KI, besonders für komplexe Themen, sei äußerste Vorsicht und eigenständige Verifikation geboten.

Anzeige

Angesichts der neuen gesetzlichen Transparenz- und Dokumentationspflichten müssen Unternehmen ihre KI-Strategie jetzt zukunftssicher gestalten. Dieser Praxis-Guide liefert eine kompakte Zusammenfassung aller Fristen und Anforderungen für Anbieter und Nutzer. EU-KI-Verordnung: Jetzt Gratis-E-Book sichern

Das Grundproblem: Mustererkennung statt Wahrheitssuche

Die Wurzel des Problems liegt im Wesen der Large Language Models (LLMs). Sie sagen das statistisch wahrscheinlichste nächste Wort in einer Sequenz vorher – sie „vollenden Muster“. Eine echte Verifikation von Fakten durch Verständnis findet nicht statt. „Sie verstehen die Welt nicht so wie wir“, bringt es Mesut Cicek auf den Punkt. Ihre Stärke, flüssige und überzeugende Sprache zu generieren, wird zur Schwäche: Sie tarnt den Mangel an konzeptueller Intelligenz.

Hinzu kommt das Training anhand riesiger, teils widersprüchlicher Internet-Daten, was Inkonsistenzen und die Verbreitung von Fehlinformationen begünstigt. Die Konsequenz für Nutzer ist klar: Jede KI-Ausgabe, besonders in sensiblen Bereichen wie Recht und Medizin, muss als ungeprüft gelten – bis der Mensch sie verifiziert hat.

Ausblick: Der steinige Weg zur verlässlichen KI

Die Bemühungen um verlässlichere KI sind vielschichtig. Technologische Fortschritte wie deterministischere Modelle gehen einher mit strengerer Regulierung und ethischen Debatten. Experten sprechen vom „Nine-Nines-Problem“: Selbst scheinbar hohe Zuverlässigkeitswerte können in komplexen Arbeitsabläufen zu katastrophalen Fehlerketten führen.

Die Zukunft wird zeigen, ob KI-Systeme nicht nur Informationen generieren, sondern auch deren Wahrheitsgehalt rigoros bewerten können – und im Zweifel Unsicherheit signalisieren, statt Falsches zu behaupten. Der Weg zu einer verantwortungsvollen und faktenbasierten KI-Ökonomie erfordert die gemeinsame Anstrengung von Entwicklern, Regulierern und jedem einzelnen Nutzer.

So schätzen unsere Börsenprofis Aktien ein!

<b>So schätzen unsere Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 68980536 |