MIT-Forscher, Thermometer

MIT-Forscher entwickeln Thermometer für KI-Vertrauenswürdigkeit

24.02.2026 - 20:31:16 | boerse-global.de

Forscher stellen eine neue Methode vor, um die Selbstsicherheit von KI-Modellen bei falschen Antworten zu reduzieren und so deren Zuverlässigkeit in kritischen Bereichen zu erhöhen.

Forscher am MIT haben eine neue Methode vorgestellt, die KI-Modelle ehrlicher macht. Ihr "Thermometer" soll verhindern, dass die Systeme bei falschen Antworten zu viel Selbstvertrauen zeigen.

Diese Diskrepanz ist vor allem in kritischen Bereichen gefährlich. In der Medizin könnte ein übermäßig zuversichtliches, aber falsches Modell zu unnötigen Eingriffen führen. Studien zeigen, dass selbst hochpräzise Modelle gefährlich schlecht kalibriert sein können.

Anzeige

Während die Forschung an vertrauenswürdigeren Systemen arbeitet, müssen Unternehmen bereits heute die seit August 2024 geltenden gesetzlichen Rahmenbedingungen für künstliche Intelligenz beachten. Dieser kostenlose Leitfaden erklärt verständlich, welche neuen Anforderungen und Fristen der EU AI Act für Ihr Unternehmen bereithält. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Das Problem: KI, die zu selbstsicher irrt

Modellkalibrierung soll sicherstellen, dass die ausgegebenen Wahrscheinlichkeiten der Realität entsprechen. Sagt ein gut kalibriertes Wettermodell 80 Prozent Regen, sollte es auch in 80 Prozent der Fälle regnen. Viele moderne neuronale Netze neigen jedoch dazu, sich ihrer Sache zu sicher zu sein.

Das Problem verschärft sich bei Modellen, die mit unausgewogenen Daten trainiert wurden. Sie bewerten die Mehrheitsklasse oft über.

So funktioniert das "Thermometer"

Die neue Methode nutzt einen kleineren KI-Helfer, um die "Temperatur" der Vorhersagen großer Sprachmodelle (LLMs) anzupassen. Dieser Ansatz ist effizienter als bisherige Verfahren und bewahrt die Genauigkeit des Hauptmodells.

Der große Vorteil: Die Kalibrierung funktioniert universell über verschiedene Aufgaben hinweg. Bisher konnte eine Anpassung für eine spezifische Aufgabe die Leistung in anderen Bereichen beeinträchtigen.

Warum herkömmliche Methoden an Grenzen stoßen

Etablierte Techniken wie Platt Scaling oder isotonische Regression passen vorhergesagte Wahrscheinlichkeiten nachträglich an. Visuelle Werkzeuge wie Kalibrierungskurven machen Fehler sichtbar.

Anzeige

Neben der technischen Zuverlässigkeit rückt auch die rechtliche Absicherung beim Einsatz moderner Technologien immer stärker in den Fokus von Geschäftsführern. Erfahren Sie in diesem Experten-Report, wie Sie aktuelle KI-Gesetze und Cyber-Security-Trends ohne Budget-Explosion in Ihre Strategie integrieren. Experten-Report zu Cyber Security & KI-Gesetzen kostenlos herunterladen

Doch bei modernen, vielseitigen Sprachmodellen stoßen diese Methoden an ihre Grenzen. Genau hier setzt der neue Ansatz des MIT-Teams an.

Der größere Trend: Der Ruf nach vertrauenswürdiger KI

Die zunehmende Integration von KI in Alltag und kritische Prozesse macht ihre Zuverlässigkeit zur zentralen Anforderung. Schlechte Kalibrierung ist nicht nur ein technisches, sondern auch ein ethisches Problem.

Untersuchungen zeigen, dass Modelle für verschiedene demografische Gruppen unterschiedlich kalibriert sein können. Das kann zu unfairen Ergebnissen führen. Methoden wie "Thermometer" sind Teil eines Branchentrends hin zu erklärbarerer und fairerer künstlicher Intelligenz.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68608587 |