KI-Textbearbeitung, Korrekturen

KI-Textbearbeitung: Mehr Korrekturen, aber oft schlechtere Qualität

12.02.2026 - 03:51:12

Eine wissenschaftliche Untersuchung belegt, dass KI zwar dreimal mehr Textänderungen vorschlägt als Menschen, aber nur 61 Prozent davon tatsächlich Verbesserungen darstellen.

Eine neue Studie belegt die Schwächen von Künstlicher Intelligenz beim Texten: KI schlägt zwar mehr Korrekturen vor als menschliche Lektoren, verschlechtert aber häufig die Gesamtqualität. Die am 10. Februar 2026 veröffentlichte Forschung liefert harte Daten zu einem bekannten Problem – vom inflationären Gebrauch des Gedankenstrichs bis zum Verlust von Klarheit.

Die Ergebnisse kommen zu einem kritischen Zeitpunkt. Die KI-Branche versucht, ihre Modelle von reinen Textgeneratoren zu zuverlässigen Arbeitswerkzeugen für Unternehmen zu entwickeln. Für alle, die mit digitaler Produktivität zu tun haben, ist die Studie eine klare Warnung: Die Geschwindigkeit der KI wird durch ihren Mangel an sprachlichem Feingefühl erkauft.

Die Studie: Drei Mal so viele Korrekturen, aber nur 61% treffen

Forscher der University of Michigan haben die Leistung von Large Language Models (LLMs) als Lektorats-Tools quantifiziert. Sie verglichen die Bearbeitung akademischer Manuskripte durch eine universitätseigene KI, die Software Grammarly und einen professionellen menschlichen Lektor.

Das Ergebnis ist eindeutig: Die KI generierte drei Mal so viele Korrekturen wie der Mensch. Doch der Schein trügt. Nur 61 Prozent dieser KI-Vorschläge verbesserten den Text tatsächlich. Die übrigen Änderungen machten ihn schlechter, löschten wichtige Informationen oder führten fragwürdige Revisionen ein.

Diese Kluft zwischen Quantität und Qualität zeigt ein Grundproblem auf. KI erkennt zwar schnell grammatikalische und syntaktische Fehler. Sie scheitert aber regelmäßig am Kontext, am Lesefluss und an der inhaltlichen Klarheit – den eigentlichen Merkmalen guter Texte.

Der Gedankenstrich-Debakel: Stil-Bias wird zum Kulturkampf

Das übermäßige Verwenden des Gedankenstrichs – etwa so – wurde 2025 zum Sinnbild für maschinell generierte Texte. Modelle wie ChatGPT setzten das Satzzeichen inflationär ein, oft an Stellen, an denen ein menschlicher Autor es nie tun würde.

Dieser Stilfehler entstand durch die Trainingsdaten der KI, die große Mengen Text mit vielen Gedankenstrichen enthielten. Die Folge war ein kurioser kultureller Effekt: Einige Autoren begannen, den eigentlich legitimen Gedankenstrich aus Angst zu meiden, ihr Werk könne als KI-Text abgetan werden. Die KI begann, nicht nur Inhalte, sondern auch menschliche Schreibgewohnheiten zu beeinflussen.

Die Reaktion der Industrie: Vom Feature-Rennen zur Zuverlässigkeit

Auf massives Nutzerfeedback reagierte OpenAI im November 2025. Ein Update ermöglichte es, ChatGPT per Befehl in den „Benutzerdefinierten Anweisungen“ konsequent vom Gebrauch des Gedankenstrichs abzuhalten. Dieser kleine Schritt signalisierte einen größeren Trend: Nutzer fordern mehr Kontrolle über den Stil ihrer KI-Tools.

Die Branche befindet sich Anfang 2026 in einer neuen Phase. Nach dem Wettrennen um immer größere und mächtigere Modelle konzentrieren sich Entwickler wie Anthropic und OpenAI nun auf Zuverlässigkeit, Sicherheit und spezialisierte Anwendungen. Neue Updates bringen weniger glanzvolle Features, sondern verbessern das logische Schlussfolgern, erweitern den Kontext für tiefere Analysen und bauen „agentische“ Fähigkeiten für komplexe Aufgaben aus.

Anzeige

Unternehmen, die KI-Systeme einsetzen, stehen seit dem Inkrafttreten der EU-KI-Regelungen vor neuen Pflichten – von Kennzeichnungspflichten bis zu Dokumentationsanforderungen. Ein kompakter Umsetzungsleitfaden erklärt verständlich, welche Risikoklassen gelten, welche Nachweise nötig sind und welche fristgerechten Schritte Sie jetzt einleiten sollten, um Bußgelder zu vermeiden. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen

Analyse: KI bleibt Assistent, kein Ersatz

Die Studie der University of Michigan liefert den harten Beweis für das, was viele Nutzer schon ahnten: KI ist ein Assistent, kein Ersatz. Die Tatsache, dass viele ihrer „Verbesserungen“ Texte verschlechtern, unterstreicht die nicht verhandelbare Rolle menschlicher Kontrolle und kritischer Urteilsfähigkeit.

Die Gedankenstrich-Episode war nur ein sichtbares Symptom für ein grundsätzliches Problem: KI arbeitet mit Mustern, nicht mit Verständnis. Sie kann die Form guten Schreibens imitieren, scheitert aber oft an ihrer Funktion. Für Unternehmen bedeutet das: KI für Geschwindigkeit, Brainstorming und Rohentwürfe nutzen – den letzten Schliff aber dem Menschen überlassen.

Ausblick: Die nächste Herausforderung ist Stilsicherheit

Die Zukunft der KI-Entwicklung wird sich darauf konzentrieren, diese Qualitätslücke zu schließen. Die nächste Modell-Generation wird nicht nur daran gemessen, wie menschlich ihr Text klingt, sondern daran, wie zuverlässig sie ihn verbessern kann.

Das erfordert ein ausgefeilteres Training in Stilkonventionen, detailliertere Nutzerkontrollen für Tonfall und Stimme sowie besseres kontextuelles Verständnis. Die aktuelle Branchenentwicklung hin zu spezialisierten KI-Agenten und zuverlässigeren Modellen ist eine direkte Antwort auf diese Forderung. Das Ziel ist klar: KI soll vom korrekturbedürftigen Werkzeug zum echten Partner werden, der die subtile Kunst der Sprache versteht.

@ boerse-global.de

Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.