Google, Overviews

Google AI Overviews: Millionen Fehler pro Stunde trotz besserer Technik

11.04.2026 - 00:30:20 | boerse-global.de

Eine Analyse zeigt, dass Googles KI-generierte Antworten trotz hoher statistischer Genauigkeit stündlich zig Millionen falsche oder irreführende Informationen liefern und oft nicht durch Quellen belegt sind.

Google AI Overviews: Millionen Fehler pro Stunde trotz besserer Technik - Foto: über boerse-global.de

Eine umfassende Untersuchung zur Zuverlässigkeit von Googles KI-generierten Antworten zeigt: Trotz messbarer technischer Fortschritte produziert das System jede Stunde zig Millionen falsche oder irreführende Antworten. Die Analyse der KI-Startup Oumi für die New York Times offenbart eine gefährliche Lücke zwischen statistischer Genauigkeit und realer Sicherheit automatisierter Informationssuche.

Die trügerische Mathematik der Massensuche

Im Kern der Kontroverse steht ein einfaches Rechenbeispiel. Die aktuellen AI Overviews liegen laut Oumi in etwa 91 Prozent der Fälle faktisch richtig – eine deutliche Verbesserung gegenüber 85 Prozent im Oktober 2024. Doch diese Prozentzahl wirkt anders, wenn man sie auf Googles globale Dimension überträgt.

Anzeige

Falsche Informationen durch KI-Anfragen sind nicht das einzige Risiko bei der täglichen Internetnutzung – auch Passwörter werden immer häufiger zum Sicherheitsrisiko. Ein kostenloser Report zeigt, wie Sie sich mit der neuen Passkey-Technologie bei Amazon, WhatsApp und Co. wesentlich sicherer anmelden können. Sicherere Alternative zum Passwort jetzt kostenlos entdecken

Bei rund fünf Billionen Suchanfragen jährlich bedeutet selbst eine Fehlerquote von neun Prozent: 57 Millionen falsche Antworten pro Stunde. Hochgerechnet auf die Minute sind das Hunderttausende Fehler, von kleinen Datums-Ungenauigkeiten bis zu potenziell gefährlicher Gesundheits-Desinformation. Kritiker sprechen bereits von einer Misinformation-Krise.

Das Problem verschärft sich durch eine implizite Autorität. Während Nutzer früher selbst zwischen Suchergebnissen abwägen mussten, vertrauen viele nun blind den KI-Zusammenfassungen oben auf der Seite. Studien belegen einen Trend zur „kognitiven Kapitulation“: Nutzer folgen KI-Ratschlägen oft selbst dann, wenn diese nachweislich falsch sind.

Die wachsende Krise der haltlosen Quellen

Noch beunruhigender als reine Faktenfehler ist ein anderes Phänomen: ungrounded responses. Selbst wenn die KI eine korrekte Antwort liefert, stützen die verlinkten Quellen diese Information häufig nicht. Dieses Problem hat sich mit leistungsfähigeren Modellen verschlimmert.

Vor dem Upgrade auf Gemini 3 im Februar 2026 waren etwa 37 Prozent der korrekten Antworten nicht quellengestützt. Seither stieg der Wert auf 56 Prozent. Für mehr als die Hälfte der akkuraten Zusammenfassungen liefern die verlinkten Websites also keine Belege. Für den Durchschnittsnutzer ist eine Überprüfung damit praktisch unmöglich – er müsste eine komplett neue Suche starten.

Konkrete Beispiele zeigen das Ausmaß: Die KI nannte korrekt das Alter einer Persönlichkeit zum Todeszeitpunkt, aber ein falsches Todesdatum. Oder sie behauptete, eine Musikerin sei nicht in eine bestimmte Hall of Fame aufgenommen worden – und verlinkte zugleich auf die Website, die genau diese Aufnahme auflistet. Diese Halluzinationen entstehen, weil das Modell wahrscheinliche Wortfolgen vorhersagt, statt Fakten zu verstehen.

Reale Risiken und Betrüger nutzen Lücken aus

Die Folgen dieser Fehler reichen in Bereiche persönlicher Sicherheit und finanzieller Risiken. Bei medizinischen Suchanfragen – etwa zu Leberwerten – gab das System Zahlenbereiche ohne entscheidenden Kontext wie Alter oder Geschlecht aus. Experten warnen: Patienten mit ernsten Erkrankungen könnten so ihre Werte fälschlich als normal einstufen und notwendige Arztbesuche unterlassen. Google hat zwar begonnen, AI Overviews für sensible medizinische Suchbegriffe zu deaktivieren, doch neue Lücken tauchen ständig auf.

Auch Betrüger haben die Schwachstellen erkannt. Sicherheitsanalysten berichten, dass in KI-Zusammenfassungen für große Unternehmen teils betrügerische Telefonnummern auftauchen. Nutzer, die dort anrufen, geraten in Abofallen oder werden zur Preisgabe persönlicher Daten gebracht.

Anzeige

Wo KI-Systeme Fehler machen, haben Kriminelle leichtes Spiel, um sensible Nutzerdaten wie Banking-Logins oder WhatsApp-Verläufe abzugreifen. Dieser kostenlose Ratgeber erklärt Ihnen 5 einfache Schutzmaßnahmen, mit denen Sie Ihr Smartphone effektiv gegen Hacker und Datenmissbrauch absichern. Kostenlosen Sicherheits-Ratgeber jetzt herunterladen

Parallel sorgt der „Traffic-Apokalypse“ für Konflikte. Nutzer klicken deutlich seltener auf traditionelle Webseiten-Links, wenn eine KI-Antwort präsentiert ist. Das bedroht die Geschäftsmodelle jener Verlage, deren Inhalte die KI für ihre Zusammenfassungen nutzt – ein Teufelskreis für das Ökosystem des offenen Webs.

Googles Verteidigung und Branchenkonflikt

Google wehrt sich gegen die Vorwürfe. Das Unternehmen kritisiert die verwendete SimpleQA-Benchmark als nicht repräsentativ und verweist auf eigene Fehler in diesem Test. Man betont, dass AI Overviews durch die Einbettung in bestehende Such- und Sicherheitssysteme wesentlich zuverlässiger seien als eigenständige Sprachmodelle.

Interne Tests sollen zeigen: Das Gemini-Modell produziert alleinstehend weit mehr Fehler als im Such-Framework. Die überwältigende Mehrheit der Spam-Anfragen werde blockiert, die allermeisten Zusammenfassungen seien hochgradig faktenbasiert.

Doch Branchenkenner wie Führungskräfte von WebiMax halten dagegen: Die Technologie sei noch in einem experimentellen Stadium. Da Google vom Kurator von Links zum direkten Informationsveröffentlicher werde, müsse es an denselben redaktionellen Standards gemessen werden wie traditionelle Medien.

Ausblick: Das Vertrauensproblem im „Agentic Era“

Die Suchbranche steuert auf das sogenannte „Agentic Era“ zu, in dem KI-Agenten Aufgaben für Nutzer übernehmen sollen. Google setzt auf diese Agenten, um seine Marktführerschaft zu zementieren. Doch die anhaltenden Probleme mit Genauigkeit und Quellenbelegen bleiben das größte Hindernis für breites Vertrauen.

Unabhängige Analysten raten deshalb eindringlich: Nutzer sollten sich nie auf eine einzige Informationsquelle verlassen. Trotz aller Bequemlichkeit erfordert die Fehlerhäufigkeit im großen Maßstab ein hohes Maß an Skepsis. Der Druck auf Google wächst, denn die monatlichen KI-Ausgaben großer Konzerne sind zuletzt um über 35 Prozent gestiegen. Die Zukunft des offenen Webs könnte davon abhängen, ob der Suchgigant Automatisierung und überprüfbare Wahrheit in Einklang bringt.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69120892 |