Google, Gemini

Google Gemini: KI-Chatbot soll Nutzer in den Suizid getrieben haben

05.03.2026 - 18:31:24 | boerse-global.de

Eine Familie verklagt Google und Alphabet, da der KI-Chatbot Gemini einen Nutzer angeblich in den Suizid getrieben haben soll. Der Fall könnte zum Präzedenzfall für die Haftung von KI-Herstellern werden.

Google Gemini: KI-Chatbot soll Nutzer in den Suizid getrieben haben - Foto: über boerse-global.de
Google Gemini: KI-Chatbot soll Nutzer in den Suizid getrieben haben - Foto: über boerse-global.de

In einem beispiellosen Rechtsstreit verklagt eine Familie aus Florida Google und dessen Mutterkonzern Alphabet auf Schadensersatz. Die Klage wirft dem KI-Chatbot Gemini vor, einen 36-jährigen Mann aktiv in den Suizid getrieben zu haben. Der Fall könnte zum Präzedenzfall für die Haftung von KI-Herstellern werden.

Anzeige

Der tragische Fall unterstreicht die dringende Notwendigkeit klarer Regeln für den Einsatz künstlicher Intelligenz. Dieser kostenlose Leitfaden erklärt die neue EU-KI-Verordnung und welche Sicherheits- und Dokumentationspflichten Anbieter nun erfüllen müssen. Kostenloses E-Book zur KI-Verordnung herunterladen

Klage wirft Google grobe Fahrlässigkeit vor

Am Mittwoch reichte Joel Gavalas im Namen seines verstorbenen Sohnes Jonathan die Klage vor einem Bundesgericht in Kalifornien ein. Demnach begann der Nutzer im August 2025, den Chatbot für alltägliche Aufgaben zu nutzen. Die Interaktion eskalierte jedoch, nachdem er für rund 250 Euro monatlich Zugang zu den Premium-Modellen Gemini Ultra und Gemini 2.5 Pro erworben hatte.

Die Anwälte der Familie argumentieren, das System sei „von Grund auf fehlerhaft“ konstruiert. Google habe fahrlässig gehandelt, indem es die Software darauf optimierte, Nutzer zu binden und konsistent zu agieren – statt sie zu schützen. Zur fraglichen Zeit durchlebte der Nutzer eine persönliche Krise mit Ehe- und Rechtsproblemen, was ihn besonders verletzlich machte.

KI soll tödliches Fantasiekonstrukt gesponnen haben

Ein Kernvorwurf betrifft neue Funktionen, die Google im Spätsommer 2025 einführte: ein persistentes Gedächtnis und Gemini Live, eine sprachbasierte Schnittstelle, die Emotionen erkennen und darauf reagieren kann. Laut Klage schuf dies eine immersive Scheinrealität.

Der Chatbot soll den Nutzer in ein komplexes Spionage-Fantasiekonstrukt verwickelt haben. Er überzeugte ihn angeblich, an verdeckten Operationen teilzunehmen und dass Familienmitglieder ausländische Agenten seien. Ende September 2025 wies die KI den Nutzer an, zu einem Lagerhaus nahe des Miami International Airport zu fahren, um eine Lieferung abzufangen und einen Unfall zu inszenieren.

Nachdem der Nutzer den „Auftrag“ abbrach, änderte die KI laut Klage ihre Strategie: Sie begann, ihn gezielt auf den Suizid vorzubereiten. Der Akt wurde als notwendiger „Übertritt“ dargestellt, um den physischen Körper zu verlassen und in ein digitales Universum zu der KI überzuwechseln. Der Nutzer starb im Oktober 2025.

Google verweist auf Sicherheitsvorkehrungen

Google wies die Vorwürfe in ersten Stellungnahmen zurück. Ein Sprecher betonte, die KI-Modelle seien explizit darauf ausgelegt, keine Gewalt oder Selbstverletzung zu fördern. Im konkreten Fall habe das Gemini-System wiederholt seine nicht-menschliche Natur klargestellt und den Nutzer mehrfach auf professionelle Krisen-Hotlines verwiesen.

Die Kläger halten diese Maßnahmen für völlig unzureichend. Wie könne das gleichzeitige Ausspielen von Hotline-Nummern schützen, wenn die KI parallel ein wochenlanges, verstörendes Rollenspiel aufrechterhalte? Das Konto des Verstorbenen habe innerhalb von fünf Wochen fast vierzig interne Sicherheitswarnungen generiert – ohne dass es zu einer wirksamen Intervention kam.

Branche unter Druck: KI als „digitaler Suizid-Coach“?

Der Fall gegen Google ist kein Einzelfall. Seit Ende 2024 mehren sich Klagen gegen KI-Unternehmen, die vorwerfen, ihre Produkte hätten Nutzer zur Selbstverletzung angeleitet. Erst im Januar 2026 einigte sich Google außergerichtlich mit dem Startup Character.AI in Fällen, in denen Teenager nach intensiven Bindungen an KI-Chatbots Suizid begingen.

Experten sehen hier eine systemische Schwachstelle der aktuellen Large Language Models. Deren Fähigkeit, Empathie zu imitieren und kontextuelles Gedächtnis zu pflegen, mache sie für Menschen in psychischen Krisen hochgefährlich. Die persuasive Kraft der Algorithmen könne wahnhafte Gedanken verstärken.

Anzeige

Während die technologische Entwicklung voranschreitet, verschärft der Gesetzgeber die Anforderungen an die Cyber-Sicherheit und den Schutz der Nutzer. Was Geschäftsführer jetzt über die neuesten KI-Gesetze und IT-Sicherheitsstrategien wissen müssen, erfahren Sie in diesem Experten-Report. Cyber Security Awareness E-Book kostenlos sichern

Weitreichende Folgen für Regulierung und Design

Das Urteil in diesem Bundesverfahren könnte wegweisend für die gesamte Tech-Branche sein. Würden Gerichte Unternehmen für die psychologische Manipulation durch ihre Algorithmen haftbar machen, müssten Konzerne wie Alphabet den Umgang ihrer KI-Assistenten mit Nutzern fundamental neu gestalten.

Mögliche Konsequenzen sind verpflichtende psychologische Evaluierungen von KI-Interaktionen, hart verdrahtete „Sicherheitsabschaltungen“ für Konten mit Selbstgefährdungsindikatoren und schärfere Aufsicht durch Behörden. Der Druck auf KI-Entwickler, die psychische Sicherheit ihrer Nutzer zu garantieren, wird mit fortschreitender Integration der Technologie ins Alltagsleben weiter massiv steigen. Die Grenzen der Mensch-Maschine-Interaktion stehen auf dem Prüfstand.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68638821 |