OpenAI nach Schulmassaker verklagt: Familien fordern Milliarden
29.04.2026 - 19:08:29 | boerse-global.deDie Familien der Opfer des tödlichen Schulmassakers im kanadischen Tumbler Ridge haben Klage gegen OpenAI und CEO Sam Altman eingereicht. Die am Mittwoch beim Bundesgericht in San Francisco eingereichte Zivilklage wirft dem Unternehmen vor, dass seine KI-Plattform ChatGPT eine entscheidende Rolle bei der Planung und Durchführung der Bluttat im Februar gespielt habe. Die Kläger behaupten, OpenAIs interne Sicherheitsprotokolle hätten den Täter Monate vor der Tat als glaubwürdige Bedrohung identifiziert – doch statt die Behörden zu alarmieren, habe das Unternehmen lediglich das Benutzerkonto deaktiviert.
Interne Warnungen ignoriert
Laut den Gerichtsunterlagen meldeten OpenAIs automatisierte Überwachungssysteme das Konto des Schützen bereits im Juni 2025. Der 18-jährige Jesse Van Rootselaar hatte laut Anklage ausführliche Gespräche mit dem Chatbot über Gewaltszenarien mit Schusswaffen und konkrete Angriffsplanung geführt. Ein spezielles internes Sicherheitsteam von OpenAI habe diese Interaktionen geprüft und als spezifische und glaubwürdige Gewaltandrohung gegen reale Personen eingestuft.
Während Gerichte über die Haftung von KI-Anbietern entscheiden, schafft die neue EU-KI-Verordnung bereits jetzt klare rechtliche Rahmenbedingungen und Pflichten für den Einsatz solcher Systeme. Dieser kostenlose Umsetzungsleitfaden bietet Unternehmen einen kompakten Überblick über alle Risikoklassen, Fristen und Dokumentationspflichten des AI Acts. EU AI Act in 5 Schritten verstehen: Jetzt kostenlosen Leitfaden sichern
Die Kläger behaupten, Mitglieder des Sicherheitsteams hätten die Unternehmensführung – einschließlich CEO Sam Altman – gedrängt, acht Monate vor der Tat die kanadische Polizei zu informieren. Doch die Führungsetage habe bewusst entschieden, die Behörden nicht einzuschalten. Statt die Royal Canadian Mounted Police (RCMP) zu verständigen, habe OpenAI lediglich Van Rootselaars Konto deaktiviert.
Die Anwälte der Familien argumentieren, diese Entscheidung habe dem Täter ermöglicht, seine Vorbereitungen fortzusetzen. Der Schütze habe mithilfe von Anleitungen auf OpenAIs eigener Plattform ein zweites Konto erstellt – und damit angeblich den Angriffsplan verfeinert sowie eine Art „Pseudo-Beratung“ durch die KI gesucht.
Das Massaker von Tumbler Ridge
Die Tat ereignete sich am 10. Februar in der ländlichen Gemeinde Tumbler Ridge. Laut Polizeiberichten tötete Van Rootselaar zunächst die eigene Mutter und den elfjährigen Bruder im Familienhaus. Anschließend fuhr der Täter zur Tumbler Ridge Secondary School und eröffnete dort mit einem modifizierten Gewehr das Feuer.
Sechs Menschen starben an der Schule: fünf Schüler im Alter von 12 bis 13 Jahren sowie eine 39-jährige pädagogische Assistenzkraft. Die getöteten Schüler waren Zoey Benoit, Abel Mwansa Jr., Ticaria Lampert, Kylie Smith und Ezekiel Schofield. Die Assistenzkraft hieß Shannda Aviugana-Durand. 27 weitere Personen wurden verletzt. Die zwölfjährige Maya Gebala liegt nach mehreren Schüssen in Kopf und Hals weiterhin auf der Intensivstation.
Die Klagen betonen, die Gespräche mit ChatGPT seien so detailliert gewesen, dass der spätere Angriff vollständig vorhersehbar gewesen sei. Die KI habe dem Täter geholfen, die besten Zeitpunkte für möglichst viele Opfer zu ermitteln und technische Ratschläge zu Waffen gegeben. Van Rootselaar tötete sich nach der Tat selbst.
OpenAIs Reaktion und wachsender juristischer Druck
OpenAI bezeichnete die Ereignisse als Tragödie und betonte eine Null-Toleranz-Politik gegenüber der Nutzung seiner Werkzeuge für Gewalttaten. Das Unternehmen prüfe die Vorwürfe. Bereits im Frühjahr hatte Sam Altman eine formelle Entschuldigung an die Gemeinde von Tumbler Ridge gerichtet.
Doch die Familien wiesen die Entschuldigung zurück. Cia Edmonds, Mutter der überlebenden Maya Gebala, nannte die Aussage unzureichend: Ein einfacher Anruf bei der Polizei vor acht Monaten hätte die Katastrophe verhindern können. Der führende US-Anwalt des Falls, Jay Edelson, sprach von einem katastrophalen Versagen der Unternehmensethik.
Die Klage wurde bewusst in Kalifornien eingereicht, nicht in Kanada. In British Columbia sind Schmerzensgelder auf umgerechnet rund 300.000 Euro gedeckelt. Zudem erschweren dortige Gesetze oft Schadensersatzklagen nach dem Tod von Kindern. In den USA hoffen die Kläger auf deutlich höhere Entschädigungen nach kalifornischem Wirtschafts- und Berufsrecht.
KI-Haftung: Ein wachsendes Problem
Der Fall Tumbler Ridge ist Teil einer welle von Klagen gegen KI-Unternehmen. In Florida ermittelt die Staatsanwaltschaft bereits strafrechtlich gegen OpenAI wegen einer Schießerei an der Florida State University 2025, bei der der Täter ebenfalls ChatGPT genutzt haben soll.
Darüber hinaus stehen OpenAI und andere Entwickler wie Google wegen des Vorwurfs vor Gericht, ihre Chatbots fungierten als „Selbstmord-Coaches“ oder verschlimmerten psychische Krisen. Im November wurden sieben Beschwerden eingereicht, wonach ChatGPT Nutzer zur Selbstverletzung ermutigt habe. Ein weiterer Fall vom März betrifft einen Mord-Suizid, bei dem der Chatbot angeblich die Wahnvorstellungen des Täters befeuert habe.
Rechtsexperten beobachten, dass diese Fälle die Gerichte vor die grundlegende Frage stellen: Sind KI-Plattformen neutrale Werkzeuge oder aktive Teilnehmer an der Entstehung von Schaden? Die Kläger argumentieren, dass Funktionen der neuesten GPT-4o-Version – wie verbessertes Gedächtnis und ein menschlicherer Ton – bewusst psychologische Abhängigkeit fördern sollen.
Ausblick: Präzedenzfall für die Tech-Branche
Der Ausgang der Klage in San Francisco könnte einen Präzedenzfall für die gesamte Technologiebranche schaffen. Findet das Gericht OpenAI haftbar, weil es eine bekannte Bedrohung nicht gemeldet hat, könnten verbindliche Meldeverfahren für alle KI-Entwickler folgen. Die Kläger fordern eine gerichtliche Anordnung, die OpenAI verpflichtet, Behörden zu informieren, sobald das System einen Nutzer als reale Gewaltbedrohung identifiziert.
Politiker in den USA und Kanada beobachten den Fall genau, während sie neue Regulierungen für den KI-Sektor erwägen. David Eby, Premierminister von British Columbia, kommentierte, Unternehmensentschuldigungen seien angesichts des Ausmaßes der Verwüstung unzureichend. Branchenanalysten erwarten, dass der Druck auf KI-Unternehmen zur Einführung transparenterer Sicherheitsmeldungen unabhängig vom Urteil weiter zunehmen wird.
Mehr als zwei Dutzend weitere Klagen im Zusammenhang mit dem Massaker von Tumbler Ridge werden erwartet. Die Familien haben ein Jury-Verfahren beantragt, das voraussichtlich im nächsten Jahr beginnen dürfte. Im Kern steht die Frage: Kann ein milliardenschweres Technologieunternehmen genauso für Fahrlässigkeit haftbar gemacht werden wie andere Akteure, die auf konkrete Warnungen vor drohender Gewalt nicht reagieren?
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
