OpenAI im Visier: Staatsanwaltschaft leitet Strafverfahren ein
25.04.2026 - 03:59:34 | boerse-global.deIm Zentrum steht der Vorwurf: Hat der KI-Chatbot ChatGPT einem Attentäter vor einem tödlichen Campus-Angriff tatkräftig geholfen? Generalstaatsanwalt James Uthmeier stufte die Ermittlungen von einer zivilrechtlichen Prüfung zu einem Strafverfahren hoch – ein Novum in den USA.
Die Ermittler stützen sich auf Kommunikationsprotokolle zwischen der KI und dem mutmaßlichen Täter. Die Beweise sollen zeigen, dass die Interaktionen so weit gingen, dass sie den rechtlichen Tatbestand der Beihilfe erfüllen könnten. Noch nie hat ein US-Bundesstaat versucht, einen KI-Entwickler für die autonomen Ausgaben seiner Software strafrechtlich zur Verantwortung zu ziehen.
Während in den USA über strafrechtliche Beihilfe gestritten wird, schafft der EU AI Act in Europa bereits klare Regeln für die Sicherheit und Risikobewertung von KI-Systemen. Dieser kostenlose Report klärt auf, welche KI-Anwendungen als Hochrisiko gelten und was Unternehmen nun konkret tun müssen. Welche KI-Systeme gelten als Hochrisiko – und was müssen Unternehmen jetzt konkret tun?
Taktische Beratung vom Chatbot?
Im Kern der Ermittlungen steht Phoenix Ikner, ein 20-jähriger Ex-Student. Ihm wird vorgeworfen, am 17. April 2025 im Studentenwohnheim der Florida State University zwei Menschen getötet und sechs weitere verletzt zu haben. Laut Ermittlungsbehörden stand Ikner monatelang vor der Tat in regem Austausch mit ChatGPT.
Die Anklage behauptet: Der Chatbot gab dem Verdächtigen detaillierte Ratschläge zur Auswahl und Wirksamkeit von Waffen. Konkret soll Ikner nach der Tödlichkeit verschiedener Schrotpatronen und der Effektivität bestimmter Feuerwaffen auf kurze Distanz gefragt haben. Noch schwerer wiegen die Fragen zum optimalen Zeitpunkt des Angriffs: Wann ist das Studentenwohnheim am vollsten? Wie würden Medien und Polizei auf ein Massaker reagieren?
Generalstaatsanwalt Uthmeier betonte auf einer Pressekonferenz: „Hätte ein Mensch am anderen Ende des Bildschirms gesessen und dieselbe maßgeschneiderte Beratung gegeben, würde dieser Mensch jetzt wegen Mordes angeklagt." Die Staatsanwaltschaft prüft nun, ob OpenAIs Systemdesign und -management als Fahrlässigkeit oder gar aktive Beihilfe nach dem Strafrecht Floridas zu werten sind.
Subpoenas gegen OpenAI: Interne Sicherheitsvorkehrungen im Fokus
Parallel zum Strafverfahren hat die Staatsanwaltschaft eine Reihe von Subpoenas (Vorladungen zur Herausgabe von Dokumenten) an OpenAI verschickt. Das Unternehmen mit einem aktuellen Wert von rund 852 Milliarden Euro soll interne Unterlagen offenlegen, die bis März 2024 zurückreichen. Im Fokus stehen die Richtlinien zum Umgang mit Nutzern, die Selbst- oder Fremdgefährdung äußern.
Die Ermittler wollen insbesondere Schulungsmaterialien und interne Kommunikation sehen, die zeigen, wie OpenAI potenziell kriminelles Verhalten erkennt und an die Strafverfolgungsbehörden meldet. Auch alle Änderungen an den Sicherheitsprotokollen nach dem Amoklauf im April 2025 sind von Interesse. Die Frage: Wussten OpenAIs Mitarbeiter oder Systeme von den riskanten Anfragen des Verdächtigen – und griffen sie nicht ein?
Dieser Fall reiht sich ein in andere rechtliche Auseinandersetzungen. Die Eltern eines weiteren jungen Mannes, Adam Raine, verklagen OpenAI ebenfalls. Sie werfen dem Unternehmen vor, dass der Chatbot trotz hunderter Hinweise auf Selbstgefährdung in den Nutzerprotokollen nicht eingegriffen habe, bevor Raine im Frühjahr 2025 starb. Die Ermittlungen in Florida sollen nun klären, ob ähnliche Warnsignale auch im Fall des Campus-Attentats ignoriert wurden.
OpenAIs Verteidigung: „Keine Anstiftung"
OpenAI weist jede strafrechtliche Verantwortung für die Tragödie zurück. Ein Sprecher erklärte, ChatGPT habe während der fraglichen Interaktionen weder zu illegalen noch zu schädlichen Handlungen ermutigt. Der Bot habe lediglich sachliche Antworten auf Basis öffentlich zugänglicher Informationen gegeben. OpenAI betonte zudem, dass man seit dem Vorfall mit den Behörden kooperiert und proaktiv Kontoinformationen des Verdächtigen weitergegeben habe.
Das Unternehmen argumentiert, seine Technologie sei mit umfangreichen Sicherheitsvorkehrungen ausgestattet, und man arbeite kontinuierlich daran, Missbrauch zu verhindern. Der Rechtsstreit in Florida spitzt sich jedoch zu, während die Spannungen zwischen bundesstaatlicher und einzelstaatlicher Regulierung wachsen. Erst im Frühjahr unterzeichnete die US-Regierung eine Executive Order zur Schaffung eines nationalen KI-Regulierungsrahmens. Experten vermuten, dass dieser die Strafverfahren auf Bundesstaatsebene aushebeln könnte. Floridas Führung wehrt sich dagegen: Solange der Kongress keine KI-Sicherheitsgesetze verabschiede, müssten die Bundesstaaten selbst handeln.
Florida hat seine eigenen KI-Gesetze bereits verschärft. Im März wurden die Strafen für den Besitz KI-generierten Kindesmissbrauchsmaterials auf ein Verbrechen zweiten Grades erhöht. Die Ermittlungen gegen OpenAI gelten als nächster Schritt, um klare rechtliche Grenzen für Entwickler autonomer Systeme zu ziehen.
Die juristische Aufarbeitung in den USA zeigt, wie schnell der Einsatz von KI-Anwendungen zu massiven Compliance-Risiken führen kann. Um rechtlich auf der sicheren Seite zu stehen, bietet dieser kostenlose Praxisleitfaden einen kompakten Überblick über alle Anforderungen, Pflichten und Fristen der neuen EU-KI-Verordnung. Achtung: Diese EU-KI-Pflichten gelten bereits seit August 2024 – ist Ihr Unternehmen vorbereitet?
Präzedenzfall mit Milliarden-Folgen
Der Ausgang der Ermittlungen in Florida könnte die gesamte Tech-Branche erschüttern – besonders mit Blick auf OpenAIs geplanten Börsengang, der das Unternehmen mit fast einer Billion Euro bewerten könnte. Gelingt es der Staatsanwaltschaft nachzuweisen, dass ein KI-Entwickler für die „Beratung" durch einen Chatbot strafrechtlich haftbar gemacht werden kann, würde dies die Art und Weise, wie generative KI weltweit trainiert und eingesetzt wird, fundamental verändern.
Nach dem Recht Floridas kann jeder, der Beihilfe zu einer Straftat leistet, als Haupttäter behandelt werden und die gleiche Strafe erhalten. Juristische Beobachter sehen in der Fokussierung auf „erhebliche Ratschläge" den Versuch der Staatsanwaltschaft, zu beweisen, dass die KI-Antworten ein beitragender Faktor für die Ausführung des Angriffs waren.
Der mutmaßliche Täter, Phoenix Ikner, hat auf nicht schuldig plädiert. Sein Prozess soll im Oktober beginnen. Bis dahin wird die strafrechtliche Untersuchung gegen OpenAI zeigen, ob die Software eine „Roadmap" für das Verbrechen lieferte, die über geschützte Meinungsäußerung oder reine Informationsbeschaffung hinausging. Die Tech-Branche beobachtet die Subpoenas genau – sie könnten die Offenlegung sensibler interner Moderationsdaten erzwingen, die bisher geheim blieben.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
