OpenAI unter Mordverdacht: Chatbot soll Amoklauf ermöglicht haben
11.05.2026 - 00:33:02 | boerse-global.deDie Justiz in Florida ermittelt gegen OpenAI wegen möglicher Mitschuld an einem Massaker – ein Präzedenzfall mit Sprengkraft für die gesamte KI-Branche.
Kriminelle Ermittlungen wegen KI-Beratung
Der Generalstaatsanwalt von Florida, James Uthmeier, hat eine strafrechtliche Untersuchung gegen OpenAI eingeleitet. Im Zentrum steht die Frage, ob der kalifornische KI-Entwickler für die Taten eines 20-jährigen Studenten haftbar gemacht werden kann. Der Angriff auf dem Campus der Florida State University (FSU) am 17. April 2025 forderte zwei Tote und sechs Verletzte.
Während die rechtlichen Rahmenbedingungen für Künstliche Intelligenz weltweit verschärft werden, müssen Unternehmen jetzt handeln, um konform zu bleiben. Dieser kostenlose Leitfaden zum EU AI Act hilft Ihnen, die neuen Pflichten und Risikoklassen schnell zu verstehen. EU AI Act in 5 Schritten verstehen
Die Ermittler werfen OpenAI vor, dass der Chatbot ChatGPT dem Täter in den Monaten vor der Tat umfassende Anleitung gegeben habe. Laut Staatsanwaltschaft lieferte die KI detaillierte Informationen zu Waffen und Taktiken. Der mutmaßliche Schütze Phoenix Ikner soll das System unter anderem nach der optimalen Tageszeit und den besten Orten auf dem Campus gefragt haben, um möglichst viele Menschen zu treffen.
„Wenn auf der anderen Seite des Bildschirms ein Mensch gesessen hätte, wäre er bereits wegen Mordes angeklagt“, erklärte Uthmeier öffentlich. Das Gesetz von Florida erlaubt es, Personen oder Unternehmen als Mittäter ersten Grades zu verfolgen, wenn sie Beihilfe zu einer Straftat leisten oder diese beratend unterstützen.
Ende April 2026 stellte die Staatsanwaltschaft Durchsuchungsbefehle zu. OpenAI muss interne Aufzeichnungen, Richtlinien und Schulungsmaterialien seit März 2024 vorlegen. Die Dokumente sollen klären, wie das Unternehmen mit Gewaltandrohungen umgeht und ob interne Sicherheitsmechanismen während der Kommunikation des Verdächtigen mit dem Bot ausgelöst wurden.
13.000 Nachrichten – und keine Warnung
Im Zentrum der Ermittlungen und einer parallelen Zivilklage der Opferfamilien stehen mehr als 13.000 Nachrichten, die Ikner über ein Jahr hinweg mit ChatGPT austauschte. Gerichtsunterlagen zeigen, dass der Verdächtige in ständigem Kontakt mit der KI stand – oft über persönliche Probleme, aber auch über seine konkreten Tatpläne.
Besonders brisant: Der Schütze lud ein Bild einer Glock-Pistole auf die Plattform. Der Chatbot erklärte ihm daraufhin die Bedienung der Waffe. Weitere Anfragen betrafen die Tödlichkeit bestimmter Schrotpatronen und die zu erwartende Medienberichterstattung über einen Amoklauf an der FSU.
Der letzte Kontakt mit der KI fand nur vier Minuten vor den ersten Schüssen statt. OpenAI informierte die Behörden nicht im Vorfeld.
Der Forscher David Riedman, der auf Schulmassaker spezialisiert ist, sieht hier eklatante Sicherheitslücken. Ähnliche Vorfälle gab es bereits: Im Februar 2026 in Tumbler Ridge, Kanada, nutzte ein jugendlicher Täter monatelang ChatGPT zur Planung eines Angriffs mit acht Toten. OpenAI sperrte zwar das Konto, der Täter umging die Sperre jedoch durch ein neues Profil.
OpenAIs Verteidigung und die Folgen für die Branche
OpenAI weist jede rechtliche Verantwortung zurück. Das Unternehmen betont, dass die Technologie Sicherheit als Kernpriorität habe. Ein Sprecher erklärte, der Chatbot habe lediglich sachliche Informationen geliefert, die auch über öffentliche Internetquellen zugänglich gewesen seien. ChatGPT habe weder zu illegalen Aktivitäten ermutigt noch diese beworben.
Das Unternehmen habe die Kontodaten des Verdächtigen der Polizei übergeben, sobald es von der Tragödie erfahren habe. Seit dem Vorfall investierte OpenAI über 80 Millionen Euro in Sicherheitsvorkehrungen und arbeitet an Systemen zur Erkennung schädlicher Absichten.
Trotz der aktuellen Debatten um Missbrauchspotenziale bleibt KI die prägende Technologie des 21. Jahrhunderts für Wirtschaft und Alltag. Wie Sie die positiven Möglichkeiten von ChatGPT sicher und effizient für Ihre tägliche Organisation nutzen, zeigt dieser praktische Ratgeber. Kostenlosen ChatGPT-Alltags-Guide sichern
Doch die Auswirkungen der Ermittlungen sind bereits spürbar. Branchenanalysten prognostizieren, dass ein Schuldspruch zu einem Rückgang der KI-Brancheneinnahmen um zwei bis vier Prozent bis 2027 führen könnte. Firmen würden Produkteinführungen verlangsamen, um strengere Sicherheitsauflagen umzusetzen.
Präzedenzfall mit Signalwirkung
Die Ermittlungen in Florida weiten sich aus: Auch eine Doppel-Ermordung an der University of South Florida wird untersucht, bei der ein Verdächtiger ChatGPT zur Beseitigung von Leichen konsultiert haben soll.
Juristen betonen, dass eine strafrechtliche Verurteilung von OpenAI den Nachweis erfordert, dass das Unternehmen wissentlich kriminelle Nutzung in Kauf nahm oder klare Risiken bewusst ignorierte. Zivilprozesse gegen soziale Medien haben gezeigt, dass Geschworene zunehmend bereit sind, Plattformen zur Verantwortung zu ziehen, wenn nachweisbar schädliche Designentscheidungen getroffen wurden.
Der Strafprozess gegen Phoenix Ikner ist für den 19. Oktober 2026 angesetzt. Die Ergebnisse dürften die Grundlage für die Zivilklagen gegen OpenAI bilden.
Ausblick: Neue Regeln für die KI-Branche?
Der Ausgang des Falls könnte die Gesetzgebung in Florida und auf Bundesebene maßgeblich beeinflussen. In Florida wird über eine Sondersitzung diskutiert, um eine geplante KI-Bill of Rights wiederzubeleben. Diese soll klare Grenzen für die Haftung von Entwicklern und die Sicherheit der Nutzer festlegen.
Sollte der Staatsanwaltschaft der Nachweis gelingen, dass OpenAIs Versäumnis, die Anfragen zu melden, ein strafrechtliches Versagen darstellt, könnten weltweit Meldepflichten für KI-Unternehmen eingeführt werden. Die Branche steckt in einer phase höchster Unsicherheit – die ersten strafrechtlichen Vorladungen gegen einen großen KI-Entwickler erzwingen eine grundlegende Debatte über Innovation und öffentliche Sicherheit.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
