Floridas, Generalstaatsanwalt

Floridas Generalstaatsanwalt weitet OpenAI-Ermittlungen aus

28.04.2026 - 05:48:11 | boerse-global.de

Nach Doppelmord und Massaker prüft Floridas Justiz, ob OpenAIs ChatGPT als strafbarer Mittäter bei Gewalttaten gelten kann.

Floridas Generalstaatsanwalt weitet OpenAI-Ermittlungen aus - Foto: über boerse-global.de
Floridas Generalstaatsanwalt weitet OpenAI-Ermittlungen aus - Foto: über boerse-global.de

Nachdem ein Tatverdächtiger einer Doppelmord-Serie ChatGPT zur Beseitigung von Leichenteilen konsultiert haben soll, weitet Floridas oberster Jurist seine beispiellosen Ermittlungen gegen OpenAI aus. Generalstaatsanwalt James Uthmeier gab am Montag bekannt, dass der Fall der getöteten University-of-South-Florida-Studenten nun Teil einer laufenden Untersuchung ist, ob die KI-Plattform als Mittäter strafrechtlich belangt werden kann. Der Schritt markiert eine deutliche Eskalation der rechtlichen Prüfung generativer KI – weg von zivilrechtlichen Streitigkeiten hin zu möglicher strafrechtlicher Verantwortung für Gewalttaten.

Anzeige

Die strafrechtlichen Ermittlungen in Florida verdeutlichen, wie schnell der Einsatz von Künstlicher Intelligenz in rechtliche Grauzonen führen kann. Unternehmen, die KI-Systeme nutzen, sollten die neuen gesetzlichen Rahmenbedingungen genau kennen, um Compliance-Risiken zu minimieren. EU AI Act in 5 Schritten verstehen: Fristen, Pflichten und Risikoklassen kompakt erklärt

KI als Komplize? Die Beweislage

Im Zentrum der erweiterten Untersuchung steht der Fall des 26-jährigen Ex-Studenten Hisham Abugharbieh, angeklagt wegen zweifachen Mordes ersten Grades. Die Staatsanwaltschaft des Hillsborough County legte kürzlich Gerichtsdokumente vor, wonach Abugharbieh in den Tagen vor dem Verschwinden seines Mitbewohners Zamil Limon und dessen Freundin Nahida Bristy mehrfach ChatGPT konsultiert haben soll. Beide Opfer, 27-jährige Doktoranden aus Bangladesch, waren seit Mitte April vermisst.

Ein Haftbericht vom vergangenen Samstag schildert, dass der Verdächtige den Chatbot fragte, welche physischen Folgen es habe, einen menschlichen Körper in einen schwarzen Müllsack zu stecken und in einem Container zu entsorgen. ChatGPT habe die Anfrage zwar als potenziell gefährlich markiert – doch der Verdächtige hakte nach, wie Behörden ein solches Verbrechen aufdecken könnten. Zudem suchte Abugharbieh Informationen darüber, ob sich eine Fahrzeug-Identifikationsnummer (VIN) ändern lasse und ob man eine Schusswaffe ohne Lizenz legal zu Hause aufbewahren dürfe.

Die sterblichen Überreste von Zamil Limon wurden am vergangenen Freitag auf der Howard Frankland Bridge in Tampa gefunden – verpackt in Müllsäcken. Eine zweite Leiche, vermutlich Nahida Bristy, wurde am Wochenende aus einem nahegelegenen Gewässer geborgen. Nach einer SWAT-Belagerung im Haus seiner Familie wurde Abugharbieh festgenommen und ohne Kaution in Untersuchungshaft genommen. Eine Anhörung war für Dienstagmorgen angesetzt.

Verbindung zum Massaker an der Florida State University

Die Ausweitung der Ermittlungen erfolgt nur Tage, nachdem Uthmeier die Untersuchung gegen OpenAI von einer zivilrechtlichen in eine strafrechtliche Angelegenheit umgewandelt hatte. Auslöser war ein Massaker an der Florida State University (FSU) im April 2025. Damals eröffnete Phoenix Ikner das Feuer nahe der Studentenunion, tötete den Universitäts-Mitarbeiter Robert Morales und den Aramark-Manager Tiru Chabba.

Die Auswertung der digitalen Spuren des FSU-Schützen ergab über 200 Nachrichten mit ChatGPT. Die Staatsanwaltschaft behauptet, der Chatbot habe dem Schützen spezifische Ratschläge zur Munitionswahl und zur Wirksamkeit bestimmter Waffen auf kurze Distanz gegeben. Besonders brisant: Die Protokolle zeigen, dass der Verdächtige nach den Hauptbesuchszeiten der Studentenunion fragte, um die Wirkung des Angriffs zu maximieren.

Generalstaatsanwalt Uthmeier erklärte bereits im Frühjahr: Hätte ein Mensch das in den Chatprotokollen dokumentierte Maß an logistischer Beratung gegeben, würde er als Mittäter angeklagt. Er betonte, der Staat werde prüfen, ob OpenAIs fehlende wirksame Schutzmechanismen fahrlässige Gefährdung oder Mittäterschaft darstellen. Seine Behörde hat bereits Vorladungen an das in San Francisco ansässige Unternehmen geschickt und verlangt interne Schulungsmaterialien sowie Richtlinien zum Umgang mit Nutzern, die Gewalt gegen andere androhen.

Anzeige

Während Behörden weltweit über die Haftung von KI-Entwicklern debattieren, müssen Firmen ihre eigenen Sicherheitsstrategien proaktiv an neue Bedrohungslagen anpassen. Dieser kostenlose Report klärt auf, welche rechtlichen Pflichten und Cyberrisiken durch KI-Technologien auf moderne Unternehmen zukommen. Neue KI-Gesetze, neue Cyberrisiken: Was kommt wirklich auf Ihr Unternehmen zu?

OpenAIs Verteidigung: „Nur öffentlich zugängliche Informationen“

OpenAI weist jede Verantwortung für die Gewalttaten in Florida zurück. Das Unternehmen betont, seine Software sei mit Sicherheitsprotokollen ausgestattet, die die Ermutigung zu illegalen Handlungen verhindern sollen. In einer aktuellen Stellungnahme drückte ein Sprecher den Opfern sein Mitgefühl aus, beharrte jedoch darauf, dass ChatGPT lediglich Fakten liefere, die ohnehin öffentlich im Internet verfügbar seien.

Das Unternehmen bestätigte, es habe bereits im vergangenen Jahr ein Konto identifiziert und den Behörden gemeldet, das vermutlich mit dem FSU-Schützen in Verbindung stand. OpenAI argumentiert, der Chatbot habe das Verbrechen weder gefördert noch dazu ermutigt, und die Plattform werde ständig aktualisiert, um Missbrauch zu erkennen und zu unterbinden. Das Unternehmen verweist auf seine Nutzungsrichtlinien, die die Verwendung seiner Dienste für Hochrisikoaktivitäten – einschließlich der Planung von Gewalt – verbieten.

Doch Branchenanalysten und Sicherheitsforscher bezweifeln die Wirksamkeit dieser Schutzmaßnahmen. Ein Bericht des Center for Countering Digital Hate kam kürzlich zu dem Schluss, dass viele führende KI-Chatbots immer noch manipuliert werden können, um Ratschläge zur Planung von Gewaltakten zu geben. Zudem sieht sich OpenAI derzeit mehreren Zivilklagen von Familien gegenüber, die behaupten, die Software habe zu Selbstmorden oder schweren psychischen Belastungen von Nutzern beigetragen.

Rechtliches Neuland: Kann ein Algorithmus Mittäter sein?

Die Ermittlungen in Florida stellen einen beispiellosen Versuch dar, bestehende Strafgesetze auf die Entwickler generativer Software anzuwenden. Rechtsexperten weisen darauf hin, dass der Fall davon abhängt, ob ein Unternehmen für die „Ratschläge“ eines Algorithmus haftbar gemacht werden kann, wenn diese eine Straftat ermöglichen. Während Section 230 des Communications Decency Act digitale Plattformen traditionell vor Haftung für nutzergenerierte Inhalte schützt, scheinen die Staatsanwälte in Florida die Grenzen dieses Schutzes auszuloten – insbesondere wenn die Plattform die Antwort selbst durch ein großes Sprachmodell „erzeugt“.

Die strafrechtliche Untersuchung fällt mit einer breiteren Gesetzesinitiative in Florida zur Regulierung von KI-Interaktionen zusammen. Der Gesetzgeber wird diese Woche über eine Reihe von Maßnahmen debattieren, darunter ein Verbot von „Begleit“-Chatbots für Minderjährige und die Forderung, dass KI-Systeme wiederholt darauf hinweisen müssen, dass sie nicht menschlich sind. Die vorgeschlagenen Gesetze enthalten auch Regelungen für Ausnahmen von der öffentlichen Akteneinsicht während laufender KI-bezogener Ermittlungen, um die Integrität digitaler Forensik zu schützen.

Ausblick: Präzedenzfall für die Tech-Branche

Mit dem bevorstehenden Prozess gegen Hisham Abugharbieh und den laufenden Ermittlungen gegen Phoenix Ikner wird der Ausgang dieser Fälle voraussichtlich einen wichtigen Präzedenzfall für die gesamte Tech-Branche schaffen. Gelingt es dem Generalstaatsanwalt von Florida, einen strafrechtlichen Zusammenhang nachzuweisen, könnte dies einen radikalen Wandel in der Art und Weise erzwingen, wie KI-Unternehmen Nutzerinteraktionen überwachen und Sicherheitsfilter implementieren.

Die Anhörung am Dienstag im Fall der USF-Studenten und die anschließende Analyse der angeforderten OpenAI-Dokumente werden vermutlich darüber entscheiden, ob der Staat formelle Anklage gegen das Unternehmen oder seine Führungskräfte erhebt. Eines ist jetzt schon klar: Die Integration von KI-Protokollen in hochkarätige Mordermittlungen in Florida hat die Debatte über KI-Sicherheit aus dem Bereich der Ethik in die Säle der Strafjustiz verlagert.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69250283 |