OpenAI, Zweiter

OpenAI: Zweiter Chatbot-Account von Attentäterin übersah KI-Konzern

27.02.2026 - 08:09:58 | boerse-global.de

OpenAI gesteht ein, dass ein zweiter ChatGPT-Account eine frühere Sperre umging. Das Systemversagen trug zu einem tödlichen Anschlag bei und löst umfassende Sicherheitsreformen aus.

OpenAI: Zweiter Chatbot-Account von Attentäterin übersah KI-Konzern - Foto: über boerse-global.de
OpenAI: Zweiter Chatbot-Account von Attentäterin übersah KI-Konzern - Foto: über boerse-global.de

Ein zweiter, unentdeckter ChatGPT-Account ermöglichte der Attentäterin von Tumbler Ridge, eine frühere Sperre zu umgehen. Dieses gravierende Sicherheitsversäumnis gab OpenAI jetzt in einem Schreiben an die kanadische Regierung zu. Der Fall erhöht den Druck auf den KI-Konzern, seine Sicherheitsprotokolle grundlegend zu reformieren.

Anzeige

Der Fall OpenAI verdeutlicht, wie kritisch die regulatorische Überwachung von KI-Systemen geworden ist – auch für europäische Akteure gelten hier seit kurzem strikte Regeln. Dieser kostenlose Leitfaden fasst die Anforderungen der neuen EU-KI-Verordnung kompakt zusammen und hilft Unternehmen bei der rechtssicheren Umsetzung. EU-KI-Verordnung kompakt: Jetzt kostenloses E-Book sichern

Systemversagen mit tödlichen Folgen

OpenAI räumt ein, den zweiten Account der Schützin Jesse Van Rootselaar erst identifiziert zu haben, nachdem die kanadische Polizei ihren Namen nach der Tat veröffentlichte. Am 10. Februar hatte die Frau in Tumbler Ridge, British Columbia, acht Menschen getötet, bevor sie sich selbst richtete.

Bereits im Juni 2025 hatte OpenAI einen ersten Account von Van Rootselaar gesperrt. Grund waren schwere Verstöße gegen die Richtlinien zu Gewaltinhalten. Doch die Systeme des Unternehmens erkannten nicht, dass dieselbe Person unter einem neuen Account weiter aktiv war. Diese Lücke im Ban-Evasion-System gilt als kritisches Versagen.

„Das unterstreicht eine kritische Lücke in unserer Fähigkeit, Sperren bei Hochrisiko-Nutzern durchzusetzen“, schreibt Ann O'Leary, Vizepräsidentin für globale Politik bei OpenAI, an den kanadischen KI-Minister Evan Solomon. Die Entscheidung aus dem Jahr 2025, die Aktivitäten nicht an Strafverfolgungsbehörden zu melden, wird nun intern und behördlich überprüft.

KI-Konzern verspricht umfassende Reformen

Unter massivem Druck kündigt OpenAI nun sofortige Maßnahmen an. Das Unternehmen will seine Erkennungssysteme verstärken, um die Umgehung von Sperren effektiver zu verhindern. Die automatisierten Schwellenwerte zur Identifizierung gefährlicher Inhalte sollen regelmäßig überprüft werden.

Ein zentraler Punkt: die Zusammenarbeit mit Behörden. OpenAI will einen direkten Ansprechpartner für kanadische Strafverfolgungsbehörden einrichten. Unter den neuen, verschärften Meldeprotokollen würden die Aktivitäten vom Juni 2025 heute sofort an die Polizei gemeldet werden – ein deutliches Absenken der Meldeschwelle.

Kanadische Politiker fordern Konsequenzen

Die Reaktion aus der Politik fällt scharf aus. KI-Minister Evan Solomon zeigte sich „zutiefst enttäuscht“ vom Umgang OpenAIs mit der Situation vor der Tat. Die Regierung erwarte konkrete Vorschläge für Veränderungen. Alle Optionen, einschließlich neuer Gesetze, würden geprüft, um Online-Gefahren zu bekämpfen.

Der Premier von British Columbia, David Eby, nannte die Zusicherungen des Unternehmens einen „schwachen Trost“ für die Angehörigen der Opfer. Eby hat ein Treffen mit OpenAI-CEO Sam Altman vereinbart, um die Versäumnisse direkt zu besprechen. Die Botschaft ist klar: Die Selbstregulierung der KI-Konzerne reicht nicht aus.

Anzeige

Während die Politik weltweit über schärfere Gesetze für KI-Anbieter debattiert, müssen Unternehmen bereits heute neue Compliance-Vorgaben zum Schutz vor digitalen Risiken beachten. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Sicherheit an aktuelle Gesetze und Bedrohungslagen anpassen. Experten-Bericht zu Cyber Security Trends kostenlos herunterladen

Globale Debatte über KI-Sicherheit entfacht

Die Tragödie von Tumbler Ridge hat eine internationale Debatte über die ethische und rechtliche Warnpflicht von KI-Plattformbetreibern entfacht. Während soziale Medien seit Jahren mit Inhaltekontrolle kämpfen, bringen generative KI-Modelle neue Komplexitäten bei der Identifizierung von Bedrohungen mit sich.

Experten gehen davon aus, dass dieser Fall den Druck auf regulatorische Rahmenwerke erhöhen wird. Diese müssen die Verantwortung von KI-Unternehmen bei der Überwachung und Meldung gefährlicher Nutzeraktivitäten klar definieren. Die große Herausforderung bleibt der Ausgleich zwischen Nutzerprivatsphäre und öffentlicher Sicherheit – eine Balance, die OpenAI in diesem Fall nach Ansicht von Kritikern nicht gefunden hat.

Die versprochenen Reformen von OpenAI stehen nun auf dem Prüfstand. Sollten die Änderungen nicht schnell und wirksam umgesetzt werden, droht gesetzgeberischer Druck. Der Vorfall ist eine düstere Mahnung an die gesamte Branche: KI-Sicherheitslücken können reale, tödliche Konsequenzen haben.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen - Dreimal die Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt kostenlos anmelden
Jetzt abonnieren.

boerse | 68617189 |