OpenAI, Druck

OpenAI unter Druck: Kanada will KI-Sicherheit gesetzlich regeln

27.02.2026 - 00:00:45 | boerse-global.de

Nach einem Attentat mit acht Toten prüft Kanada strenge KI-Regeln, da ChatGPT verdächtige Aktivitäten nicht meldete. Die Regierung droht mit gesetzlichen Maßnahmen.

OpenAI unter Druck: Kanada will KI-Sicherheit gesetzlich regeln - Foto: über boerse-global.de
OpenAI unter Druck: Kanada will KI-Sicherheit gesetzlich regeln - Foto: über boerse-global.de

Nach einem Schulmassaker erwägt die kanadische Regierung scharfe Sicherheitsvorschriften für KI-Plattformen. Der Auslöser: Der Betreiber von ChatGPT hatte verdächtige Aktivitäten des Täters nicht an die Behörden gemeldet.

Tragödie von Tumbler Ridge als Weckruf

Am 10. Februar tötete die 18-jährige Jesse Van Rootselaar in Tumbler Ridge, British Columbia, acht Menschen und sich selbst. Ermittlungen zeigten später: Das Konto der Täterin war bereits im Juni des Vorjahres von ChatGPT gesperrt worden. Automatisierte Systeme und menschliche Prüfer hatten Verstöße gegen die Richtlinien festgestellt – die Nutzerin hatte Szenarien von Schusswaffengewalt mit dem Chatbot besprochen.

Anzeige

Während weltweit über die Sicherheit von KI-Systemen debattiert wird, schafft die EU mit neuen Regeln bereits Fakten für alle Anbieter und Nutzer. Dieser kostenlose Leitfaden erklärt kompakt, welche Anforderungen und Fristen Unternehmen jetzt kennen müssen. EU-KI-Verordnung: Kostenloses E-Book sichern

Doch das Unternehmen informierte die Royal Canadian Mounted Police nicht. Die interne Begründung: Die Interaktionen hätten keinen konkreten, unmittelbaren Plan oder ein Ziel genannt. Damit sei die Schwelle für eine Meldung an Strafverfolgungsbehörden nicht erreicht gewesen. Für Minister und Öffentlichkeit ist dies ein fatales Versäumnis.

Notfall-Gipfel in Ottawa bringt keine Lösungen

Als Reaktion lud KI-Minister Evan Solomon die Führungsspitze des Unternehmens am Dienstag zu einem Dringlichkeitstreffen nach Ottawa. Auch die Minister für öffentliche Sicherheit, Justiz und Kultur nahmen teil. Die Enttäuschung der Regierung war groß: Statt konkreter Lösungen und überarbeiteter Sicherheitsprotoke blieben die Vorschläge vage.

Justizminister Sean Fraser forderte die schnelle Umsetzung verbesserter Sicherheitsmaßnahmen. Sollten die Änderungen nicht freiwillig erfolgen, sei die Regierung bereit, sie gesetzlich durchzusetzen. Der Premier von British Columbia, David Eby, äußerte zudem die Überzeugung, die Tragödie hätte verhindert werden können, wenn das Unternehmen seine Erkenntnisse früher geteilt hätte.

Gesetzliche Lücke: Kanada hat keine verbindliche KI-Regulierung

Die Ereignisse offenbaren ein massives regulatorisches Vakuum. Kanada verfügt derzeit über keine bindenden Bundesvorschriften speziell für künstliche Intelligenz. Ein früherer Gesetzentwurf, der Artificial Intelligence and Data Act, scheiterte 2025 nach der Parlamentsauflösung. Aktuell stützt sich das Land auf freiwillige Verhaltenskodizes ohne rechtliche Durchsetzungsmechanismen.

Rechtsexperten kritisieren diesen Zustand scharf. Privatunternehmen müssten so klinische Risikobewertungen ohne staatliche Leitlinien vornehmen. Zudem erlaubt die bestehende Datenschutzgesetzgebung die Weitergabe personenbezogener Daten an Behörden nur im Ermessen der Firmen – eine Pflicht besteht nicht. Unternehmen drohen keine Konsequenzen, wenn sie Informationen über potenzielle Gefahren zurückhalten.

Anzeige

Nicht nur die KI-Regulierung, sondern auch die allgemeine IT-Sicherheit stellt Unternehmen vor immer neue gesetzliche Herausforderungen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Organisation proaktiv schützen und neue Sicherheits-Standards effizient umsetzen. Gratis Cyber-Security-Leitfaden herunterladen

Spagat zwischen Sicherheit und Privatsphäre

Die Regierung von Premierminister Mark Carney steht vor einer komplexen Aufgabe: Wie lassen sich öffentliche Sicherheit und Privatsphäre der Nutzer in Einklang bringen? KI-Chatbots werden oft als private Vertraute behandelt, bei denen intime Details über die psychische Gesundheit preisgegeben werden.

Bürgerrechtler warnen vor den Gefahren einer zu niedrigen Meldeschwelle. Michael Geist, Juraprofessor an der Universität Ottawa, befürchtet eine Flut falscher Positivmeldungen und neue Privatsphärenverletzungen für normale Nutzer. Auch Psychologen sorgen sich, dass eine zu aggressive Überwachung vulnerable Personen davon abhalten könnte, Hilfe zu suchen. Die Minister konzentrieren sich daher darauf, branchenweit einheitliche Eskalationsschwellen zu definieren.

Warten auf die KI-Strategie – oder Gesetze per Zwang

Die kommenden Wochen werden für die kanadische Digitalpolitik entscheidend sein. Das betroffene Unternehmen hat zugesagt, bald mit überarbeiteten Vorschlägen zurückzukehren. Doch die Geduld der Regierung schwindet.

Die Bundesregierung finalisiert derzeit eine neue KI-Strategie, die im ersten Quartal dieses Jahres vorgestellt werden soll. Wurde früher der wirtschaftliche Nutzen der Technologie betont, hat das Attentat die politische Rechnung verändert. Sollten die Vorschläge der Branche die Minister nicht überzeugen, rechnen Experten mit der schnellen Einführung scharfer Gesetze. Diese sollen Transparenz erzwingen, strikte Meldeschwellen festlegen und KI-Entwickler für reale Schäden haftbar machen.

Hol dir jetzt den Wissensvorsprung der Aktien-Profis.

 <b>Hol dir jetzt den Wissensvorsprung der Aktien-Profis.</b>

Seit 2005 liefert der Börsenbrief trading-notes verlässliche Aktien-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt abonnieren.

boerse | 68616024 |