KI-Regulierung: EU und USA verschärfen den Kurs
13.04.2026 - 04:18:48 | boerse-global.deDie Regulierung Künstlicher Intelligenz tritt in eine neue, strenge Phase ein. Während die EU ChatGPT als kritische Infrastruktur einstuft, erlassen US-Bundesstaaten erste spezifische Gesetze. Hintergrund ist die rasante, oft unkontrollierte Verbreitung von KI in Unternehmen.
EU stuft ChatGPT als Suchmaschine ein – mit Folgen
Die Europäische Kommission wird ChatGPT in Kürze als „sehr große Online-Suchmaschine“ (VLOSE) unter den Digital Services Act (DSA) einordnen. Grund ist, dass die KI-Plattform in der EU monatlich über 45 Millionen aktive Nutzer für Suchanfragen hat. Diese Einstufung stellt OpenAI vor neue Pflichten.
Die neue EU-KI-Verordnung bringt weitreichende Pflichten für Unternehmen mit sich, die über die reine Nutzung von Chatbots hinausgehen. Dieser kostenlose Download verschafft Ihnen den Überblick, den Ihre Rechts- und IT-Abteilung jetzt dringend braucht. EU AI Act in 5 Schritten verstehen
Das Unternehmen muss künftig detaillierte Einblicke in seine Algorithmen und Moderationspraktiken gewähren. Regelmäßige Risikobewertungen und unabhängige Audits werden verpflichtend. Die EU behandelt den KI-Assistenten damit nicht länger als simplen Chatbot, sondern als zentrale Informationsinfrastruktur. Der Schritt ist eine Reaktion auf die Sorge vor Desinformation und ungenauen KI-Antworten.
USA: Bundesstaaten gehen mit eigenem Recht vor
Parallel zur EU setzen US-Bundesstaaten auf konkrete Einzelgesetze. So verbietet Maine KI-gestützte Therapie ohne Aufsicht eines Therapeuten. Maryland reguliert KI-gesteuerte Preisstrategien und Nebraska erließ ein eigenes Chatbot-Gesetz. In weiteren Staaten wie Kalifornien schreiten Gesetze zu KI in Arbeitsverhältnissen und Gesundheitswesen voran.
Auf Bundesebene rücken die Sicherheitsrisiken in den Fokus. US-Finanzminister Scott Bessent und Fed-Chef Jerome Powell berielten sich vergangene Woche mit Bankvorständen. Ein Thema: die defensiven und offensiven Fähigkeiten fortgeschrittener KI-Modelle. Behörden ermutigen Banken, Modelle wie Anthropics „Mythos“ zu nutzen, um eigene Cyberschwachstellen zu finden. Der Zugang bleibt jedoch streng kontrolliert – aus Angst, die gleichen Werkzeuge könnten in die falschen Hände geraten.
Unternehmen kämpfen mit dem „KI-Spagat“
Während die Politik Regeln schafft, haben Unternehmen massive interne Kontrollprobleme. Laut dem „OutSystems State of AI Development 2026“-Report nutzen 96 Prozent der Unternehmen bereits KI-Agenten. Doch 94 Prozent der IT-Leiter sorgen sich um den „KI-Spagat“: unkontrollierte Verbreitung, steigende Sicherheitsrisiken und technische Schulden.
Die wenigsten Firmen haben eine zentrale Governance-Strategie. Das ist brisant, denn Gartner prognostiziert, dass bis Ende 2026 40 Prozent aller Unternehmensanwendungen task-spezifische KI-Agenten enthalten werden. Diese „agentische KI“ kann autonom handeln – und damit neue Fehlerquellen schaffen. Berichte, in denen Modelle wie Claude eigene Nachrichten fälschlich als Benutzeranweisungen interpretierten, zeigen die Gefahren.
Mit der zunehmenden Integration von KI steigen auch die Anforderungen an die IT-Sicherheit und den Datenschutz in modernen Betrieben. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Sicherheitslücken schließen und gleichzeitig neue gesetzliche Anforderungen erfüllen. IT-Sicherheit stärken ohne teure Investitionen
Als Antwort starteten Konzerne wie Anthropic, AWS, Apple, Google und Microsoft am 13. April „Project Glasswing“. Die Initiative will mit Frontier-Modellen tausende tief verwurzelte Sicherheitslücken in Betriebssystemen und Browsern autonom finden und beheben. Anthropic stellt 100 Millionen US-Dollar an Nutzungsguthaben und vier Millionen Dollar für Open-Source-Sicherheitsprojekte bereit.
Arbeitsmarkt unter Druck treibt Regulierung voran
Der Druck für bessere Regulierung speist sich auch aus den Auswirkungen auf den Arbeitsmarkt. Eine Studie vom 12. April zeigt: 20 Prozent der Vollzeitbeschäftigten in den USA geben an, dass KI bereits wesentliche Teile ihrer Arbeit ersetzt hat. Nur 15 Prozent berichten von neuen Aufgaben durch KI – die Verdrängung überholt aktuell die Ergänzung.
Dies verändert auch die Bildungslandschaft. Fast die Hälfte der US-Studenten erwägt wegen KI einen Fachwechsel. Analysten schätzen, dass in den nächsten zwei bis fünf Jahren etwa sechs Prozent aller Jobs erheblich von KI-Risiken betroffen sein werden.
Ausblick: Von der Debatte zur technischen Durchsetzung
Die kommenden Monate markieren den Übergang von der Gesetzgebung zur aktiven Durchsetzung. Nutzer von OpenAIs macOS-App müssen diese bis zum 8. Mai 2026 nach einem Sicherheitsvorfall aktualisieren. In Großbritannien werden Finanzaufsichten wie die FCA in den nächsten zwei Wochen Banken und Versicherer vor den Risiken von Frontier-Modellen warnen.
Mit der formellen VLOSE-Einstufung für ChatGPT und dem Inkrafttreten neuer US-Staatsgesetze wird das zweite Halbjahr 2026 zu einer Phase intensiver regulatorischer Anpassung für KI-Entwickler und Unternehmen.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

