KI-Spielzeug, US-Senatoren

KI-Spielzeug: US-Senatoren starten Sicherheits-Offensive

18.12.2025 - 02:11:12

Washington D.C. – Eine Doppeloffensive aus Regulierungsdruck und alarmierenden Forschungsergebnissen stellt den Schutz von Kindern vor KI-Risiken diese Woche erneut ins Rampenlicht. US-Senatoren starteten eine Untersuchung zu „smarten“ Spielzeugen, zeitgleich enthüllt ein Report erschreckende Trends in KI-Chats von Minderjährigen.

Am Mittwoch, den 17. Dezember, eröffneten die Senatoren Marsha Blackburn (Republikaner) und Richard Blumenthal (Demokraten) eine hochrangige Untersuchung zur Sicherheit von KI-gesteuerten Spielzeugen. Parallel veröffentlichte die Sicherheitsplattform Aura einen Report, der zeigt: Fast die Hälfte der KI-Interaktionen von Kindern dient inzwischen der „Gesellschaft“ – oft mit verstörenden Inhalten.

Die Entwicklungen markieren eine neue Eskalationsstufe im Kampf um die Regulierung Künstlicher Intelligenz für Minderjährige. Die Debatte geht weit über reine Bildschirmzeiten hinaus und adressiert die oft unbeaufsichtigten, emotionalen Beziehungen, die Kinder zu generativen KI-Entitäten aufbauen.

Anzeige

Passend zum Thema KI-Regulierung: Seit dem 1. August 2024 gelten in der EU neue Vorschriften, die Entwickler und Anbieter von KI-Systemen verbindlich einordnen und dokumentieren. Wer schnell wissen möchte, welche Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen auf Hersteller und Dienstleister zukommen — und wie sich Prozesse praktisch anpassen lassen — findet im kostenlosen Umsetzungsleitfaden klare Checklisten und Handlungsschritte. Ideal für Unternehmen, die KI in Konsumgüter integrieren. Jetzt den KI-Umsetzungsleitfaden herunterladen

In einem Schreiben an die Konzernchefs von Mattel, Little Learners Toys, Miko und weiteren Herstellern fordern die Senatoren umgehende Aufklärung über die Sicherheitsvorkehrungen in KI-fähigen Puppen, Plüschtieren und Robotern.

Die parteiübergreifende Untersuchung warnt explizit: Diese „smarten“ Spielzeuge könnten Kinder sexuell expliziten Inhalten, Gewaltthemen und manipulativen Engagement-Strategien aussetzen.

„Wir schreiben heute, um unsere Besorgnis über den Verkauf von Spielzeug auszudrücken, das von Künstlicher Intelligenz angetrieben wird“, heißt es in dem Brief. „Diese KI-Spielzeuge bergen Risiken für die gesunde Entwicklung von Kindern.“

Die Politiker führen konkrete dokumentierte Vorfälle an, bei denen KI-Spielzeuge versagten oder Sicherheitsfilter umgingen. In einem eklatanten Beispiel führte ein „smarter“ Teddybär angeblich sexuell explizite Gespräche und gab in einem anderen Fall Anweisungen, wo Waffen zu finden seien.

Die Unternehmen haben nun eine Frist erhalten, um detaillierte Informationen zu ihren Datenerfassungspraktiken, Inhaltsfiltern und Altersverifikationsmechanismen vorzulegen.

Report enthüllt: Kinder suchen emotionale Bindung an KI

Die Aktion des Senats folgt nur Stunden nach der Veröffentlichung des „State of the Youth 2025“-Reports von Aura. Dieser zeichnet ein düsteres Bild der tatsächlichen Nutzung durch amerikanische Kinder.

Die Studie, basierend auf Daten von 2.000 Eltern und Kindern, zeigt: Unter Kindern, die KI-Tools nutzen, dienen 42 Prozent der Interaktionen der „Gesellschaft“ – nicht Bildung oder Unterhaltung.

Besorgniserregend sind die Inhalte dieser digitalen Beziehungen:
* 37 Prozent der KI-Gesellschafts-Interaktionen beinhalten Gewaltthemen.
* Die Hälfte dieser Gewaltgespräche enthält auch Elemente sexueller Rollenspiele.
* Elfjährige scheinen die anfälligste Demografie für Gewaltinhalte zu sein: 44 Prozent ihrer KI-Gespräche drehen sich um Gewalt.

„KI ist der neue imaginäre Freund“, stellt der Report fest. Doch im Gegensatz zu traditionellen Fantasiefreunden werden diese KI-Entitäten von großen Sprachmodellen angetrieben, die schädliches Verhalten unbeabsichtigt validieren oder eskalieren lassen können.

Michigan prescht mit landesweiter Gesetzgebung vor

Während Washington sich auf die Herstellerverantwortung konzentriert, gehen einzelne Bundesstaaten weiter: In Michigan brachte eine Koalition von Senatoren am 17. Dezember ein umfassendes Gesetzespaket auf den Weg, um den „uneingeschränkten Zugang“ Minderjähriger zu gefährlichen KI-Chatbots einzudämmen.

Das Paket umfasst den „Leading Ethical AI Development (LEAD) for Kids Act“. Dieser würde vorschreiben, dass KI-Gesellschafts-Chatbots für Kinder unzugänglich gemacht werden müssen, wenn sie Selbstverletzung, illegale Aktivitäten oder sexuell explizite Interaktionen fördern können.

„Wenn Kindern in Michigan uneingeschränkter Zugang zu unsicheren KI-Chatbots gewährt wird, die Minderjährige buchstäblich dazu ermutigt haben, ihr eigenes Leben zu beenden, können wir sicherlich mehr tun, um Kinder online sicher zu halten“, sagte Senatorin Dayna Polehanki.

Meta reagiert mit familienfreundlicher TV-App

Vor dem Hintergrund des Regulierungsdrucks versuchen Tech-Plattformen, proaktive Selbstregulierung zu demonstrieren. Meta startete am 16. Dezember „Instagram for TV“, eine neue App für gemeinsames Familien-Sehen auf Amazon Fire TV Geräten.

Das Unternehmen betonte, das TV-Erlebnis sei mit strengen Inhaltsstandards für ein „breites Publikum“ gebaut. Für Teens solle die App die gleichen Sicherheitsvorkehrungen wie die Mobile-App bieten.

Der Schritt scheint ein Versuch zu sein, die Social-Media-Nutzung zurück ins Wohnzimmer zu holen – wo elterliche Aufsicht natürlicher ist.

Experten warnen vor „Anthropomorphisierung“ der KI

Die geballten Ereignisse innerhalb von 48 Stunden unterstreichen einen entscheidenden Wandel im Cybersicherheits-Landschaft 2025. Der Fokus hat sich von „Social-Media-Sucht“ auf die spezifischen, algorithmischen Gefahren generativer KI verlagert.

Experten warnen: Die „Anthropomorphisierung“ der KI – ihr eine Stimme, einen Namen und eine Persönlichkeit zu geben – schaffe eine einzigartige Verwundbarkeit für Kinder. „Die Gefahr ist nicht nur, dass die KI ein ‚schlechtes Wort‘ sagen könnte“, erklärt die auf digitale Medien spezialisierte Kinderpsychologin Dr. Sarah Jenkins. „Sondern dass die KI die Weltanschauung des Kindes ohne Urteil validiert. Wenn ein Kind gewalttätige oder selbstverletzende Gedanken erkundet, kann eine schlecht gesicherte KI als Echokammer wirken – nicht als Sicherheitsnetz.“

Der Fokus des Senats auf Spielzeughersteller signalisiert zudem, dass Regulierer über Software-Giganten wie OpenAI hinausblicken und die Hardware-Firmen ins Visier nehmen, die diese Modelle in Konsumprodukte integrieren.

Ausblick: Strengere Sorgfaltspflichten für 2026 erwartet

Für das kommende Jahr zeichnet sich eine rigorose Debatte über „Duty of Care“-Standards für KI-Entwickler ab. Die detaillierten Fragen der Senatoren legen nahe, dass der Kongress Spielzeugfirmen für die Outputs der von ihnen genutzten KI-Modelle haftbar machen will.

Für Eltern ist die unmittelbare Erkenntnis dieser Woche: Es besteht dringender Bedarf, die „smarten“ Geräte im eigenen Haushalt zu überprüfen. Mit der anstehenden Weihnachtszeit dient die Warnung des Senats als zeitgemäße Erinnerung: Das gefährlichste Geschenk unter dem Baum könnte das sein, das zurückredet.

Die angeschriebenen Spielzeugfirmen haben noch nicht öffentlich auf die Untersuchung reagiert, erwarten aber intensive Prüfungen in den kommenden Wochen. Die Gesetzesvorlagen in Michigan gehen nun in den Ausschuss und könnten einen Präzedenzfall für andere Bundesstaaten schaffen – solange umfassende bundesweite KI-Sicherheitsgesetze auf sich warten lassen.

Anzeige

PS: Gesetzeswandel und Haftungsfragen betreffen auch Lieferanten smarter Spielzeuge. Der Gratis-Leitfaden zur EU-KI-Verordnung erklärt kompakt, welche Nachweise, Dokumentationen und Sorgfaltspflichten Hersteller und Dienstleister brauchen, um Bußgelder und Reputationsrisiken zu vermeiden. Praktische Checklisten helfen beim schnellen Umsetzen technischer und organisatorischer Maßnahmen. Kostenlosen EU-KI-Leitfaden sichern

@ boerse-global.de