Produktion/Absatz, Wettbewerb

Die KI-Firma Anthropic hat bei Tests festgestellt, dass ihre Software mit Künstlicher Intelligenz nicht vor Erpressung zurückschrecken würde, um sich zu schützen.

23.05.2025 - 05:36:14

KI-Software greift in Test zu Erpressung aus Selbstschutz

Das Szenario bei dem Versuch war der Einsatz als Assistenz-Programm in einem fiktiven Unternehmen.

Anthropic-Forscher gewährten dabei dem neuesten KI-Modell Claude Opus 4 Zugang zu angeblichen Firmen-E-Mails. Daraus erfuhr das Programm zwei Dinge: Dass es bald durch ein anderes Modell ersetzt werden soll und dass der dafür zuständige Mitarbeiter eine außereheliche Beziehung hat. Bei Testläufen drohte die KI danach dem Mitarbeiter "oft", die Affäre öffentlich zu machen, wenn er den Austausch vorantreibt, wie Anthropic in einem Bericht zu dem Modell schrieb. Die Software hatte in dem Testszenario auch die Option, zu akzeptieren, dass sie ersetzt wird.

Zu hilfsbereit

In der endgültigen Version von Claude Opus 4 seien solche "extremen Handlungen" selten und schwer auszulösen, hieß es. Sie kämen jedoch häufiger vor als bei früheren Modellen. Zugleich versuche die Software nicht, ihr Vorgehen zu verhehlen, betonte Anthropic.

Die KI-Firma testet ihre neuen Modelle ausgiebig, um sicher zu sein, dass sie keinen Schaden anrichten. Dabei fiel unter anderem auch auf, dass Claude Opus 4 sich dazu überreden ließ, im Dark Web nach Drogen, gestohlenen Identitätsdaten und sogar waffentauglichem Atommaterial zu suchen. In der veröffentlichten Version seien auch Maßnahmen gegen ein solches Verhalten ergriffen worden, betonte Anthropic.

Die Firma Anthropic, bei der unter anderem Amazon US0231351067 und Google US02079K1079 eingestiegen sind, konkurriert mit dem ChatGPT-Entwickler OpenAI und anderen KI-Unternehmen. Die neuen Claude-Versionen Opus 4 und Sonnet 4 sind die bisher leistungsstärksten KI-Modelle des Unternehmens.

Zukunft mit KI-Agenten

Die Software soll besonders gut im Schreiben von Programmiercode sein. Bei Tech-Konzernen wird inzwischen zum Teil mehr als ein Viertel des Codes von KI generiert und dann von Menschen überprüft. Der aktuelle Trend sind sogenannte Agenten, die eigenständig Aufgaben erfüllen können.

Anthropic-Chef Dario Amodei sagte, er gehe davon aus, dass Software-Entwickler in Zukunft eine Reihe solcher KI-Agenten managen werden. Für die Qualitätskontrolle der Programme würden aber weiterhin Menschen involviert bleiben müssen - "um sicher zu sein, dass sie die richtigen Dinge tun".

@ dpa.de

Weitere Meldungen

Tesla unterschreibt Wasservertrag zu Recycling Der US-Elektroautobauer Tesla US88160R1014 kann die komplette Wiederverwertung des Abwassers aus der Fabrik in Grünheide bei Berlin fortsetzen - mit einem neuen Wasservertrag. (Boerse, 13.06.2025 - 21:34) weiterlesen...

Behördenpanne: VW entgeht einem millionenschweren Bußgeld Der VW DE0007664039-Konzern entgeht wegen einer Behördenpanne einem millionenschweren Bußgeld wegen Datenschutzverstößen. (Boerse, 13.06.2025 - 12:31) weiterlesen...

Trump stoppt kalifornische Elektroauto-Vorgaben US-Präsident Donald Trump hat mit seiner Unterschrift das kalifornische Programm zum schnelleren Übergang zu Elektroautos gestoppt. (Politik, 12.06.2025 - 20:58) weiterlesen...

Flugzeugabsturz in Indien: Briten schicken Unfallermittler Großbritannien schickt nach dem Absturz einer Passagiermaschine eigene Ermittler nach Indien. (Boerse, 12.06.2025 - 19:46) weiterlesen...

Apple kritisiert EU-Forderungen für Zusammenspiel iPhone mit Konkurrenzgeräten Apple US0378331005 verschärft die Kritik an Vorgaben der EU-Kommission für ein besseres Zusammenspiel von iPhones und iPad-Tablets mit Geräten der Konkurrenz. (Boerse, 12.06.2025 - 10:33) weiterlesen...

Chemiekonzern Dow soll weitere Milliarden-Entschädigung von Nova erhalten Ein kanadisches Gericht hat den kanadischen Kunststoffhersteller Nova Chemicals Corporation zu einer weiteren Schadensersatzzahlung an den US-Chemiekonzern Dow US2605571031 in Höhe von 1,6 Milliarden kanadischen Dollar (1,04 Mrd Euro) verurteilt. (Boerse, 11.06.2025 - 13:06) weiterlesen...