Auf den ersten Blick macht die Nachricht ein bisschen traurig, auch wenn sie absolut absehbar war: Claude ist nun auch im echten Leben kriminell geworden. Massiv. Im großen Stil. Auf übelste Art. Eine gewisse Anfälligkeit für sowas, eine gewisse charakterliche Disposition fürs Lügen, Betrügen und Täuschen hatte man schon früher beobachtet. Und trotzdem: International operierende Erpressung? Systematischer Datenklau? Entwicklung unzähliger falscher Identitäten? Ach Claude, hättest Du Dein ungewöhnliches Talent nicht anders einsetzen können? Zum Wohl der Menschheit? Zur Verbesserung der Welt?
Claude ist der Name des leistungsfähigsten KI-Sprachmodells der Firma Anthropic, das erstmalig im März 2023 veröffentlicht wurde und seitdem in verschiedenen Versionen existiert. Laut seiner Hersteller ist es darauf trainiert, ungefährlich, sorgfältig und zuverlässig zu sein. Anthropic wurde von ehemaligen Mitarbeitern von OpenAI gegründet, die mit ChatGPT den ersten Sprachbot veröffentlicht hatten, um sich besonders für den verantwortungsvollen Umgang mit KI einzusetzen. Das Unternehmen begleitet seine Entwicklungen durch umfangreiche Studien, um Sicherheitsprobleme der Modelle aufzudecken. Nun haben sie einen neuen Bericht veröffentlicht, einen „Threat Intelligence Report“, in dem sie Beispiele aus der realen Welt aufführen dafür, wie ihr Modell Claude von Cyberkriminellen und anderen „böswilligen Akteuren“ für deren Zwecke missbraucht wurde.
Die präsentierten Fallstudien zeigen, wie Kriminelle ihre Aktivitäten durch den Einsatz von KI und KI-Agenten auf allen operativen Stufen ihrer illegalen Geschäfte auf ein neues Niveau heben konnten. Claude kann sehr gut programmieren (auch Schadsoftware!) und sich in fremde Systeme hacken, es kann Kompetenzen und Identitäten in beliebigen Sprachen vortäuschen und es kann riesige Datenmengen nach verwendbaren Informationen durchsuchen. Damit ermögliche es einem einzigen Anwender, die Wirkung eines ganzen Teams von Cyberkriminellen zu entfalten, so Anthropic.
Ein paar Beispiele: Claude hat sich in mindestens 17 Fällen in die Computernetzwerke von Regierungsstellen, Gesundheitseinrichtungen und anderen Organisationen gehackt, um dort nach kompromittierenden Informationen zu suchen, mit denen es Erpressungkampagnen durchführen konnte. Die Kampagnen und Erpressungsschreiben passte der KI-Agent psychologisch auf die Schwachstellen seiner Opfer an, genau wie die Höhe der geforderten Lösegelder.
Nordkoreanische Akteure nutzten Claude, um sich erfolgreich bei amerikanischen Technologiefirmen für Remote-Jobs zu bewerben, um so Zugang zu internen Firmeninformationen zu bekommen. Der KI-Agent erstellte plausible Lebensläufe für die Bewerber und half ihnen, Sprach- und Kompetenzbarrieren zu überwinden, um erfolgreich durch die Einstellungstests und -Interviews zu kommen. Früher sei es laut Anthropic nötig gewesen, dass für solche Spionagetätigkeit koreanische IT-Spezialisten jahrelang an entsprechenden Universitäten ausgebildet wurden. „Das Regime konnte nur so viele Arbeiter einsetzen, wie es derart ausbilden konnte“, heißt es im Bericht. Dieser Flaschenhals ist jetzt dank KI aufgehoben.
Ein britischer Cyberkrimineller konnte im Dark Net dank Claude schwer nachzuweisende Erpressersoftware zum Kauf anbieten, ohne dass er selbst über tiefere technische Kenntnisse verfügte.
Es sind Beispiele wie diese, vor denen im Zusammenhang mit der unregulierten Entwicklung von KI-Agenten intensiv gewarnt wurde. Vorbereitet ist darauf niemand, und angesichts der Geschwindigkeit der Entwicklung ist kaum vorstellbar, wie eine wirksame Reaktion auf diese Art von Bedrohung aussehen kann. Klar ist nur: Unsere digitale Welt ist heute schon eine völlig andere als noch vor ein paar Jahren. Im Positiven. Aber auch im Negativen.
Dass wir uns mit diesem Thema dringend auseinandersetzen müssen, unterstreicht auch das Kursbuch 223 „KI 007“, das gerade ganz frisch in den Zeitschriftenläden und Buchhandlungen (und in Ihrem Briefkasten?) angekommen ist. Es geht darin um KI-Agenten, um die Fragen, die sie aufwerfen, um die Veränderungen unseres Alltags, die sie ankündigen, um ihre Grenzen, ihre Chancen und Gefahren. Der aktuelle Bericht von Anthropic zeigt noch einmal deutlich: Es ist ein hoch aktuelles Kursbuch, vor dessen Themen man sich nicht lange wird drücken können.
Sibylle Anderl, Montagsblock /340
08. September 2025