Erster bestätigter KI-gebauer Zero-Day: Kriminelle nutzen LLMs für Schwachstellenjagd
Googles Threat Intelligence Group (GTIG) meldet den ersten dokumentierten Fall eines KI-generierten Zero-Day-Exploits im Einsatz durch Kriminelle
Die Lücke war ein 2FA-Bypass in einer populären Open-Source-Webverwaltungsplattform - der Angriff wurde gestoppt, bevor er richtig anlaufen konnte
Der Exploit-Code enthielt klassische KI-Fingerabdrücke: halluzinierte CVSS-Scores, "educational docstrings" und überdeutlich strukturierten Lehrbuchwcode
Nordkorea, China und Russland nutzen KI laut GTIG bereits aktiv für Angriffe - aber kriminelle Gruppen ziehen schnell nach
Wie der Angriff funktionierte - und warum er scheiterte
Die Lücke selbst war kein Hexenwerk. Entwickler hatten eine feste Ausnahme hart in den Authentifizierungsfluss kodiert, die 2FA-Checks unter bestimmten Bedingungen einfach überging. Genau solche logischen Fehler auf höherer Abstraktionsebene sind es, die klassische Sicherheitswerkzeuge wie Fuzzer gerne übersehen.
Google beschreibt das treffend:
"Während Fuzzer und statische Analysetools auf Abstürze und konkrete Schwachstellenstellen optimiert sind, sind frontier-LLMs besonders gut darin, diese Art von high-level-Logikfehlern und hart kodierten Anomalien zu finden."
Die KI hat die Lücke also nicht nur gefunden, sondern offenbar auch direkt einen funktionierenden Python-Exploit gebaut. Dass der Angriff trotzdem ins Stocken geriet, lag laut Google an Implementierungsfehlern im generierten Code selbst - das Tool hat quasi seinen eigenen Exploit verhunzt.
GTIG-Chefanalyst John Hultquist bringt es ohne Umschweife auf den Punkt:
"Es gibt das Missverständnis, dass das KI-Schwachstellen-Wettrennen erst bevorsteht. Die Realität ist, dass es bereits begonnen hat. Für jeden Zero-Day, den wir auf KI zurückführen können, gibt es wahrscheinlich viele weitere."
Nordkorea, China, Russland - und jetzt auch die Crimeware-Szene
Staatliche Akteure sind laut GTIG schon länger dabei. Nordkoreas APT45 setzt KI ein, um tausende Exploit-Checks automatisiert durchzurattern und sein Toolkit aufzufetten. Chinesische Gruppen experimentieren mit KI-gestützter Schwachstellensuche und automatisiertem Target-Probing.
Russische Operationen gehen in eine andere Richtung: Sie nutzen KI, um Fake-Audio in legitimes Nachrichtenmaterial einzubauen - Informationsoperationen auf Autopilot. Dazu kommen Android-Backdoors, die über Gemini-APIs infizierte Geräte eigenständig navigieren.
Das sollte auch dich als Spieler nicht kalt lassen. Gaming-Plattformen, Launcher und Community-Tools sind beliebte Angriffsziele - ein automatisierter KI-Exploit-Generator, der 2FA-Bypasses in Webportalen sucht, macht auch vor Steam-ähnlichen Systemen nicht halt. Dazu passt auch, was wir kürzlich über chinesische Hacker und gefälschte KI-Repos auf Hugging Face berichtet haben.
Google hat den betroffenen Anbieter kontaktiert, der Patch ist still und heimlich raus. Wie viele ähnliche Kampagnen gerade laufen, ohne dass jemand es bemerkt - das ist die eigentlich unangenehme Frage. Hultquist sagt dazu nur: "Wahrscheinlich viele mehr."
Wer sich fragt, warum KI-Sicherheit nicht nur ein Unternehmensthema ist, sollte auch unseren Artikel zu unkontrollierter KI-Nutzung im Unternehmensumfeld lesen - die Angriffsfläche wächst von beiden Seiten.
Quelle(n)
Alter, das ist ja wild. KI-generierte Zero-Days sind das nächste Level der Bedrohungslandschaft und ich hätte nicht gedacht, dass wir diesen Punkt schon so schnell erreichen. Google hat da echt Glück gehabt, dass sie das Zeitfenster noch geschlossen bekommen haben, bevor der Exploit in die Wildbahn ging.
Das Problem ist aber, dass die Patch-Zyklen jetzt noch kritischer werden und selbst die besten Sicherheitsarchitekturen unter Druck geraten. Wenn KI-Modelle systematisch nach Vulnerabilities scannen können und diese in produktionsreife Exploits umwandeln, müssen wir unsere gesamte Defensive überdenken.