Die Google-Threat-Intelligence-Group (GTIG) deckte am 11. Mai den ersten Zero-Day-Exploit auf, der „mithilfe eines KI-Modells“ erstellt wurde: Eine Hackergruppe plant, gegen ein beliebtes Open-Source-Webbasiertes Systemverwaltungstool in großem Maßstab vorzugehen. Ziel ist es, die Zwei-Faktor-Authentifizierung (2FA) des Tools beim Login zu umgehen. Laut CNBC arbeitet Google vor dem offiziellen Start des Angriffs mit dem Anbieter des Tools zusammen, um die Sicherheitslücke zu beheben.
Der Vorfall selbst: Wie ein Zero-Day von KI „hergestellt“ wird
Nachdem GTIG die von den Angreifern hinterlassene Python-Exploit-Skripteranalyse vorgenommen hatte, habe man sich „sehr sicher“ gewesen, dass das Skript von einem KI-Modell unterstützt beim Generieren entstanden sei. Als Grundlage dienten mehrere LLM-typische Merkmale im Skript:
Viele lehrbuchartige docstrings und Kommentare (im Gegensatz zum sonst eher knappen Code-Stil echter Hacker)
Enthält „halluzinatorische“ CVSS-Bewertungen (eine gängige Erfindungsneigung von KI-Modellen)
Strukturierte, lehrbuchmäßige Python-Programmierung mit detailliertem Erklär- und Auswahlmenü
Saubere Vorlagen-Spuren wie die _C ANSI-Farbklassen, die „typisch“ für LLM-Trainingsdaten sind
Die Schwachstelle selbst ist ein „logischer Fehler auf hoher Ebene“ und geht auf eine hart kodierte Vertrauensannahme (hard-coded trust assumption) zurück – Google beschreibt dies als genau die Art von Schwachstellen, die LLMs bei der Programm-Analyse am besten herausarbeiten können. Der konkrete Angriffsweg: Nachdem Hacker die legitimen Konto- und Zugangsdaten der Opfer erlangt haben, umgehen sie die 2FA direkt über die Sicherheitslücke und melden sich an.
Googles Reaktion: Stille Behebung durch den Anbieter, Angriff startet nicht offiziell
Google hat keine Namen des betroffenen Open-Source-Systemsverwaltungstools veröffentlicht und auch keine KI-Modell-Anbieterdaten genannt. GTIG habe nach der Entdeckung mit dem Wartungsanbieter des Tools das „verantwortungsvolle Offenlegungs“-Verfahren koordiniert, die Sicherheitslücke im Stillen behoben und bewertet, dass dieses Vorgehen die Dynamik des Handelns bereits vor einem offiziellen Start der Hackergruppe für einen groß angelegten Exploit-Versuch gebrochen haben könnte.
Google hat auch den Angreifer nicht konkret benannt – lediglich als „Cybercrime Threat Actor“ beschrieben, ohne Hinweise auf eine staatliche Akteursrolle.
Bedeutung für die Branche: KI x Cybersicherheit tritt in eine neue Phase ein
Beobachtung des Mediums: Dies ist der erste öffentlich dokumentierte Fall, in dem Google „AI-Modelle in freier Wildbahn“ als Waffe einsetzt, um Programmcode zur Schwachstellenfindung und -ausnutzung zu erzeugen. In den vergangenen sechs Monaten wurde in der Branche diskutiert, ob die „Hacker-Fähigkeiten von KI“ übertrieben würden; beide Seiten vertreten unterschiedliche Standpunkte: Befürworter sagen, dass Open-Source-LLMs plus ein spezieller Datensatz bereits ausreichen, um Schwachstellen zu finden, während Kritiker darauf hinweisen, dass die von LLMs geschriebenen Exploit-Skripte in realen Umgebungen meistens nicht funktionieren.
Die Einschätzung von GTIG liefert diesmal einen konkreten Datenpunkt: LLMs können nicht nur Schwachstellen finden, sondern auch funktionsfähigen Code schreiben, der „ausgelöst werden kann, um einen groß angelegten Angriff“ zu starten. Der Sicherheitsforscher Ryan Dewhurst kommentierte: „KI beschleunigt bereits die Schwachstellenerkennung, senkt den Aufwand für das Identifizieren, Verifizieren und die Waffengewinnung von Schwachstellen.“
Weiter nachverfolgbare Ereignisse sind unter anderem: Ob Google nach und nach mehr KI-Hackerfälle öffentlich macht, ob andere Sicherheitsanbieter (Microsoft Defender, CrowdStrike, Mandiant usw.) ähnliche Beobachtungen anführen und ob die LLM-Anbieter (OpenAI, Anthropic, Googles eigene) für Anfragen zur Schwachstellenanalyse strengere Erkennungsmechanismen aufbauen.
Dieser Artikel „Google deckt den ersten KI-Fall auf, bei dem ein Zero-Day durch KI hergestellt wurde: Hacker wollen 2FA für eine groß angelegte Ausnutzung umgehen“ erschien zuerst bei 鏈新聞 ABMedia.
Related News
Anthropic: Erpresserquote für die Sci-Fi-Text-Schulung von Claude Opus 4 bei 96%
OpenAI bringt ein Cybersicherheitsprogramm namens Daybreak heraus; die dreistufige Architektur von GPT-5,5 tritt gegen Anthropic Mythos an
Geht OpenAI auch den Palantir-Weg als Berater? Investiert 4 Milliarden, gründet ein unabhängiges Unternehmen und schickt FDE, um Unternehmen bei der tiefen Integration von AI-Workflows zu unterstützen
DeepSeek erste Runde: 50 Milliarden Yuan Finanzierungsrunde kurz vor dem Abschluss, wobei Alibaba und Tencent jeweils 10 Milliarden investieren
Die Marktkapitalisierung von Alphabet kommt Nvidia immer näher, GOOG ist innerhalb eines Jahres um über 150% gestiegen – kann man jetzt noch kaufen?