Google deckt den ersten Fall von von KI erzeugten Zero-Day-Schwachstellen auf: Angreifer wollen 2FA in großem Stil umgehen

ChainNewsAbmedia

Die Google-Threat-Intelligence-Group (GTIG) deckte am 11. Mai den ersten Zero-Day-Exploit auf, der „mithilfe eines KI-Modells“ erstellt wurde: Eine Hackergruppe plant, gegen ein beliebtes Open-Source-Webbasiertes Systemverwaltungstool in großem Maßstab vorzugehen. Ziel ist es, die Zwei-Faktor-Authentifizierung (2FA) des Tools beim Login zu umgehen. Laut CNBC arbeitet Google vor dem offiziellen Start des Angriffs mit dem Anbieter des Tools zusammen, um die Sicherheitslücke zu beheben.

Der Vorfall selbst: Wie ein Zero-Day von KI „hergestellt“ wird

Nachdem GTIG die von den Angreifern hinterlassene Python-Exploit-Skripteranalyse vorgenommen hatte, habe man sich „sehr sicher“ gewesen, dass das Skript von einem KI-Modell unterstützt beim Generieren entstanden sei. Als Grundlage dienten mehrere LLM-typische Merkmale im Skript:

Viele lehrbuchartige docstrings und Kommentare (im Gegensatz zum sonst eher knappen Code-Stil echter Hacker)

Enthält „halluzinatorische“ CVSS-Bewertungen (eine gängige Erfindungsneigung von KI-Modellen)

Strukturierte, lehrbuchmäßige Python-Programmierung mit detailliertem Erklär- und Auswahlmenü

Saubere Vorlagen-Spuren wie die _C ANSI-Farbklassen, die „typisch“ für LLM-Trainingsdaten sind

Die Schwachstelle selbst ist ein „logischer Fehler auf hoher Ebene“ und geht auf eine hart kodierte Vertrauensannahme (hard-coded trust assumption) zurück – Google beschreibt dies als genau die Art von Schwachstellen, die LLMs bei der Programm-Analyse am besten herausarbeiten können. Der konkrete Angriffsweg: Nachdem Hacker die legitimen Konto- und Zugangsdaten der Opfer erlangt haben, umgehen sie die 2FA direkt über die Sicherheitslücke und melden sich an.

Googles Reaktion: Stille Behebung durch den Anbieter, Angriff startet nicht offiziell

Google hat keine Namen des betroffenen Open-Source-Systemsverwaltungstools veröffentlicht und auch keine KI-Modell-Anbieterdaten genannt. GTIG habe nach der Entdeckung mit dem Wartungsanbieter des Tools das „verantwortungsvolle Offenlegungs“-Verfahren koordiniert, die Sicherheitslücke im Stillen behoben und bewertet, dass dieses Vorgehen die Dynamik des Handelns bereits vor einem offiziellen Start der Hackergruppe für einen groß angelegten Exploit-Versuch gebrochen haben könnte.

Google hat auch den Angreifer nicht konkret benannt – lediglich als „Cybercrime Threat Actor“ beschrieben, ohne Hinweise auf eine staatliche Akteursrolle.

Bedeutung für die Branche: KI x Cybersicherheit tritt in eine neue Phase ein

Beobachtung des Mediums: Dies ist der erste öffentlich dokumentierte Fall, in dem Google „AI-Modelle in freier Wildbahn“ als Waffe einsetzt, um Programmcode zur Schwachstellenfindung und -ausnutzung zu erzeugen. In den vergangenen sechs Monaten wurde in der Branche diskutiert, ob die „Hacker-Fähigkeiten von KI“ übertrieben würden; beide Seiten vertreten unterschiedliche Standpunkte: Befürworter sagen, dass Open-Source-LLMs plus ein spezieller Datensatz bereits ausreichen, um Schwachstellen zu finden, während Kritiker darauf hinweisen, dass die von LLMs geschriebenen Exploit-Skripte in realen Umgebungen meistens nicht funktionieren.

Die Einschätzung von GTIG liefert diesmal einen konkreten Datenpunkt: LLMs können nicht nur Schwachstellen finden, sondern auch funktionsfähigen Code schreiben, der „ausgelöst werden kann, um einen groß angelegten Angriff“ zu starten. Der Sicherheitsforscher Ryan Dewhurst kommentierte: „KI beschleunigt bereits die Schwachstellenerkennung, senkt den Aufwand für das Identifizieren, Verifizieren und die Waffengewinnung von Schwachstellen.“

Weiter nachverfolgbare Ereignisse sind unter anderem: Ob Google nach und nach mehr KI-Hackerfälle öffentlich macht, ob andere Sicherheitsanbieter (Microsoft Defender, CrowdStrike, Mandiant usw.) ähnliche Beobachtungen anführen und ob die LLM-Anbieter (OpenAI, Anthropic, Googles eigene) für Anfragen zur Schwachstellenanalyse strengere Erkennungsmechanismen aufbauen.

Dieser Artikel „Google deckt den ersten KI-Fall auf, bei dem ein Zero-Day durch KI hergestellt wurde: Hacker wollen 2FA für eine groß angelegte Ausnutzung umgehen“ erschien zuerst bei 鏈新聞 ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare