
Laut CoinEdition berichtet am 12. Mai, hat das Google Threat Intelligence Team in einem Bericht gewarnt, dass Angreifer in realen Cyberangriffen, die globale Systeme beeinträchtigen, große Sprachmodelle einsetzen. Zudem bestätigte Google, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke entwickelt haben, um Sicherheitsmechanismen zur doppelten Authentifizierung (2FA) zu umgehen. Google sagt, die betreffenden Aktivitäten stünden im Zusammenhang mit staatlich unterstützten Cyberangriffen sowie dem Missbrauch von KI-Tools in unterirdischen Hacker-Netzwerken.
Laut dem Bericht des Google Threat Intelligence Team helfen KI-Tools Angreifern, ihre Fähigkeiten in nahezu jeder Phase eines Cyberangriffs zu verbessern. Dazu gehören: schnelleres Erkennen von Software-Schwachstellen, die Automatisierung bestimmter Teile von Angriffsabläufen sowie die Verbesserung von Angriffsmethoden wie Phishing (Internetanzeigenbetrug) und die Erstellung von Schadsoftware.
Der Bericht dokumentiert einen konkreten Fall: Hacker nutzten eine auf Python basierende Zero-Day-Sicherheitslücke, um die doppelte Authentifizierung (2FA) erfolgreich zu umgehen. Google erklärt, dass für den Angriff weiterhin gültige Login-Zugangsdaten erforderlich seien. Dies zeige, dass die Schwachstelle aus der Systemarchitektur selbst resultiere und nicht aus einem technischen Softwarefehler.
Der Bericht weist außerdem darauf hin, dass Angreifer ihre Angriffsmethoden mithilfe einer Sicherheitsdatenbank trainieren, die tausende bekannte Schwachstellen und Ausnutzungsbeispiele enthält, um Muster zu erkennen, die dabei helfen, neue Schwachstellen aufzudecken. Die Hacker nutzen gleichzeitig KI, um falschen Quellcode zu erstellen, Nutzdaten (Payload) zu manipulieren und dynamische Skripte zu schreiben, um der Erkennung auszuweichen. In manchen Fällen kann ein KI-System die Anweisung unmittelbar an infizierte Geräte senden.
Laut dem Bericht des Google Threat Intelligence Team liegen Organisationen mit Bezug zu China und Nordkorea bei der Übernahme der oben genannten KI-unterstützten Angriffsmethoden vorn. Zu den konkreten Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen (Prompt-Nachrichten), um Sicherheitsinformationen aus dem System zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um potenzielle Schwachstellen in Firmware und eingebetteten Geräten zu scannen.
Laut CoinEdition gibt Google an, die KI-gestützten Abwehrmaßnahmen zu verstärken. Das Big Sleep-System wird zur automatischen Identifizierung von Schwachstellen eingesetzt; das CodeMender-System zur automatischen Behebung von Schwachstellen; und Gemini enthält integrierte Sicherheitsmaßnahmen, um verdächtige Aktivitäten in Benutzerkonten zu blockieren.
Laut CoinEdition-Bericht vom 12. Mai 2026 bestätigt der Bericht des Google Threat Intelligence Team, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke nutzten, um die 2FA-Sicherheitsmechanismen erfolgreich zu umgehen. Google erklärt, dass die Sicherheitslücke aus dem Systemdesign selbst stamme; der Angriff könne erst ausgeführt werden, wenn gültige Login-Zugangsdaten vorliegen.
Laut dem Bericht des Google Threat Intelligence Team setzen Organisationen mit Bezug zu China und Nordkorea als Erstes KI-Tools ein, um Cyberangriffe durchzuführen. Zu den Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen, um Sicherheitsinformationen zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um Firmware-Schwachstellen zu scannen.
Laut CoinEdition hat Google bereits Big Sleep (automatische Identifizierung von Schwachstellen), CodeMender (automatische Behebung von Schwachstellen) sowie die in Gemini integrierten Sicherheitsmaßnahmen (Blockierung verdächtiger Aktivitäten in Konten) als KI-Defensivsysteme eingesetzt.
Verwandte Artikel
Bonnie-區 Blockchain-Interview mit Eric Trump: Er spricht über US-KI, Energie und Bitcoin und enthüllt, dass Trump intern ihn noch immer „honey“ nennt
Republikanische Abgeordnete fordern eine Untersuchung von Altmans 3,75-Milliarden-US-Dollar persönlichen Investitionen und OpenAI-Konflikten
TT Chain integriert das AegisAI-Sicherheitssystem zum Schutz von RWA am 11. Mai
Der KI-Startup Wispr befindet sich in Finanzierungsverhandlungen bei einer Bewertung von $2B am 12. Mai
Depthfirst entdeckt kritische Internet-Schwachstellen für ein Zehntel der Kosten von Anthropic’ Mythos