Googles Threat Intelligence Group (GTIG) warnt erneut vor den Risiken von KI und veröffentlicht ihren aktuellen Bericht darüber, wie gefährliche staatlich unterstützte Hacker künstliche Intelligenz einsetzen. Dieses Team hat einen Anstieg bei Modell-Extraktion-Versuchen festgestellt, einer Methode des Diebstahls geistigen Eigentums, bei der jemand ein KI-Modell wiederholt abfragt, um dessen interne Logik zu erlernen und in ein neues Modell zu übertragen.
Unser neuer Bericht der Google Threat Intelligence Group (GTIG) zeigt auf, wie Bedrohungsakteure KI für alles Mögliche nutzen – von fortgeschrittener Aufklärung über Phishing bis hin zur automatisierten Malware-Entwicklung.
Mehr dazu und wie wir den Bedrohungen entgegenwirken ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12. Februar 2026
Obwohl dies besorgniserregend ist, ist es nicht die Hauptgefahr, vor der Google warnt. Der Bericht warnt außerdem vor staatlich unterstützten Akteuren, die große Sprachmodelle (LLMs) für technische Forschung, Zielerkennung und die schnelle Erstellung nuancierter Phishing-Lures verwenden. Der Bericht hebt Bedenken hinsichtlich Nordkorea, Iran, China und Russland hervor. Gemini und Phishing-Angriffe Diese Akteure nutzen angeblich KI-Tools wie Googles eigenes Gemini für Aufklärung und Zielprofilierung, indem sie Open-Source-Intelligenz in großem Umfang sammeln und hyper-personalisierte Phishing-Betrügereien erstellen. „Diese Aktivitäten verdeutlichen einen Wandel hin zu KI-gestützter Phishing-Ermöglichung, bei der die Geschwindigkeit und Genauigkeit von LLMs die manuelle Arbeit bei der Zielprofilierung übertrifft“, heißt es im Google-Bericht. „Ziele haben lange auf Indikatoren wie schlechte Grammatik, unbeholfene Syntax oder fehlenden kulturellen Kontext gesetzt, um Phishing-Versuche zu erkennen. Zunehmend nutzen Bedrohungsakteure jetzt LLMs, um hyper-personalisierte Lockmittel zu generieren, die den professionellen Ton einer Zielorganisation widerspiegeln.“
Wenn Gemini beispielsweise die Biografie eines Ziels erhalten würde, könnte es eine glaubwürdige Persona erstellen und ein Szenario entwickeln, das die Aufmerksamkeit effektiv auf sich zieht. Durch den Einsatz von KI können diese Akteure auch effizienter zwischen lokalen Sprachen übersetzen. Da die Fähigkeit von KI, Code zu generieren, gewachsen ist, eröffnet sich auch die Tür für bösartige Nutzung, wobei diese Akteure schädliche Tools troubleshootern und mit KI-gestütztem Coding bösartige Software erstellen. Der Bericht warnt außerdem vor wachsendem Interesse an Experimenten mit agentischer KI. Dabei handelt es sich um eine Form der künstlichen Intelligenz, die mit einem gewissen Grad an Autonomie agieren kann, um Aufgaben wie Malware-Entwicklung und deren Automatisierung zu unterstützen. Google betont seine Bemühungen, dieses Problem durch verschiedene Maßnahmen zu bekämpfen. Neben der Erstellung von Threat Intelligence-Berichten mehrmals im Jahr hat das Unternehmen ein Team, das ständig nach Bedrohungen sucht. Google setzt auch Maßnahmen um, um Gemini zu einem Modell zu entwickeln, das nicht für bösartige Zwecke genutzt werden kann. Durch Google DeepMind versucht das Team, diese Bedrohungen frühzeitig zu erkennen. Ziel ist es, schädliche Funktionen zu identifizieren und zu entfernen, bevor sie ein Risiko darstellen können. Obwohl aus dem Bericht hervorgeht, dass die Nutzung von KI im Bedrohungsumfeld zugenommen hat, weist Google darauf hin, dass es bisher keine Durchbruchs-Fähigkeiten gibt. Stattdessen gibt es nur eine Zunahme bei der Nutzung von Tools und Risiken.