Google: Große Sprachmodelle werden für reale Angriffe eingesetzt, KI kann Sicherheitsmechanismen mit Zwei-Faktor-Authentifizierung umgehen

MarketWhisper

大型語言模型攻擊

Laut CoinEdition berichtet am 12. Mai, hat das Google Threat Intelligence Team in einem Bericht gewarnt, dass Angreifer in realen Cyberangriffen, die globale Systeme beeinträchtigen, große Sprachmodelle einsetzen. Zudem bestätigte Google, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke entwickelt haben, um Sicherheitsmechanismen zur doppelten Authentifizierung (2FA) zu umgehen. Google sagt, die betreffenden Aktivitäten stünden im Zusammenhang mit staatlich unterstützten Cyberangriffen sowie dem Missbrauch von KI-Tools in unterirdischen Hacker-Netzwerken.

Konkrete Anwendungen von KI-Tools in Cyberangriffen

Laut dem Bericht des Google Threat Intelligence Team helfen KI-Tools Angreifern, ihre Fähigkeiten in nahezu jeder Phase eines Cyberangriffs zu verbessern. Dazu gehören: schnelleres Erkennen von Software-Schwachstellen, die Automatisierung bestimmter Teile von Angriffsabläufen sowie die Verbesserung von Angriffsmethoden wie Phishing (Internetanzeigenbetrug) und die Erstellung von Schadsoftware.

Der Bericht dokumentiert einen konkreten Fall: Hacker nutzten eine auf Python basierende Zero-Day-Sicherheitslücke, um die doppelte Authentifizierung (2FA) erfolgreich zu umgehen. Google erklärt, dass für den Angriff weiterhin gültige Login-Zugangsdaten erforderlich seien. Dies zeige, dass die Schwachstelle aus der Systemarchitektur selbst resultiere und nicht aus einem technischen Softwarefehler.

Der Bericht weist außerdem darauf hin, dass Angreifer ihre Angriffsmethoden mithilfe einer Sicherheitsdatenbank trainieren, die tausende bekannte Schwachstellen und Ausnutzungsbeispiele enthält, um Muster zu erkennen, die dabei helfen, neue Schwachstellen aufzudecken. Die Hacker nutzen gleichzeitig KI, um falschen Quellcode zu erstellen, Nutzdaten (Payload) zu manipulieren und dynamische Skripte zu schreiben, um der Erkennung auszuweichen. In manchen Fällen kann ein KI-System die Anweisung unmittelbar an infizierte Geräte senden.

Organisationen mit Bezug zu China und Nordkorea: Der Bericht bestätigt, dass KI-Angriffsmethoden zuerst übernommen werden

Laut dem Bericht des Google Threat Intelligence Team liegen Organisationen mit Bezug zu China und Nordkorea bei der Übernahme der oben genannten KI-unterstützten Angriffsmethoden vorn. Zu den konkreten Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen (Prompt-Nachrichten), um Sicherheitsinformationen aus dem System zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um potenzielle Schwachstellen in Firmware und eingebetteten Geräten zu scannen.

Google setzt KI-Defensivsysteme ein, um auf Bedrohungen zu reagieren

Laut CoinEdition gibt Google an, die KI-gestützten Abwehrmaßnahmen zu verstärken. Das Big Sleep-System wird zur automatischen Identifizierung von Schwachstellen eingesetzt; das CodeMender-System zur automatischen Behebung von Schwachstellen; und Gemini enthält integrierte Sicherheitsmaßnahmen, um verdächtige Aktivitäten in Benutzerkonten zu blockieren.

Häufige Fragen

Warum wurde im Bericht des Google Threat Intelligence Team ein Fall dokumentiert, in dem KI die doppelte Authentifizierung (2FA) umging?

Laut CoinEdition-Bericht vom 12. Mai 2026 bestätigt der Bericht des Google Threat Intelligence Team, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke nutzten, um die 2FA-Sicherheitsmechanismen erfolgreich zu umgehen. Google erklärt, dass die Sicherheitslücke aus dem Systemdesign selbst stamme; der Angriff könne erst ausgeführt werden, wenn gültige Login-Zugangsdaten vorliegen.

Welche staatlich bzw. landbezogen relevanten Organisationen wurden von Google als Erstnutzer von KI-Angriffsmethoden genannt?

Laut dem Bericht des Google Threat Intelligence Team setzen Organisationen mit Bezug zu China und Nordkorea als Erstes KI-Tools ein, um Cyberangriffe durchzuführen. Zu den Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen, um Sicherheitsinformationen zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um Firmware-Schwachstellen zu scannen.

Welche namentlich genannten KI-Defensivsysteme hat Google eingesetzt, um auf die betreffenden Bedrohungen zu reagieren?

Laut CoinEdition hat Google bereits Big Sleep (automatische Identifizierung von Schwachstellen), CodeMender (automatische Behebung von Schwachstellen) sowie die in Gemini integrierten Sicherheitsmaßnahmen (Blockierung verdächtiger Aktivitäten in Konten) als KI-Defensivsysteme eingesetzt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Bonnie-區 Blockchain-Interview mit Eric Trump: Er spricht über US-KI, Energie und Bitcoin und enthüllt, dass Trump intern ihn noch immer „honey“ nennt

Der taiwanische Krypto-YouTuber „Bonnnie Krypto-Blockchain“ hat in letzter Zeit Eric Trump interviewt und dabei über das US-Bitcoin-Mining-Unternehmen American Bitcoin, die Krypto-Währungspolitik der Trump-Regierung, den Wettbewerb der USA in den Bereichen KI und Energie sowie darüber gesprochen, warum Eric Trump selbst in die digitale-Asset-Branche eingestiegen ist. Trumps Sohn: Die USA müssen bei Energie, KI und Krypto gewinnen Eric Trump betonte im Interview mehrfach, dass die zentrale Erzähl

ChainNewsAbmedia54M her

Republikanische Abgeordnete fordern eine Untersuchung von Altmans 3,75-Milliarden-US-Dollar persönlichen Investitionen und OpenAI-Konflikten

Laut ChainCatcher forderte der Vorsitzende des US-House Oversight Committee, James Comer, den OpenAI-CEO Sam Altman kürzlich auf, Informationen über seine persönlichen Investitionen sowie mögliche Interessenkonflikte mit OpenAI offenzulegen. Comers Anfrage konzentriert sich auf Altmanns umfangreiches Anlageportfolio, das aus seinem geschätzten Nettovermögen von rund 3,5 Milliarden US-Dollar besteht und Beteiligungen an Helion, Stripe und Reddit umfasst. Konkret berichtet das Wall Street Journal,

GateNews2Std her

TT Chain integriert das AegisAI-Sicherheitssystem zum Schutz von RWA am 11. Mai

Laut der Ankündigung der TT Chain vom 11. Mai integrierte das Layer-2-Blockchain-Netzwerk die KI-getriebene Sicherheitsinfrastruktur von AegisAI in sein Ökosystem für reale Vermögenswerte (Real-World Assets). Die Zusammenarbeit verbessert den Schutz für tokenisierte Asset-Transaktionen und plattformübergreifende (Cross-Chain-)Operationen durch fortschrittliche Bedrohungserkennung und Funktionen für das Auditing von Smart Contracts. Die autonomen KI-Agenten von AegisAI erkennen Phishing-Angriffe,

GateNews3Std her

Der KI-Startup Wispr befindet sich in Finanzierungsverhandlungen bei einer Bewertung von $2B am 12. Mai

Laut PANews befindet sich die KI-Startup Wispr am 12. Mai in Gesprächen über eine Finanzierungsrunde, bei einer Bewertung von 2 Milliarden US-Dollar.

GateNews3Std her

Sam Altman soll heute in Musks $38M OpenAI-Klage aussagen

Laut BlockBeats ist Sam Altman heute (12. Mai) in einem Bundesgericht in Oakland, Kalifornien, zu einer Aussage im Fall von Elon Musks Klage gegen OpenAI geladen. Altman wird auf den Zeugenstuhl gehen, nachdem Bret Taylor, Vorsitzender des OpenAI-Aufsichtsrats, seine Aussage abgeschlossen hat. Musk reichte die Klage 2024 ein und behauptete, OpenAI, Altman und Präsident Greg Brockman hätten die ursprüngliche gemeinnützige und Public-Benefit-Mission des Unternehmens verletzt. Musk behauptet, dass

GateNews4Std her

Depthfirst entdeckt kritische Internet-Schwachstellen für ein Zehntel der Kosten von Anthropic’ Mythos

Laut BlockBeats gab Depthfirst, ein KI-Cybersicherheits-Startup, am 12. Mai bekannt, dass sein selbst entwickeltes KI-Modell zur Schwachstellenerkennung mehrere kritische Sicherheitslücken gefunden habe, die Myhos von Anthropic verpasst habe, wobei Depthfirst behauptet, die Gesamtkosten lägen nur bei einem Zehntel der letztgenannten. Der CEO von Depthfirst, Qasim Mithani, sagte, das Unternehmen könne „Arbeiten für 1.000 US-Dollar abschließen, für die Mythos 10.000 US-Dollar benötigen würde“, ind

GateNews4Std her
Kommentieren
0/400
Keine Kommentare