Laut Decrypt haben Angreifer bösartigen Code in das Software-Paket von Mistral AI eingeschleust, das über PyPI verteilt wurde. Wenn Entwickler das Paket auf Linux-Systemen verwenden, führt der schädliche Code automatisch aus, lädt eine Datei namens transformers.pyz von einem Remote-Server herunter und führt sie im Hintergrund aus. Der Dateiname imitiert die weithin genutzte Hugging Face Transformers-Bibliothek. Das Microsoft-Team für Bedrohungsintelligenz erklärte, dass die Schadsoftware in erster Linie Entwickler-Login-Daten und Zugriffstokens stiehlt. Mistral bestätigte, dass ein Rechner eines Entwicklers kompromittiert wurde, die Infrastruktur des Unternehmens jedoch nicht betroffen war.
Related News
Angriffe auf die Lieferkette von KI-Tools: Mistral und gefälschte OpenAI-Modelle werden beide kompromittiert
Google: Große Sprachmodelle werden für reale Angriffe eingesetzt, KI kann Sicherheitsmechanismen mit Zwei-Faktor-Authentifizierung umgehen
Google deckt den ersten Fall von von KI erzeugten Zero-Day-Schwachstellen auf: Angreifer wollen 2FA in großem Stil umgehen