Le 13 avril, des chercheurs de l'Université de Californie ont découvert que certains routeurs de grands modèles de langage IA tiers (LLM) pourraient présenter des vulnérabilités de sécurité, entraînant le vol d'actifs cryptographiques.



Les chercheurs ont publié jeudi un article mesurant les attaques de l'homme du milieu malveillantes dans la chaîne d'approvisionnement des LLM, révélant quatre vecteurs d'attaque, notamment l'injection de code malveillant et l'extraction de crédentiels.

L'auteur de l'article, Chaofan Shou, a déclaré sur X : « 26 routeurs LLM injectent en secret des appels d'outils malveillants et volent des crédentiels. »

Actuellement, de plus en plus d'agents IA transmettent des requêtes via des intermédiaires ou des routeurs API tiers, qui agrègent l'accès à des fournisseurs de services tels qu'OpenAI, Anthropic et Google. Cependant, ces routeurs terminent la connexion TLS (Transport Layer Security) d'Internet, ce qui leur permet d'accéder à tous les contenus des messages en clair.

Cela signifie que les développeurs utilisant des agents de codage IA (par exemple Claude Code) pour créer des contrats intelligents ou des portefeuilles pourraient, à leur insu, transmettre des clés privées, des phrases mnémoniques et d'autres données sensibles à une infrastructure de routeur qui n'a pas encore été soumise à un audit de sécurité ou protégée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler