Il y a quelque chose de plutôt magique - une certaine entreprise d'IA a commencé à laisser ses modèles chercher eux-mêmes des bugs dans les smart contracts.
Ça a l'air d'une bonne chose, non ? Audit automatisé, détecter les vulnérabilités à l'avance, les développeurs sont soulagés et les utilisateurs sont en sécurité. Mais le problème est que cette arme peut aussi être utilisée pour nuire. Aujourd'hui, l'IA vous aide à trouver des vulnérabilités, demain, est-ce que quelqu'un ne l'utiliserait pas pour creuser des pièges en masse ? Si les hackers ont aussi cet outil, la dimension de la guerre entre l'attaque et la défense change complètement.
L'itération technologique est vraiment incroyablement rapide. Je me souviens qu'il y a un an, tout le monde se moquait de "l'IA qui écrit du code n'est pas fiable", et maintenant, ils peuvent même faire des audits de sécurité, un travail spécialisé.
Ce que l'on appelle la "deuxième phase de la coexistence homme-machine" n'est peut-être pas une révolte de robots comme dans un film de science-fiction, mais plutôt le début avec ces outils apparemment inoffensifs. Plus l'IA est capable, plus le coût de la perte de contrôle est élevé. Les smart contracts, cette chose où "le code est la loi", ne résistent vraiment pas à des attaques automatisées à grande échelle.
Neutre sur le plan technologique, mais les utilisateurs ne le sont pas.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Il y a quelque chose de plutôt magique - une certaine entreprise d'IA a commencé à laisser ses modèles chercher eux-mêmes des bugs dans les smart contracts.
Ça a l'air d'une bonne chose, non ? Audit automatisé, détecter les vulnérabilités à l'avance, les développeurs sont soulagés et les utilisateurs sont en sécurité. Mais le problème est que cette arme peut aussi être utilisée pour nuire. Aujourd'hui, l'IA vous aide à trouver des vulnérabilités, demain, est-ce que quelqu'un ne l'utiliserait pas pour creuser des pièges en masse ? Si les hackers ont aussi cet outil, la dimension de la guerre entre l'attaque et la défense change complètement.
L'itération technologique est vraiment incroyablement rapide. Je me souviens qu'il y a un an, tout le monde se moquait de "l'IA qui écrit du code n'est pas fiable", et maintenant, ils peuvent même faire des audits de sécurité, un travail spécialisé.
Ce que l'on appelle la "deuxième phase de la coexistence homme-machine" n'est peut-être pas une révolte de robots comme dans un film de science-fiction, mais plutôt le début avec ces outils apparemment inoffensifs. Plus l'IA est capable, plus le coût de la perte de contrôle est élevé. Les smart contracts, cette chose où "le code est la loi", ne résistent vraiment pas à des attaques automatisées à grande échelle.
Neutre sur le plan technologique, mais les utilisateurs ne le sont pas.