Le secrétaire au Trésor des États-Unis Scott Bessent et le président de la Réserve fédérale Jerome Powell auraient convoqué plus tôt cette semaine une réunion avec des PDG de banques de Wall Street afin de les avertir des risques de cybersécurité liés à un nouveau modèle d’intelligence artificielle d’Anthropic. D’après un rapport de Bloomberg, la réunion comprenait des dirigeants de Citigroup, Bank of America, Wells Fargo, Morgan Stanley et Goldman Sachs. Les responsables ont discuté du nouveau modèle d’IA d’Anthropic, Mythos, qui a récemment suscité de vives inquiétudes en raison de ses capacités avancées apparentes en matière de cybersécurité. Les responsables ont convoqué la réunion pour s’assurer que les banques comprennent les risques posés par des systèmes capables d’identifier et d’exploiter des vulnérabilités logicielles sur plusieurs systèmes d’exploitation et navigateurs web, et pour encourager les institutions à renforcer leurs défenses contre d’éventuelles cyberattaques assistées par l’IA visant l’infrastructure financière.
Des chercheurs en sécurité ont averti que des outils capables de découvrir automatiquement des vulnérabilités pourraient accélérer à la fois les travaux de sécurité défensive et le piratage malveillant s’ils sont détournés. Le modèle Mythos d’Anthropic a d’abord fait surface en ligne en mars, après que des documents de travail sur le système ont fuité en ligne, révélant ce que l’entreprise décrit comme son modèle d’IA le plus performant à ce jour. Lors des tests, le système aurait trouvé des milliers de vulnérabilités logicielles inconnues jusqu’alors, y compris des failles zero-day dans de grands systèmes d’exploitation et navigateurs web. Des chercheurs d’Anthropic ont déclaré dans un rapport plus tôt cette semaine que les capacités de découverte de vulnérabilités de Mythos Preview n’avaient pas été entraînées intentionnellement, mais qu’elles étaient plutôt apparues à la suite d’améliorations plus larges du codage, du raisonnement et de l’autonomie du modèle.
« Les mêmes améliorations qui rendent le modèle nettement plus efficace pour corriger les vulnérabilités le rendent aussi nettement plus efficace pour les exploiter », a écrit la société. En raison de ces capacités, Anthropic a restreint l’accès à un petit groupe d’organisations de cybersécurité. « Compte tenu de la puissance de ses capacités, nous sommes délibérés quant à la manière dont nous le publions », a déclaré Anthropic dans un communiqué. « Comme c’est une pratique standard dans l’ensemble du secteur, nous travaillons avec un petit groupe de clients disposant d’un accès anticipé pour tester le modèle. Nous considérons ce modèle comme un changement d’étape et le plus compétent que nous ayons construit à ce jour. » Pour répondre à ce risque, Anthropic teste Mythos via Project Glasswing, une collaboration avec de grandes entreprises technologiques et de cybersécurité qui utilise le modèle pour identifier et corriger des vulnérabilités dans des logiciels critiques avant que des attaquants ne puissent les exploiter. « Project Glasswing est un point de départ. Aucune organisation ne peut résoudre ces problèmes de cybersécurité à elle seule », a déclaré l’entreprise dans un communiqué. « Les développeurs d’IA Frontier, les autres entreprises de logiciels, les chercheurs en sécurité, les mainteneurs de logiciels open source et les gouvernements du monde entier ont tous des rôles essentiels à jouer. » Anthropic n’a pas répondu immédiatement à la demande de commentaire de Decrypt.
Articles similaires
Les 10 plus grands conglomérats de Corée du Sud gagnent 65 % pour atteindre 2,6 billions de dollars alors que les actions de puces pour l’IA se redressent
Les investissements en IA ont entraîné 75 % de la croissance du PIB des États-Unis au T1, selon un conseiller de la Maison-Blanche
Les talents en IA gagnent jusqu’à 25 % de plus à Singapour, selon un rapport de NodeFlair
Sondage POLITICO : 45 % des Américains disent que les investissements en crypto sont trop risqués, 50 % font davantage confiance aux banques
Amazon et OpenAI élargissent leur partenariat : des modèles mis en ligne sur Bedrock, l’exclusivité de Microsoft prend fin
Les chercheurs déploient la technologie DPN-LE pour modifier des traits de personnalité de l’IA, en ne modifiant que 0,5 % des neurones