Le PDG d’OpenAI, Sam Altman, a accusé le concurrent Anthropic d’utiliser un « marketing fondé sur la peur » pour promouvoir son modèle d’IA Claude Mythos, selon des commentaires formulés dans le podcast Core Memory animé par la journaliste technologique Ashlee Vance. Altman a fait valoir que le discours axé sur la peur vise à justifier le maintien des systèmes d’IA avancés sous le contrôle d’un « groupe plus restreint de personnes », bien qu’il ait reconnu que certaines préoccupations liées à la sécurité sont légitimes.
Altman a déclaré que, s’il existe des inquiétudes valables concernant la sécurité de l’IA, « c’est manifestement un marketing incroyable de dire : “Nous avons construit une bombe. Nous sommes sur le point de la lâcher sur votre tête. Nous allons vous vendre un abri anti-bombes pour $100 million. Vous en avez besoin pour faire tourner tout votre bazar, mais uniquement si nous vous choisissons comme client.” » Il a noté que « ce n’est pas toujours facile » d’équilibrer les nouvelles capacités de l’IA avec la conviction que la technologie devrait être accessible.
Altman a reconnu que « il y aura des préoccupations de sécurité légitimes », mais il a suggéré que des messages fondés sur la peur pourraient être instrumentalisés pour justifier un contrôle centralisé. Il a déclaré : « si ce que vous voulez, c’est du genre “on a besoin du contrôle de l’IA, juste nous, parce qu’on sont les gens dignes de confiance”, je pense que le marketing fondé sur la peur est probablement la manière la plus efficace de justifier ça. »
Le modèle Anthropic Claude Mythos a été dévoilé le mois dernier et a suscité un intérêt considérable de la part des chercheurs, des gouvernements et de l’industrie de la cybersécurité. D’après des tests, le modèle peut identifier de manière autonome des vulnérabilités logicielles et exécuter des opérations cyber complexes. Lors des tests, Mythos a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla et a démontré sa capacité à mener des simulations d’attaques cyber à plusieurs étapes.
Anthropic a restreint l’accès au système via Project Glasswing, un programme limité accordant à des entreprises sélectionnées—dont Amazon, Apple et Microsoft—la possibilité de tester ses capacités. La société a également engagé des ressources considérables pour soutenir des efforts de sécurité open-source, en arguant que les défenseurs devraient bénéficier de la technologie avant qu’elle ne devienne plus largement disponible.
Anthropic a présenté les capacités de Mythos comme une percée défensive—permettant une détection plus rapide des failles critiques—et comme un risque potentiel offensif si elles sont détournées. Le modèle a aussi mis en évidence les limites des systèmes actuels d’évaluation de l’IA, Anthropic reconnaissant que de nombreux benchmarks actuels en cybersécurité ne suffisent plus à mesurer les capacités de son système le plus récent.
Malgré des appels au sein de certaines parties du gouvernement américain pour faire cesser l’utilisation de la technologie en raison de ses applications potentielles dans la guerre et la surveillance, la National Security Agency aurait commencé à tester une version d’aperçu du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, les utilisateurs ont donné une probabilité de 49 % que Claude Mythos soit publié au grand public d’ici le 30 juin.
Un groupe de chercheurs a affirmé la semaine dernière être parvenus à reproduire les résultats de Mythos en utilisant des modèles accessibles publiquement.
Altman a suggéré que la rhétorique concernant des systèmes d’IA extrêmement dangereux pourrait augmenter à mesure que les capacités s’améliorent, mais il a estimé que toutes ces affirmations ne devraient pas être prises pour argent comptant. Il a déclaré : « Il y aura beaucoup plus de rhétorique au sujet de modèles trop dangereux pour être déployés. Il y aura aussi des modèles très dangereux qui devront être déployés d’une manière ou d’une autre. Je suis sûr que Mythos est un excellent modèle pour la cybersécurité, mais je pense que nous avons un plan dont nous sommes satisfaits pour la façon dont nous allons mettre ce type de capacité dans le monde. »
Altman a aussi écarté les suggestions selon lesquelles OpenAI réduirait ses dépenses d’infrastructure, affirmant que la société continuerait d’étendre sa capacité de calcul. Il a noté : « Je ne sais pas d’où ça vient… les gens veulent vraiment raconter l’histoire du désengagement. Mais très bientôt, ce sera encore, du genre : “OpenAI est tellement imprudent. Comment peuvent-ils dépenser une somme aussi folle ?” »