Fuite sur le débat à la Maison-Blanche concernant un mécanisme d’enquête préalable par l’IA, les déclarations de Hassett démenties officiellement le lendemain

白宮AI預審機制討論

Le directeur du Conseil économique national (NEC) de la Maison-Blanche, Kevin Hassett, a déclaré lors d’une interview accordée à Fox Business le 7 mai que l’administration Trump étudie la possibilité d’exiger, par décret, que des modèles d’IA passent un contrôle de sécurité gouvernemental avant leur publication publique. Il a fait une analogie avec la procédure d’autorisation préalable à la mise sur le marché appliquée par la FDA aux médicaments. Mais, selon Politico du 8 mai, des responsables de haut niveau de la Maison-Blanche ont ensuite qualifié ces propos de « sortie de son contexte ».

Déroulement de l’événement : Le rapport du New York Times révèle des contradictions de politique à la Maison-Blanche

Le 4 mai 2026, le New York Times a rapporté que la Maison-Blanche étudiait la mise en place d’un mécanisme d’examen préalable à la publication des modèles d’IA, à l’époque présenté comme « envisagé ». Le 7 mai 2026, lors de son interview sur Fox Business, Kevin Hassett a déclaré publiquement : « Nous étudions la possibilité, par décret, d’exiger que l’IA potentiellement génératrice de vulnérabilités ne soit déployée qu’après avoir démontré sa sécurité — comme pour les médicaments de la FDA. »

Dans la nuit du 7 mai 2026, le chef de cabinet de la Maison-Blanche, Susie Wiles, a publié sur la plateforme X : le gouvernement « n’a pas à choisir les gagnants et les perdants », et a affirmé que le déploiement sécurisé de technologies puissantes devrait être porté par « les innovateurs exceptionnels des États-Unis plutôt que par des organismes bureaucratiques ». D’après les archives de son compte officiel, ce message constitue le quatrième contenu publié depuis la création du compte de Wiles.

D’après Politico, citant trois personnes informées sous couvert d’anonymat, la Maison-Blanche discute de la possibilité de faire procéder à une évaluation préalable par des agences de renseignement avant la publication publique des modèles d’IA. Un responsable du gouvernement américain interrogé dans l’article a indiqué que l’un des objectifs était « de permettre au milieu du renseignement d’étudier et d’exploiter d’abord ces outils avant que des adversaires comme la Russie et la Chine ne comprennent les nouvelles capacités ».

Organismes concernés et cadre de politique

CAISI élargit les accords d’évaluation de sécurité volontaires

Le Centre américain des normes et de l’innovation en IA (CAISI), rattaché au ministère du Commerce, a annoncé cette semaine avoir conclu des accords d’évaluation de sécurité de l’IA avec Google DeepMind, Microsoft et xAI. Le périmètre a été élargi à OpenAI et Anthropic, déjà inclus auparavant. Le cadre d’évaluation volontaire de la CAISI est en vigueur depuis 2024.

Le sous-ministre à la Défense soutient publiquement un mécanisme d’évaluation préalable

Le sous-secrétaire adjoint à la Défense, Emil Michael, a, le 8 mai 2026, lors d’une conférence sur l’IA à Washington, apporté son soutien public à une évaluation préalable gouvernementale avant la publication de modèles d’IA. Dans son intervention, il a cité le système Mythos d’Anthropic comme cas de référence, affirmant que ces modèles « finiront tôt ou tard par apparaître » et que le gouvernement doit mettre en place un mécanisme de réponse.

Contexte de politique de l’administration Trump et d’Anthropic

D’après Politico, le secrétaire à la Défense Pete Hegseth a, en mars 2026, inscrit Anthropic sur une liste de risques en invoquant des risques liés à la chaîne d’approvisionnement, et a interdit l’utilisation de ses modèles dans les contrats du ministère de la Défense. Par la suite, Trump a demandé séparément aux agences fédérales de cesser d’utiliser les produits d’Anthropic dans un délai de six mois. Dans le même temps, le mois dernier, Anthropic a révélé que son système d’IA Mythos possédait une capacité puissante d’exploration de vulnérabilités logicielles, dépassant les seuils de sécurité avant publication publique, et plusieurs agences fédérales ont alors présenté des demandes d’accès. Le 8 mai 2026, OpenAI a annoncé un aperçu limité de GPT-5.5-Cyber, un nouvel outil capable de détecter et de corriger des failles de cybersécurité.

Positions d’opposition de l’industrie au mécanisme d’examen obligatoire

Le président du Information Technology and Innovation Foundation (ITIF), Daniel Castro, a déclaré dans un article de Politico : « Si l’on peut refuser l’approbation avant mise sur le marché, c’est un gros problème pour toute entreprise. Si un concurrent obtient l’approbation mais pas un autre, l’écart de quelques semaines ou de quelques mois pour l’accès au marché aura un impact énorme. » Les financeurs de l’ITIF incluent Anthropic, Microsoft et Meta.

Dans le même article, un haut responsable de la Maison-Blanche a déclaré : « Il y a bien un ou deux individus très enthousiastes à l’idée de la surveillance du gouvernement, mais ils ne sont qu’une minorité. » Le responsable a obtenu l’anonymat au motif de la description de discussions de politique sensible.

Questions fréquentes

À quel moment et où Kevin Hassett a-t-il tenu ses propos sur l’évaluation préalable de l’IA ?

D’après Politico, Kevin Hassett a, le 7 mai 2026, lors d’une interview accordée à Fox Business, déclaré publiquement que le gouvernement étudiait un décret exigeant que les modèles d’IA passent un contrôle de sécurité gouvernemental avant d’être publiés, en faisant l’analogie avec le processus d’approbation de la FDA pour les médicaments.

Sur quoi la Maison-Blanche fonde-t-elle le démenti des propos de Hassett ?

Selon Politico du 8 mai 2026, un responsable de haut niveau de la Maison-Blanche a déclaré que les propos de Hassett « relevaient quelque peu du hors-sujet », et que l’orientation de la Maison-Blanche consiste à établir des partenariats avec les entreprises plutôt qu’à déployer une surveillance gouvernementale. Le chef de cabinet Susie Wiles a, par ailleurs, publié un message réitérant que le gouvernement ne s’immisce pas dans les choix du marché.

Quels nouveaux accords d’évaluation de sécurité de l’IA CAISI ajoute-t-il cette semaine ?

D’après la déclaration de CAISI cette semaine, ces accords supplémentaires couvrent Google DeepMind, Microsoft et xAI, en plus de OpenAI et Anthropic déjà inclus. Le cadre d’évaluation volontaire est en vigueur depuis 2024.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les États-Unis et la Chine prêts à lancer un dialogue officiel sur la sécurité de l’IA, mené par des responsables du Trésor

D'après des informations, les États-Unis et la Chine se préparent à lancer un dialogue officiel sur la sécurité de l'IA, visant à mettre en place des mécanismes de gestion de crise dans le cadre de leur compétition technologique. La délégation américaine sera menée par le secrétaire au Trésor Scott Bessent, tandis que la Chine sera représentée par le vice

GateNewsIl y a 19m

RLWRLD publie le modèle d’IA RLDX-1 pour des mains robotiques industrielles

RLWRLD, une startup d’IA en robotique soutenue par LG Electronics, a dévoilé RLDX-1, un modèle fondateur conçu pour des mains robotiques à cinq doigts dans des applications industrielles, selon RLWRLD. La société a publié les poids, le code et la documentation technique du modèle sur GitHub et Hugging Face. Modèle

CryptoFrontierIl y a 39m

DeepMind AlphaEvolve bilan interdisciplinaire : la multiplication de matrices 4×4 bat le record de Strassen de 1969, la formation de Gemini est accélérée de 1%

Google DeepMind le 7 mai (heure américaine) a publié un rapport de résultats interdomaines d’AlphaEvolve. Le blog officiel de DeepMind résume les progrès concrets d’AlphaEvolve depuis son lancement : avoir trouvé une méthode de multiplication de matrices complexes 4×4 meilleure que l’algorithme de Strassen de 1969 (48 multiplications scalaires pures), avoir collaboré avec des mathématiciens tels que Terence Tao pour résoudre plusieurs problèmes mathématiques difficiles d’Erdős, avoir économisé 0,7% des ressources mondiales de calcul pour les centres de données de Google, avoir augmenté de 23% la vitesse des kernels clés entraînés avec Gemini, et avoir réduit de 1% le temps total d’entraînement de Gemini. Architecture : exploration en largeur pour Gemini Flash + Gemini

ChainNewsAbmediaIl y a 52m

OpenAI Codex lance une extension pour Chrome : permet de tester une Web App dans le navigateur, de récupérer le contexte entre pages, et de fonctionner en parallèle

Le 7 mai (heure américaine), OpenAI a dévoilé la fonctionnalité d’extension Chrome de Codex, permettant aux agents Codex d’opérer directement dans le navigateur Chrome sur macOS et Windows. La documentation officielle de Codex explique que l’extension permet à Codex de tester une application web sans prendre le contrôle du navigateur de l’utilisateur, de récupérer du contexte sur plusieurs onglets, d’utiliser Chrome DevTools, et de mener d’autres tâches en parallèle. OpenAI a également annoncé que les utilisateurs actifs hebdomadaires de Codex dépassent 4 millions, en hausse de 8 fois par rapport au début de l’année. Ce qui peut être fait dans le navigateur : tester une application web, récupérer du contexte entre les pages, utiliser DevTools Extension Chrome de Codex

ChainNewsAbmediaIl y a 55m

OpenAI lance GPT-Realtime-2 : intègre l’inférence de GPT-5 dans les agents vocaux et fait passer le contexte à 128K

OpenAI a annoncé le 7 mai (heure des États-Unis) à une conférence pour développeurs trois nouveaux modèles vocaux Realtime : GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, tous accessibles aux développeurs via l’API Realtime. L’annonce officielle d’OpenAI indique que GPT-Realtime-2 est le premier modèle d’OpenAI doté de GPT-5

ChainNewsAbmediaIl y a 56m

Visite sur le terrain de laboratoires d’IA en Chine : un chercheur révèle que « l’écart entre les puces et les données » est la clé du différend entre les États-Unis et la Chine

L’explorateur approfondi de plusieurs laboratoires d’IA en Chine, Nathan Lambert, souligne que l’avantage central de la Chine réside dans sa culture, ses talents et son état d’esprit pragmatique : la recherche vise d’abord à améliorer la qualité des modèles, les étudiants deviennent des contributeurs clés et les collaborations en organisation sont moins sujettes aux luttes internes ; toutefois, il existe des lacunes en matière de puces, de données et de créativité, et la puissance de calcul externe est contrainte par des restrictions américaines, tandis qu’une qualité de données insuffisante pousse à construire des environnements d’entraînement en interne. Les entreprises publient du code source tout en conservant leurs technologies essentielles pour procéder à des ajustements sur mesure ; si les États-Unis resserrent l’ouverture de l’écosystème, cela pourrait affecter la position de leader mondial.

ChainNewsAbmediaIl y a 1h
Commentaire
0/400
Aucun commentaire