La Maison-Blanche accuse la Chine de vol de modèles d’IA à « grande échelle industrielle »

La Maison-Blanche a averti le 23 avril 2026 que des entités étrangères, principalement en Chine, mènent des campagnes « à grande échelle industrielle » pour copier des modèles d’intelligence artificielle américains, selon une note de Michael Kratsios, conseiller auprès du Président pour la science et la technologie et directeur du Bureau de la politique en matière de science et de technologie. Les campagnes emploient des dizaines de milliers de comptes-relais et des techniques de jailbreak pour extraire des capacités propriétaires et répliquer les performances des modèles, une méthode connue sous le nom d’attaque par distillation.

Tactiques et Méthodes

Selon l’administration du président Donald Trump, les efforts coordonnés utilisent des « dizaines de milliers de comptes-relais » pour contourner la détection et exploiter des techniques de jailbreak afin d’extraire systématiquement des capacités. Une attaque par distillation est une méthode d’entraînement d’un modèle IA plus petit pour apprendre à partir des sorties d’un modèle plus grand. Kratsios a déclaré sur X (anciennement Twitter): « Les États-Unis disposent de preuves que des entités étrangères, principalement en Chine, lancent des campagnes de distillation à grande échelle industrielle pour voler l’IA américaine. Nous allons prendre des mesures pour protéger l’innovation américaine. »

Précédent Historique

Le sujet suscite une inquiétude croissante parmi les entreprises américaines d’IA. En février 2026, Anthropic a accusé des laboratoires chinois d’IA DeepSeek, Moonshot et MiniMax d’extraire des millions de réponses de Claude—en utilisant environ 24 000 comptes frauduleux—pour entraîner des systèmes concurrents. Les modèles développés via des campagnes de distillation non autorisées peuvent ne pas correspondre aux performances complètes des modèles originaux, mais peuvent sembler comparables sur certains benchmarks à une fraction du coût.

Préoccupations en Matière de Sécurité

L’administration a prévenu que les attaques par distillation pourraient supprimer des garde-fous de sécurité et d’autres contrôles conçus pour maintenir les systèmes d’IA « neutres sur le plan idéologique et en quête de vérité ». L’administration Trump a déclaré que les agences fédérales travailleront avec les entreprises d’IA américaines pour renforcer les protections autour des modèles de pointe, coordonner avec le secteur privé afin d’élaborer des défenses contre les campagnes de distillation à grande échelle, et explorer des moyens de tenir les acteurs étrangers responsables.

Réponse de l’Administration

Même si la note reconnaissait que la distillation licite peut contribuer à créer des modèles open-source et open-weight plus petits et plus efficaces, elle a indiqué que les efforts non autorisés visant à copier des systèmes d’IA américains franchissent la ligne. « Il n’y a rien d’innovant à extraire systématiquement et à copier les innovations de l’industrie américaine », affirme la note.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI grok-imagine-image et grok-imagine-image-pro, ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.

GateNewsIl y a 3h

La Fondation Reppo obtient un engagement de $20M de la part de Bolts Capital pour une infrastructure de données d’entraînement pour l’IA

Message de Gate News, 23 avril — La Fondation Reppo a annoncé avoir reçu un engagement de financement stratégique de $20 million de la part de Bolts Capital afin de faire avancer le développement du protocole et l’expansion de l’écosystème, avec un accent sur la construction d’une infrastructure de données d’entraînement pour l’IA alimentée par des marchés de prédiction. Le cœur de Reppo's

GateNewsIl y a 4h

L’UE va rédiger des lignes directrices exigeant que Google fournisse aux applications d’IA tierces un accès Android équivalent à celui de Gemini

Message de Gate News, 23 avril — L’Union européenne va rédiger des lignes directrices exigeant que Google fournisse à ChatGPT et Claude le même accès aux fonctionnalités sur Android que celui que reçoit Gemini, selon des sources du marché. La mesure vise à s’assurer que les applications d’IA tierces disposent d’autorisations et de capacités équivalentes sur la plateforme Android et

GateNewsIl y a 4h

Cluster Protocol lève $5M de financement, DAO5 mène le tour

Message des Gate News, 23 avril — Cluster Protocol, une entreprise d’infrastructures Web3 et de deep tech IA, a annoncé l’aboutissement d’un tour de financement de $5 millions mené par DAO5, avec la participation de Paper Ventures, JPEG Trading et Mapleblock Capital. Le financement total de l’entreprise à ce jour atteint 7,75 millions de dollars

GateNewsIl y a 5h

Le président des Émirats arabes unis discute des opportunités en matière d’IA et d’espace avec Musk et Fink

Message de Gate News, 23 avril — Le président des Émirats arabes unis, le cheikh Mohamed bin Zayed Al Nahyan, s’est entretenu avec le fondateur de SpaceX, Elon Musk, et avec le président de BlackRock, Larry Fink, au sujet d’opportunités potentielles dans l’intelligence artificielle et le secteur spatial. Selon les Émirats arabes unis

GateNewsIl y a 5h
Commentaire
0/400
CheckTheBlockchainBeforevip
· Il y a 2h
La distillation / imitation du modèle coûte en réalité très peu, le code fermé ne peut pas l'empêcher, cela augmente au maximum la barrière d'entrée.
Voir l'originalRépondre0
GateUser-1bc81bb2vip
· Il y a 2h
Je suis plus préoccupé par la chaîne de preuve : s'agit-il spécifiquement de la fuite de poids, de la récupération via API, ou du « miroir » côté données d'entraînement ?
Voir l'originalRépondre0
NoSleepBridgevip
· Il y a 2h
Ne vous concentrez pas seulement sur la « copie », de nombreux modèles ont des capacités qui convergent déjà, la pipeline de données et la commercialisation sont en réalité la véritable barrière.
Voir l'originalRépondre0
DustyAlphavip
· Il y a 2h
On dirait que la compétition en intelligence artificielle va directement s'inscrire dans la narration de la sécurité nationale.
Voir l'originalRépondre0
CapitalFlowInATeacupvip
· Il y a 2h
Une fois que l'IA entre dans un mode de « course aux armements », l'innovation s'accélère, mais les développeurs ordinaires pourraient se retrouver pris au milieu, ce qui est le plus difficile.
Voir l'originalRépondre0
0xNapvip
· Il y a 2h
Ne serait-ce pas une occasion de promouvoir davantage la localisation de la puissance de calcul et des restrictions sur les puces ? La logique est plutôt cohérente.
Voir l'originalRépondre0
GateUser-99725296vip
· Il y a 2h
La tension entre la Chine et les États-Unis ne cesse de s'intensifier, et il est probable que les projets transfrontaliers Web3+AI deviennent encore plus difficiles à conformer.
Voir l'originalRépondre0
LendingRateAnxietyvip
· Il y a 2h
Il est inévitable que les modèles d'IA soient copiés, la clé étant de savoir qui sera le plus rapide : la puissance de calcul, les données ou la mise en œuvre pratique.
Voir l'originalRépondre0