Gambit de l'IA Open Source de l'Amérique : Deux laboratoires, une question – Les États-Unis peuvent-ils rivaliser ?

Le hub d'art, de mode et de divertissement de Decrypt.


Découvrez SCENE

Deux laboratoires américains d'IA ont publié des modèles open-source cette semaine, chacun adoptant des approches radicalement différentes pour résoudre le même problème : comment concurrencer la domination de la Chine dans les systèmes d'IA accessibles au public.

Deep Cogito a lancé Cogito v2.1, un modèle massif de 671 milliards de paramètres que son fondateur, Drishan Arora, qualifie de “meilleur LLM à poids ouverts par une entreprise américaine.”

Pas si vite, a rétorqué l'Allen Institute for AI, qui vient de lancer Olmo 3, le présentant comme “le meilleur modèle de base entièrement ouvert.” Olmo 3 se vante d'une transparence totale, y compris de ses données d'entraînement et de son code.

Ironiquement, le modèle phare de Deep Cognito est construit sur une base chinoise. Arora a reconnu sur X que Cogito v2.1 “forke le modèle de base Deepseek sous licence ouverte de novembre 2024.”

Cela a suscité des critiques et même un débat sur la question de savoir si l'ajustement d'un modèle chinois compte comme un progrès de l'IA américaine, ou si cela prouve simplement à quel point les laboratoires américains ont pris du retard.

pic.twitter.com/N7x1eEsjhF

— Luca Soldaini 🎀 (@soldni) 19 novembre 2025


meilleur LLM open-weight par une entreprise américaine

c'est cool mais je ne suis pas sûr de l'importance de la partie “US” puisque le modèle de base est deepseek V3

— elie (@eliebakouch) 19 novembre 2025


Quoi qu'il en soit, les gains d'efficacité que Cogito montre par rapport à DeepSeek sont réels.

Deep Cognito affirme que Cogito v2.1 produit des chaînes de raisonnement 60% plus courtes que DeepSeek R1 tout en maintenant une performance compétitive.

Utilisant ce qu'Arora appelle “Distillation et Amplification Itérées” — enseignant aux modèles à développer une meilleure intuition grâce à des boucles d'auto-amélioration — la startup a formé son modèle en seulement 75 jours sur l'infrastructure de RunPod et Nebius.

Si les références sont vraies, ce serait le LLM open-source le plus puissant actuellement maintenu par une équipe américaine.

Pourquoi c'est important

Jusqu'à présent, la Chine a été à l'avant-garde de l'IA open-source, et les entreprises américaines s'appuient de plus en plus—silencieusement ou ouvertement—sur des modèles de base chinois pour rester compétitives.

Cette dynamique est risquée. Si les laboratoires chinois deviennent la plomberie par défaut pour l'IA ouverte dans le monde entier, les startups américaines perdent leur indépendance technique, leur pouvoir de négociation et leur capacité à façonner les normes de l'industrie.

L'IA à poids ouvert détermine qui contrôle les modèles bruts dont dépendent tous les produits en aval.

En ce moment, les modèles open source chinois (DeepSeek, Qwen, Kimi, MiniMax) dominent l'adoption mondiale car ils sont bon marché, rapides, très efficaces et constamment mis à jour. Image : Artificialanalysis.ai

De nombreuses startups américaines s'appuient déjà sur eux, même si elles évitent publiquement de l'admettre.

Cela signifie que les entreprises américaines construisent des activités sur des propriétés intellectuelles étrangères, des pipelines de formation étrangers et des optimisations matérielles étrangères. Stratégiquement, cela place l'Amérique dans la même position qu'elle a déjà connue avec la fabrication de semi-conducteurs : de plus en plus dépendante de la chaîne d'approvisionnement de quelqu'un d'autre.

L'approche de Deep Cogito—commençant par un fork de DeepSeek—montre l'avantage ( d'une itération rapide ) et l'inconvénient ( d'une dépendance ).

L'approche de l'Allen Institute—construire Olmo 3 avec une transparence totale—montre l'alternative : si les États-Unis veulent un leadership en IA ouvert, ils doivent reconstruire la pile eux-mêmes, des données aux recettes d'entraînement en passant par les points de contrôle. C'est laborieux et lent, mais cela préserve la souveraineté sur la technologie sous-jacente.

En théorie, si vous aimiez déjà DeepSeek et l'utilisiez en ligne, Cogito vous donnera de meilleures réponses la plupart du temps. Si vous l'utilisez via l'API, vous serez deux fois plus heureux, car vous paierez moins d'argent pour générer de bonnes réponses grâce à ses gains d'efficacité.

L'Institut Allen a pris la direction opposée. Toute la famille des modèles Olmo 3 arrive avec Dolma 3, un ensemble de données d'entraînement de 5,9 trillions de jetons construit de zéro, ainsi que le code complet, les recettes et les points de contrôle de chaque étape de formation.

L'organisation à but non lucratif a publié trois variantes de modèle—Base, Think et Instruct—avec 7 milliards et 32 milliards de paramètres.

« La véritable ouverture en IA ne concerne pas seulement l'accès, mais aussi la confiance, la responsabilité et le progrès partagé », a écrit l'institut.

Olmo 3-Think 32B est le premier modèle de raisonnement entièrement ouvert à cette échelle, entraîné sur environ un-sixième des tokens de modèles comparables comme Qwen 3, tout en atteignant des performances compétitives. Image : Ai2

Deep Cognito a sécurisé $13 millions de dollars lors d'un financement initial dirigé par Benchmark en août. La startup prévoit de lancer des modèles de pointe jusqu'à 671 milliards de paramètres entraînés sur “beaucoup plus de calcul avec de meilleures ensembles de données.”

Pendant ce temps, Nvidia a soutenu le développement d'Olmo 3, avec la vice-présidente Kari Briski l'appelant essentiel pour “les développeurs afin de faire évoluer l'IA avec des modèles ouverts, construits aux États-Unis.”

L'institut s'est entraîné sur les clusters GPU H100 de Google Cloud, atteignant des besoins en calcul 2,5 fois inférieurs à ceux de Llama 3.1 8B de Meta.

Cogito v2.1 est disponible pour des tests en ligne gratuits ici. Le modèle peut être téléchargé ici, mais attention : il nécessite une carte très puissante pour fonctionner.

Olmo est disponible pour des tests ici. Les modèles peuvent être téléchargés ici. Ceux-ci sont plus conviviaux pour les consommateurs, selon celui que vous choisissez.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)