Message d’actualité de Gate, 24 avril — DeepSeek a publié la série V4 de modèles open-source sous la licence MIT, avec des poids désormais disponibles sur Hugging Face et ModelScope. La série comprend deux modèles (MoE) de type mixture-of-experts : V4-Pro avec 1,6 billion de paramètres au total et 49 milliards activés par jeton, et V4-Flash avec 284 milliards de paramètres au total et 13 milliards activés par jeton. Les deux prennent en charge une fenêtre de contexte d’1 million de jetons.
L’architecture présente trois mises à niveau clés : un mécanisme d’attention hybride combinant l’attention clairsemée compressée (CSA) et l’attention fortement compressée (HCA) qui réduit considérablement la surcharge pour les longs contextes — pour V4-Pro, les FLOPs d’inférence pour un contexte de 1M ne sont que 27 % de ceux de V3.2, et le cache KV (VRAM destiné au stockage d’informations historiques pendant l’inférence) n’est que 10 % de celui de V3.2 ; des hyperconnexions à contraintes de manifold (mHC) remplaçant les connexions résiduelles traditionnelles afin d’améliorer la stabilité de la propagation du signal entre les couches ; et l’optimiseur Muon pour une convergence d’entraînement plus rapide. Le préentraînement a utilisé plus de 32 trillions de jetons de données.
Le post-entraînement emploie une approche en deux étapes : d’abord entraîner des experts spécifiques au domaine via un fine-tuning supervisé (SFT) et l’apprentissage par renforcement GRPO, puis les fusionner en un seul modèle grâce à une distillation en ligne. V4-Pro-Max (plus haut mode d’inférence) affirme être le modèle open-source le plus puissant, avec des benchmarks de codage de premier plan et des écarts nettement réduits par rapport aux modèles de pointe propriétaires sur les tâches de raisonnement et d’agents. V4-Flash-Max atteint des performances de raisonnement de niveau Pro avec un budget de calcul suffisant, mais est limité par l’échelle des paramètres sur les tâches de connaissance pure et les tâches d’agents complexes. Les poids sont stockés dans une précision mixte FP4+FP8.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
L’ingénieur d’OpenAI Clive Chan conteste les recommandations matérielles de la V4, citant des erreurs et un manque de clarté par rapport à la V3
Message de Gate News, 24 avril — L’ingénieur d’OpenAI Clive Chan a formulé des objections détaillées au chapitre de recommandations matérielles du rapport technique V4, le qualifiant de « remarquablement médiocre et sujet aux erreurs » par rapport à la version V3 acclamée. Les recommandations matérielles de la V3, qui comprenaient des sessions de Q&A
GateNewsIl y a 30m
Naver lance la bêta d’AI Tab alors que Google Gemini entre sur le marché de la recherche en Corée du Sud
Message de Gate News, 24 avril — Naver a annoncé le lancement d’une bêta fermée pour AI Tab, sa nouvelle fonctionnalité de recherche conversationnelle, après le lancement par Google de Gemini dans Chrome en Corée du Sud.
AI Tab apparaîtra aux côtés des onglets de recherche existants de Naver, offrant aux utilisateurs un espace dédié aux requêtes conversationnelles
GateNewsIl y a 42m
L’embauche dans l’ingénierie IA en Inde explose de 59,5 % et s’étend au-delà des pôles technologiques
Le rapport sur le marché du travail de l’IA de LinkedIn 2026, publié le 24 avril, a révélé que les embauches d’ingénieurs en IA en Inde ont augmenté de 59,5% d’une année sur l’autre, marquant le rythme le plus rapide parmi les marchés étudiés par la plateforme.
La croissance a été portée par une demande qui s’est étendue au-delà des centres technologiques établis. Des villes comprenant
CryptoFrontierIl y a 1h
La Commonwealth Bank supprime 120 emplois dans le cadre de l’expansion de l’IA
La banque Commonwealth Bank of Australia a annoncé qu'elle allait supprimer environ 120 emplois, alors que la plus grande banque du pays examine ses postes et étend son utilisation de l'intelligence artificielle, selon Bloomberg. Les suppressions comprennent 43 postes chez Bankwest en Australie-Occidentale, avec six postes touchés par l'automatisation. Ceci est une
CryptoFrontierIl y a 1h
Cursor révèle les raisons derrière l’entraînement de XAI : la puissance de calcul est bloquée, SpaceX détient séparément une option d’achat de 60 milliards de dollars
Anysphere annonce que Cursor s’entraînera avec xAI en utilisant l’infrastructure Colossus pour entraîner de nouveaux modèles afin de dépasser le goulot de la puissance de calcul ; SpaceX a proposé une option d’acquisition de 60 milliards de dollars (acquisition globale possible avant 2026), sinon il paiera environ 10 milliards de dollars en guise d’indemnité de compensation pour la coopération. Les deux transactions sont menées en parallèle, redéfinissant qui peut entraîner Cursor et qui peut racheter Cursor ; Cursor autorise toujours de nombreux backends de modèles, mais l’évolution à long terme dépend de la décision de SpaceX d’exercer son droit d’acquisition.
ChainNewsAbmediaIl y a 1h
Évaluation du marché secondaire d’Anthropic dépasse 1 billion de dollars : Forge Global dépasse OpenAI de 880 milliards
Selon le rapport de Decrypt, l’évaluation secondaire d’Anthropic de Forge Global est d’environ 1 000 milliards de dollars, celle d’OpenAI d’environ 880 milliards de dollars, et le marché secondaire affiche pour la première fois une inversion de tendance en tête. Le revenu annuel récurrent (ARR) d’Anthropic est passé d’environ 9 milliards à la fin de 2025 à environ 30 milliards en mars 2026, une croissance de 233 % sur trois mois, qui fait grimper la valorisation en capital-investissement. Les valorisations secondaires diffèrent des financements de première ronde, reflétant la confiance dans les sorties ; à l’avenir, l’on continue de regarder quatre axes : la technologie, la politique, le business et le récit.
ChainNewsAbmediaIl y a 1h