
Tencent a ouvert Hy3 en version d’aperçu (large modèle de langage) de manière officielle sur GitHub, Hugging Face et ModelScope le 23 avril, et l’a également mise à disposition sous forme de service d’API payant sur Tencent Cloud. Selon un rapport de Decrypt daté du 24 avril, la version d’aperçu de Hy3 a démarré l’entraînement à la fin du mois de janvier et, à la date de publication, il ne s’est pas écoulé plus de trois mois.
D’après l’annonce officielle de Tencent, la version d’aperçu de Hy3 est une architecture de type “experts mixtes” : elle dirige chaque requête vers un sous-ensemble de réseaux d’experts dédié au lieu d’activer tous les paramètres de manière simultanée, afin de réduire les besoins de calcul.
Le modèle phare de la génération précédente, Hy2, comptait plus de 400 milliards de paramètres. Tencent a déclaré que 295 milliards constituent un réglage optimisé pour l’efficacité d’inférence ; au-delà de ce volume, l’utilité marginale de l’ajout de paramètres ne vaut plus le coût.
Selon le rapport de Decrypt, le travail d’entraînement de Hy3 est mené par le scientifique en chef de l’IA chez Tencent, Yao Shunyu. Après avoir achevé en février 2026 la reconstruction des infrastructures de base pour le pré-entraînement et l’empilement de l’apprentissage par renforcement, l’entraînement de Hy3 a officiellement commencé.
D’après les résultats de tests de référence divulgués par l’annonce officielle de Tencent :
SWE-bench Verified (correction de vraies erreurs de code sur GitHub) : Hy3 version d’aperçu 74,4 %, Hy2 53,0 % ; sur la même période GLM-5 77,8 %, Kimi-K2.5 76,8 %, Claude Opus 4,6 80,8 %
Terminal-Bench 2.0 (exécution de tâches à partir de la ligne de commande) : Hy3 version d’aperçu 54,4 %, Hy2 23,2 %
BrowseComp (tâches complexes de recherche web) : Hy3 version d’aperçu 67,1 %, Hy2 28,7 %
WideSearch : Hy3 version d’aperçu 70,2 %, supérieur à GLM-5 et Kimi-K2.5, inférieur à Claude Opus 4,6 de 77,2 %
Examen d’admission au doctorat en mathématiques de l’Université Tsinghua (printemps 2026) : moyenne sur trois sessions (avg@3) 88,4, le meilleur score parmi les modèles chinois
Olympiade chinoise de biologie pour lycéens 2025 (CHSBO 2025) : 87,8 points, le meilleur score parmi les modèles chinois de même catégorie
Selon l’annonce officielle de Tencent, la version d’aperçu de Hy3 a été déployée sur les plateformes suivantes : Yuanbao, QQ, Tencent Docs, CodeBuddy, WorkBuddy et OpenClaw.
La tarification des API sur le cloud de Tencent est de 0,18 USD pour chaque million de jetons d’entrée et de 0,59 USD pour chaque million de jetons de sortie ; le tarif mensuel de départ du plan de marquage personnel est d’environ 4,10 USD. L’annonce de Tencent indique également qu’avec Hy3, le délai du premier marquage sur CodeBuddy et WorkBuddy a été réduit de 54 % par rapport à la génération précédente, que le temps de génération end-to-end a été réduit de 47 %, et que le flux de travail d’agent de 495 étapes a été mené à bien avec succès.
D’après l’annonce officielle de Tencent et le rapport de Decrypt du 24 avril 2026, la version d’aperçu de Hy3 a été open source le 23 avril 2026 (jeudi) sur GitHub, Hugging Face et ModelScope ; en parallèle, Tencent Cloud fournit également un service d’API payant.
D’après l’annonce officielle de Tencent, la note SWE-bench Verified passe de 53,0 % pour Hy2 à 74,4 % ; BrowseComp passe de 28,7 % à 67,1 % ; Terminal-Bench 2.0 passe de 23,2 % à 54,4 %.
D’après la tarification officielle sur Tencent Cloud, les API de la version d’aperçu de Hy3 démarrent à 0,18 USD pour chaque million de jetons d’entrée et à 0,59 USD pour chaque million de jetons de sortie ; le tarif mensuel de départ du plan de marquage personnel est d’environ 4,10 USD.
Articles similaires
La Chine et les États-Unis se font face dans un duel sur l’IA : accusations de distillation de modèles et restrictions d’investissement
Google prévoit d’investir jusqu’à $40 milliards dans Anthropic et s’engage à fournir plus de 5 gigawatts de puissance de calcul
Le régulateur suisse FINMA met en garde : l’outil d’IA Mythos d’Anthropic présente un risque financier
DeepSeek V4 est lancé avec une fenêtre de contexte de 1M ; les puces Huawei Ascend et Cambricon atteignent une compatibilité totale
Fere AI clôture un tour de financement de 1,3 M$ mené par Ethereal Ventures
Anthropic annule les changements de Claude Code après une baisse de qualité ; tous les correctifs sont terminés