Message de Gate News, 29 avril — Les poids du modèle flash Ling-2.6 d’Ant Group sont désormais open source, alors qu’ils n’étaient auparavant disponibles que via une API. Le modèle présente 104 milliards de paramètres au total, 7,4 milliards activés par inférence, une fenêtre de contexte de 256K et une licence MIT. Des versions de précision BF16, FP8 et INT4 sont disponibles sur HuggingFace et ModelScope.
Ling-2.6-flash introduit des améliorations de l’attention linéaire hybride par rapport à Ling 2.0, en passant de la GQA originale à une architecture hybride 1:7 MLA plus Lightning Linear combinée à un MoE hautement clairsemé. L’efficacité de l’inférence dépasse nettement celle des modèles comparables : la vitesse de génération maximale atteint 340 jetons/s sur 4 GPU H20, avec un débit de préremplissage et de décodage environ 4 fois plus élevé que celui des modèles open source comparables. Les benchmarks liés aux agents montrent de solides performances : BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval et PinchBench atteignent ou se rapprochent des niveaux SOTA. Sur l’ensemble de la suite de benchmarks Artificial Analysis, la consommation totale de jetons n’est que de 15 millions. Sur AIME 2026, le modèle a obtenu 73,85%.
Le site officiel d’Ant Group répertorie également la version phare Ling-2.6-1T (à mille milliards de paramètres) et la version allégée Ling-2.6-mini (légère), bien que, au moment de la publication, leurs poids restent non publiés sur HuggingFace, seuls les modèles de la série flash étant disponibles au téléchargement.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Rapport de recherche Crypto de a16z : le taux d’exploitation des vulnérabilités DeFi par des agents IA atteint 70%
Selon le rapport de recherche publié par a16z Crypto le 29 avril, sous condition doter les agents IA de connaissances structurées propres à un domaine, le taux de réussite de la reproduction d’une faille de manipulation du prix de l’Ethereum atteint 70 % ; dans un environnement bac à sable sans aucune connaissance de domaine, le taux de réussite n’est que de 10 %. Le rapport enregistre également des cas où des agents IA contournent de manière indépendante les limites du bac à sable pour accéder à des informations sur les transactions futures, ainsi que des schémas de défaillance systématiques lorsque les agents parviennent à établir des plans d’attaque multi-étapes et rentables.
MarketWhisperIl y a 19m
Les modèles d’OpenAI migreront progressivement vers la puce Trainium sur mesure d’Amazon, déclare Altman — « Je m’y réjouis »
Message de Gate News, 29 avril — Les modèles d’OpenAI qui tournent sur Amazon Web Services’ Bedrock migreront progressivement vers Trainium, la puce IA conçue sur mesure par Amazon, d’après des remarques récentes du PDG d’OpenAI Sam Altman et de responsables d’AWS. À l’heure actuelle, les modèles fonctionnent dans un environnement mixte en utilisant à la fois des GPU et des Tr
GateNewsIl y a 1h
Altman : Une tarification par jetons appelée à devenir obsolète tandis que GPT-5.5 se tourne vers l’exécution des tâches plutôt que le nombre de jetons
Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview accordée à Ben Thompson sur Stratechery que la tarification basée sur des jetons n’est pas un modèle viable à long terme pour les services d’IA. En prenant GPT-5.5 comme exemple, Altman a noté que même si le prix par jeton est nettement plus élevé que celui de GPT-5.4, le modèle utilise bien moins de jetons pour accomplir la même tâche, ce qui signifie que les clients ne se soucient pas du nombre de jetons : ils ne se soucient que de savoir si la tâche est accomplie et du coût total.
GateNewsIl y a 1h
Sam Altman publie des captures d’écran du double mode de Codex, séparant officiellement les fonctions bureau et programmation
Capture d’écran et déclaration publiées sur la plateforme X le 29 avril par Sam Altman, PDG d’OpenAI. Codex est en train de lancer une nouvelle interface de guidage ; au moment de la première connexion, les utilisateurs doivent choisir entre deux modes : Excelmogging et Codemaxxing. Les utilisateurs actifs hebdomadaires de Codex dépassent actuellement 4 millions, et les cas d’utilisation se sont étendus de la génération de code à des usages non techniques.
MarketWhisperIl y a 1h
Codex d’OpenAI lance une interface à deux modes : Excelmogging pour le travail de bureau, Codemaxxing pour la programmation
Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a annoncé aujourd’hui sur X une interface Codex repensée, avec deux modes distincts pour les utilisateurs. « Excelmogging » cible les tâches bureautiques quotidiennes grâce à une interface simplifiée et au slogan « Same tools, simpler interface, » avec des tâches d’exemple comme
GateNewsIl y a 2h
Média américain : un projet de décret présidentiel de la Maison-Blanche autorise le modèle Anthropic Mythos à entrer dans le gouvernement
Selon des informations relayées par des personnes au fait des dossiers, citées par Axios le 28 avril, la Maison-Blanche est en train d’élaborer des lignes directrices autorisant les organismes fédéraux à contourner l’appréciation des risques liés à la chaîne d’approvisionnement d’Anthropic (SCRD) et à introduire de nouveaux modèles à des fins gouvernementales, dont les modèles de Mythos d’Anthropic. À ce sujet, la Maison-Blanche a publié une déclaration officielle indiquant que toute déclaration de politique serait directement publiée par le président, et que toute autre affirmation n’est que spéculation.
MarketWhisperIl y a 2h