DeepSeek, une entreprise d’intelligence artificielle basée à Hangzhou, a ajouté des capacités de reconnaissance d’images et de vidéos à son chatbot principal grâce à une nouvelle fonctionnalité de « mode de reconnaissance d’image », le rapprochant ainsi des autres grands chatbots d’IA. Le lancement coïncidait avec une étape importante dans la chaîne d’approvisionnement en puces de Chine, alors que quatre entreprises nationales de semi-conducteurs — Huawei Ascend, Cambricon, Hygon Information et Moore Threads — ont confirmé, le même jour, la prise en charge du tout nouveau modèle phare de DeepSeek, DeepSeek-V4, marquant un changement par rapport aux périodes d’adaptation qui, auparavant, s’étendaient sur plusieurs mois, typiques en dehors de l’écosystème Nvidia.
DeepSeek a discrètement déployé le mode de reconnaissance d’image en même temps que deux autres modes lancés plus tôt dans le mois : « expert » et « flash ». Selon Chen Xiaokang, qui dirige l’équipe multimodale de DeepSeek, l’outil a d’abord été testé auprès d’un petit groupe d’utilisateurs, sur le site web et sur l’application mobile. Chen Deli, chercheur senior au sein de l’entreprise, a célébré le lancement avec une publication faisant référence au logo de la société : « La petite baleine peut maintenant voir ».
La fonctionnalité d’image et de vidéo est arrivée quelques jours seulement après que DeepSeek a publié un aperçu de DeepSeek-V4 et a mis les poids du modèle à disposition pour un téléchargement et une utilisation publics. V4 est structuré comme deux modèles distincts : DeepSeek-V4-Pro, avec 1,6 trillion de paramètres, conçu pour des raisonnements complexes et des workflows automatisés multi-étapes, et DeepSeek-V4-Flash, optimisé pour gérer de grands volumes de requêtes à moindre coût. Les deux modèles prennent en charge une fenêtre de contexte d’un million de jetons et utilisent une conception d’attention hybride que l’entreprise affirme réduire la puissance de calcul et les besoins en mémoire pendant l’inférence.
Ce qui a retenu l’attention de l’industrie n’était pas seulement le modèle lui-même, mais le support matériel coordonné démontré le jour de la sortie de V4. Huawei Ascend a confirmé la compatibilité avec ses puces A2, A3 et 950, l’Ascend 950 utilisant des processus de calcul fusionnés et des flux de traitement parallèles pour accélérer l’inférence pour la fois DeepSeek-V4-Pro et DeepSeek-V4-Flash. Cambricon a terminé son adaptation en utilisant le framework open-source d’inférence vLLM et a publié son code sur GitHub. Hygon Information a mené une optimisation approfondie du modèle sur sa plateforme DCU afin d’assurer une transition fluide de la sortie du modèle au déploiement. Moore Threads s’est associé à l’Académie de l’intelligence artificielle de Pékin pour exécuter V4 sur sa carte MTT S5000 en utilisant la pile logicielle FlagOS.
Ce support le jour même, sur plusieurs chipsets, représente un écart par rapport aux schémas historiques. Auparavant, le matériel en dehors de l’écosystème Nvidia nécessitait généralement des mois pour prendre en charge les nouveaux modèles majeurs. Les observateurs du secteur notent que parvenir à une compatibilité sur quatre chipsets nationaux différents le jour du lancement signale un véritable changement dans la maturité de l’infrastructure chinoise des semi-conducteurs et de l’IA.
La signification plus large du lancement de DeepSeek dépasse les réalisations techniques individuelles. En permettant à V4 de fonctionner nativement sur plusieurs puces chinoises simultanément, DeepSeek réduit le risque de dépendance aux restrictions d’exportation qui, historiquement, ont empêché les entreprises chinoises d’accéder aux processeurs américains les plus avancés. L’efficacité des coûts reste au cœur de la stratégie de DeepSeek — l’entreprise a donné la priorité à la réduction des coûts de fonctionnement du modèle, permettant aux entreprises de construire des systèmes automatisés sans dépenses de calcul prohibitifs.
Les observateurs du secteur décrivent cette publication comme le reflet de la maturation d’une chaîne d’approvisionnement entière plutôt que d’une seule percée technologique. La coordination entre DeepSeek, les fabricants de puces et les frameworks logiciels montre un développement d’écosystème intégré. Cette trajectoire suggère que le paysage concurrentiel de l’IA évolue : l’accent se déplace d’une sophistication de modèle individuelle vers la capacité à maintenir, sur le long terme, des systèmes complets, rentables et indépendants.
Quelles nouvelles capacités DeepSeek a-t-il ajoutées à son chatbot ?
DeepSeek a ajouté un « mode de reconnaissance d’image » qui permet à son chatbot de comprendre des photos et des vidéos, et pas seulement du texte. Cette fonctionnalité a d’abord été testée auprès d’un petit groupe d’utilisateurs, à la fois sur le site web et sur l’application mobile, ce qui place les capacités de DeepSeek en ligne avec celles d’autres grands chatbots d’IA offrant des capacités similaires.
Quelles entreprises chinoises de puces ont pris en charge DeepSeek-V4 le jour du lancement ?
Quatre entreprises chinoises de puces ont confirmé la prise en charge le jour même de DeepSeek-V4 : Huawei Ascend (avec les puces A2, A3 et 950), Cambricon, Hygon Information et Moore Threads. Cette compatibilité le jour même sur plusieurs chipsets était auparavant rare en dehors de l’écosystème Nvidia, nécessitant généralement des mois de travail d’adaptation.
Quelles sont les deux versions de DeepSeek-V4 et en quoi diffèrent-elles ?
DeepSeek-V4-Pro présente 1,6 trillion de paramètres et est conçu pour des raisonnements complexes et des workflows automatisés multi-étapes, tandis que DeepSeek-V4-Flash est optimisé pour gérer de grands volumes de requêtes à moindre coût. Les deux prennent en charge une fenêtre de contexte d’un million de jetons et utilisent une conception d’attention hybride pour réduire les besoins en puissance de calcul et en mémoire.