Microsoft, NVIDIA, Alibaba, Baidu 'go for it', DeepSeek becomes the mainstream configuration.

世链财经_
DEEPSEEK23,24%

DeepSeek continue de balayer le monde entier avec une forte intensité. En une semaine seulement, des géants de la technologie étrangers tels que Microsoft Azure et NVIDIA, ainsi que des fournisseurs de cloud chinois tels qu’Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, ont tous annoncé le lancement du grand modèle DeepSeek, attirant davantage d’utilisateurs avec des offres telles que “zéro code” et des prix très bas.

Depuis 2025, DeepSeek a successivement publié les modèles de langage V3, le modèle d’inférence R1 et le modèle multimodal Janus Pro. En raison de ses performances élevées et de ses avantages en termes de coûts, il a attiré l’attention du marché étranger. En tant que l’un des “mécènes” d’OpenAI, le PDG de Microsoft, Nadella, a vivement salué l’innovation de DeepSeek le 29 janvier, tout en faisant de la publicité pour Microsoft lui-même : le modèle DeepSeek-R1 peut être obtenu via la plateforme d’IA Azure AI Foundry et GitHub de Microsoft, et il est promis qu’il fonctionnera à l’avenir sur des ordinateurs équipés de Copilot+.

Le 30 janvier, Nvidia a également annoncé que le site Web des développeurs de Nvidia a inclus le modèle DeepSeek-R1 dans la rubrique “Modèles les plus populaires”, et qu’il est disponible dans la version de prévisualisation du service micro-NVIDIA NIM. NVIDIA NIM fait partie du service NVIDIA AI Enterprise Edition, et fournit des conteneurs pour les micro-services d’inférence accélérés par GPU en libre-service, pour un déploiement multi-cloud, dans les centres de données et sur les stations de travail, pour les modèles d’IA pré-entraînés et personnalisés.

Bientôt, les principaux fournisseurs chinois de services cloud sur Internet ont commencé à se connecter activement aux modèles de la série DeepSeek et à rivaliser avec de vraies sommes d’argent.

Le 3 février, Alibaba Cloud a annoncé que la galerie de modèles PAI d’Alibaba Cloud prend en charge le déploiement en un clic des modèles DeepSeek-V3 et R1 sur le cloud. Sur cette plateforme, les utilisateurs peuvent réaliser tout le processus, de l’entraînement au déploiement jusqu’à l’inférence, sans code, simplifier le processus de développement de modèles et offrir une expérience de développement et d’application d’IA plus rapide, plus efficace et plus pratique pour les développeurs et les utilisateurs d’entreprise.

Le même jour, la plateforme intelligente Baidu Cloud Qianfan a également lancé officiellement les modèles DeepSeek-R1 et V3, et a lancé des offres à prix très bas, ainsi que des services gratuits pour une durée limitée. Vous pouvez vous connecter à ModelBuilder de Baidu Cloud Qianfan pour une expérience rapide. En même temps, Baidu intègre sa propre technologie de modélisation, telle que l’intégration du modèle DeepSeek dans la chaîne d’inférence de Qianfan, l’intégration de l’opérateur de sécurité du contenu exclusif de Baidu, et renforce ainsi la sécurité du modèle.

Les journalistes ont appris que de nombreuses entreprises chinoises telles que Huawei Cloud, Tencent Cloud, 360 Cyber ​​Security, Cloud Axis Technology ZStack et d’autres ont déjà intégré le modèle DeepSeek, ce qui signifie que le modèle DeepSeek est devenu presque une norme pour les services de plateforme cloud d’intelligence artificielle.

Alors que DeepSeek « monte en flèche » tout au long du processus, l’industrie des grands modèles d’IA entre progressivement dans le « rallye ».

Le 29 janvier, Ali Tongyi Qianwen a lancé le modèle phare Qwen2.5-Max, qui utilise l’architecture MoE (Expert Mixte) à grande échelle, basée sur plus de 20 billions de tokens (unités lexicales) de données pré-entraînées. L’équipe Ali a déclaré que ce modèle présente des performances comparables voire supérieures à DeepSeek V3, GPT-4 et Claude-3.5-Sonnet. Avec l’amélioration continue de la technologie de post-entraînement, la prochaine version devrait atteindre un niveau supérieur.

Le 1er février, OpenAI a lancé o3-mini, le premier modèle d’inférence de petite taille d’OpenAI qui prend en charge les fonctionnalités demandées par les développeurs. Il offre des avantages tels que des coûts réduits, une faible latence et des fonctionnalités telles que les appels de fonctions, le streaming de données et les sorties structurées. Il prend également en charge l’intégration avec la fonction de recherche, ce qui permet de fournir les réponses les plus récentes et de lier des ressources en ligne pertinentes. Après des tests effectués par certains développeurs, il a été constaté que les performances de l’OpenAI o3-mini n’étaient pas nettement meilleures que celles du DeepSeek R1, et que certaines parties étaient encore dépassées par le R1.

(Source: Observer News)

Source: Eastmoney.com

Auteur: Shanghai Observer

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire