Sam Altman publie des captures d’écran du double mode de Codex, séparant officiellement les fonctions bureau et programmation

Codex雙模式

Le CEO d’OpenAI, Sam Altman, a publié le 29 avril sur la plateforme X des captures d’écran et une déclaration indiquant que Codex lance une nouvelle interface de démarrage. Lors de la première connexion, les utilisateurs doivent choisir entre deux modes : Excelmogging et Codemaxxing. Les utilisateurs actifs hebdomadaires de Codex dépassent actuellement 4 millions. Les cas d’usage se sont étendus de la génération de code à des usages non techniques.

Conception à double mode de la nouvelle interface de Codex

Codex新版介面

(Source : X de Sam Altman)

D’après la capture d’écran publiée par Sam Altman sur X, la nouvelle interface de démarrage de Codex répartira les utilisateurs en deux parcours. Le mode « Excelmogging » adopte une interaction plus simple, destinée aux utilisateurs non programmeurs pour des scénarios de bureau du quotidien ; le mode « Codemaxxing » conserve la conception initiale centrée sur la génération de code et les tâches d’ingénierie, destinée aux développeurs professionnels.

Sam Altman a également indiqué dans un autre billet sur la plateforme X : « Je suis en train de passer au sommeil polyphasique (polyphasic sleep), car le GPT-5.5 dans Codex est trop exceptionnel, je ne peux pas dormir longtemps sans que cela retarde le travail. »

OpenAI et NVIDIA collaborent pour déployer Codex

D’après la déclaration publique de Sam Altman sur X, OpenAI collabore avec NVIDIA pour déployer Codex dans l’ensemble de l’entreprise. Altman a déclaré : « Nous collaborons avec NVIDIA, nous avons essayé une toute nouvelle façon de promouvoir Codex dans toute l’entreprise. En voyant que cela fonctionne avec succès, c’est vraiment formidable. »

D’après la présentation publique de NVIDIA, des ingénieurs de NVIDIA ont utilisé des applications Codex équipées de GPT-5.5 pendant plusieurs semaines et ont rapporté une amélioration significative de la productivité ; ce déploiement est basé sur l’architecture en rack NVIDIA GB200 NVL72.

Tendance du secteur : les agents de programmation passent à un mode double

Selon les informations de lancement produit publiées par plusieurs entreprises, l’ajustement de l’interface de Codex est l’une des tendances du secteur selon lesquelles les outils d’IA de programmation basculent vers un mode double. Anthropic a réparti ses produits en deux gammes : Claude Code (programmation) et Co Work (travail quotidien) ; ByteDance a également mis en place, au sein de son TRAE Solo, deux modes de travail : programmation et travail quotidien.

Questions fréquentes

Quelles sont les deux appellations de modes de la nouvelle interface de Codex et comment sont-elles positionnées ?

D’après la capture d’écran publiée par Sam Altman sur X, le mode « Excelmogging » est destiné aux scénarios de bureau du quotidien et se positionne comme une interface plus simple ; le mode « Codemaxxing » est destiné aux développeurs professionnels, avec un focus sur la génération de code et les tâches d’ingénierie.

La collaboration entre OpenAI et NVIDIA sur Codex implique quelles architectures techniques ?

D’après la présentation publique de NVIDIA et la déclaration de Sam Altman, cette collaboration utilise l’architecture en rack NVIDIA GB200 NVL72 pour déployer Codex ; après avoir utilisé des applications Codex équipées de GPT-5.5, les ingénieurs de NVIDIA ont rapporté une amélioration significative de la productivité.

En plus de Codex d’OpenAI, quels autres outils d’IA ont également lancé des modes doubles programmation et bureau ?

D’après les informations publiques sur les produits de chaque entreprise, Anthropic a réparti ses produits en deux lignes : Claude Code (programmation) et Co Work (travail quotidien) ; au sein de ByteDance, le TRAE Solo a également mis en place deux modes de travail : programmation et travail quotidien.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Cognition établit Singapour comme siège APAC, vise une expansion régionale

Message de Gate News, 29 avril — Cognition, la startup d’IA pour le codage à l’origine de Devin, a annoncé le 29 avril qu’elle établirait Singapour comme son siège régional Asie-Pacifique afin d’encadrer l’expansion dans toute l’Asie du Sud-Est, l’Australie, l’Inde et la Corée du Sud. Richard Spence dirigera les opérations APAC

GateNewsIl y a 47m

Google et le Pentagone signent un accord confidentiel d’IA, un appel des employés s’y oppose

Selon The Information, dans un article publié le 28 avril, Google a signé un accord, qui lui permet de fournir au Pentagone des modèles d’intelligence artificielle (IA) destinés à des travaux confidentiels. Le New York Times, citant des personnes informées, indique que cet accord permet au ministère de la Défense d’utiliser l’IA de Google à des fins gouvernementales légitimes, dans une nature identique à l’accord de déploiement d’IA confidentielle que le Pentagone a signé le mois dernier avec OpenAI et xAI.

MarketWhisperIl y a 1h

Rapport de recherche Crypto de a16z : le taux d’exploitation des vulnérabilités DeFi par des agents IA atteint 70%

Selon le rapport de recherche publié par a16z Crypto le 29 avril, sous condition doter les agents IA de connaissances structurées propres à un domaine, le taux de réussite de la reproduction d’une faille de manipulation du prix de l’Ethereum atteint 70 % ; dans un environnement bac à sable sans aucune connaissance de domaine, le taux de réussite n’est que de 10 %. Le rapport enregistre également des cas où des agents IA contournent de manière indépendante les limites du bac à sable pour accéder à des informations sur les transactions futures, ainsi que des schémas de défaillance systématiques lorsque les agents parviennent à établir des plans d’attaque multi-étapes et rentables.

MarketWhisperIl y a 1h

Les modèles d’OpenAI migreront progressivement vers la puce Trainium sur mesure d’Amazon, déclare Altman — « Je m’y réjouis »

Message de Gate News, 29 avril — Les modèles d’OpenAI qui tournent sur Amazon Web Services’ Bedrock migreront progressivement vers Trainium, la puce IA conçue sur mesure par Amazon, d’après des remarques récentes du PDG d’OpenAI Sam Altman et de responsables d’AWS. À l’heure actuelle, les modèles fonctionnent dans un environnement mixte en utilisant à la fois des GPU et des Tr

GateNewsIl y a 2h

Altman : Une tarification par jetons appelée à devenir obsolète tandis que GPT-5.5 se tourne vers l’exécution des tâches plutôt que le nombre de jetons

Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview accordée à Ben Thompson sur Stratechery que la tarification basée sur des jetons n’est pas un modèle viable à long terme pour les services d’IA. En prenant GPT-5.5 comme exemple, Altman a noté que même si le prix par jeton est nettement plus élevé que celui de GPT-5.4, le modèle utilise bien moins de jetons pour accomplir la même tâche, ce qui signifie que les clients ne se soucient pas du nombre de jetons : ils ne se soucient que de savoir si la tâche est accomplie et du coût total.

GateNewsIl y a 2h

Le modèle open source Ling-2.6-flash d’Ant Group : 104B de paramètres avec 7,4B actifs, atteint plusieurs repères SOTA

Message de Gate News, 29 avril — Les poids du modèle flash Ling-2.6 d’Ant Group sont désormais open source, alors qu’ils n’étaient auparavant disponibles que via une API. Le modèle présente 104 milliards de paramètres au total, 7,4 milliards activés par inférence, une fenêtre de contexte de 256K et une licence MIT. Des versions en BF16, FP8 et INT4

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire