Message de Gate News, 29 avril — Les chercheurs d’OpenAI Sébastien Bubeck et Ernest Ryu affirment que les systèmes d’IA pourraient accomplir la plupart des travaux de recherche réalisés par des humains dans les deux prochaines années, en présentant les mathématiques comme une mesure claire des progrès de l’IA. Contrairement aux tests de performance vagues, les problèmes mathématiques offrent une vérification précise : les réponses sont soit correctes, soit incorrectes, sans place pour l’ambiguïté.
Bubeck a noté que la vraie « pensée » de l’IA exige de survivre à de longues chaînes de raisonnement. Une seule erreur dans un argument en plusieurs étapes fait s’effondrer toute la démonstration, ce qui rend la détection et la correction des erreurs au cours du processus l’objectif ultime pour les modèles avancés. Les laboratoires internes d’OpenAI ont déjà généré plus de dix tout nouveaux théorèmes, publiables dans des revues de pointe de combinatoire, démontrant que l’IA produit désormais un travail réellement original et novateur, au-delà du simple fait de recombiner des articles existants.
Cependant, des percées scientifiques durables exigent une attention constante sur des semaines de tests. Les systèmes actuels nécessitent encore une supervision humaine stricte pour guider et vérifier chaque changement de direction. Bubeck utilise le « temps d’AGI » pour mesurer la durée pendant laquelle un modèle peut imiter de manière autonome la pensée humaine ; les systèmes actuels fonctionnent à peu près de quelques jours à une semaine, l’objectif de l’industrie étant des semaines ou des mois pour permettre un travail autonome dans des domaines comme la biologie.
La mémoire à long terme est essentielle pour ce futur. Les fenêtres de discussion standard limitent la profondeur — des preuves mathématiques complexes dépassent souvent 50 pages — tandis que les dépôts de code montrent comment des sessions de travail prolongées permettent un traitement de problèmes plus approfondi. À mesure que l’IA gagne en indépendance et en mémoire, l’expertise humaine devient plus précieuse, pas moins. Les travailleurs doivent conserver les connaissances fondamentales approfondies pour contester et vérifier les réponses de la machine, et les organisations devront mettre en place de nouveaux filtres automatisés et systèmes de réputation pour maintenir la confiance face à un flot de recherches assistées par l’IA.
Articles similaires
La plateforme d’IA Certifyde lève $2M en financement de démarrage avec le PDG de Ripple Brad Garlinghouse
DeepSeek lance une fonctionnalité de reconnaissance d’images en tests bêta
Anthropic lance 8 connecteurs d’outils créatifs pour Claude, dont Blender, Adobe, Autodesk
La Maison-Blanche contourne l’évaluation des risques du Pentagone pour déployer le modèle Mythos d’Anthropic le 29 avril
Cognizant pour acquérir Astreya pour $600M afin d’étendre son activité d’infrastructure IA
30 plugins malveillants sur ClawHub déguisés en outils d’IA, téléchargés plus de 9 800 fois