Lors du hackathon Autoresearch organisé par Paradigm, un participant qui, pour ainsi dire, « n’a pas conçu de stratégie de ses propres mains » a pourtant fini par remporter le concours. Le lauréat Ryan Li, également PDG de SurfAI, indique que l’ensemble du processus de résolution a été réalisé presque entièrement par l’IA ; lui-même « ne sait même pas comment il a gagné », mais il a néanmoins décroché la première place dans le cadre du Prediction Market Challenge.
Ce concours exige des participants qu’ils conçoivent une stratégie de teneur de marché dans un marché de prédiction binaire simulé, en fournissant de la liquidité dans le carnet d’ordres via des ordres à cours limité, et en trouvant un équilibre de profit entre les « arbitragistes » et le « flux des particuliers ». Le classement final est calculé sur la base du edge moyen (avantage de profit) obtenu sur 200 simulations aléatoires. Le score final de Ryan est de 42,32 $ de mean edge (calculé à partir de la médiane des trois séries de seeds aléatoires) ; après une nouvelle évaluation, il prend la tête du classement.
Recherche automatique par Claude Code + Codex, production de 1 039 stratégies
Contrairement aux stratégies de trading quantitatif traditionnelles ou aux stratégies de market making qui dépendent d’experts humains pour ajuster des paramètres et faire du modeling, Ryan adopte l’approche du « Bitter Lesson » proposée ces dernières années par Rich Sutton : laisser la puissance de calcul et l’ampleur de la recherche battre l’expérience humaine. Il transforme l’ensemble du problème en un processus d’« autoresearch » (recherche automatisée) : plutôt que d’optimiser manuellement, il explore en parallèle l’espace des solutions avec plusieurs agents IA.
Tout au long du processus, il fait tourner entre 8 et 20 agents IA en parallèle (principalement basés sur Claude Code, avec l’aide de Codex). Chaque agent est responsable, de manière autonome, d’hypothèses différentes et d’espaces de paramètres distincts ; il génère continuellement des stratégies, exécute des simulations et renvoie les résultats. Au final, il accumule 1 039 variantes de stratégies, réalise plus de 2 000 évaluations, et génère automatiquement 47 scripts de balayage de paramètres. L’ampleur de la recherche équivaut à comprimer plusieurs semaines d’expérimentations manuelles en quelques heures.
900 lignes de Python générées par l’IA pour un algorithme de market making remportent le hackathon
Au niveau des stratégies, le plan gagnant final est un algorithme de market making d’environ 900 lignes de Python. La logique centrale ne provient pas d’un seul design, mais de l’empilement de plusieurs modules « validés comme efficaces ». On y retrouve notamment : l’évitement des zones de spreads extrêmement étroits qui permettent aux arbitragistes de gagner à coup sûr ; l’estimation du prix réel via la théorie de l’information ; l’ajustement dynamique de la taille des ordres en fonction du risque d’arbitrage ; et le fait d’entrer activement dans la course pour s’emparer de zones à fort profit lorsque le carnet d’ordres de l’adversaire est vidé.
La percée la plus cruciale vient d’un agent IA qui a, une fois pour toutes, « abandonné les stratégies existantes et reparti de zéro ». Lorsque l’optimisation globale stagne autour de +25 edge, cet agent découvre de façon indépendante un modèle de sizing centré sur la « probabilité de risque d’arbitrage », ce qui propulse la performance de la stratégie jusqu’à +44. Il s’agit du tournant de toute la compétition. Ce résultat confirme également directement la méthodologie de Ryan : lorsque la recherche s’enlise dans un optimum local, redémarrer est plus efficace que retoucher les réglages.
L’avantage absolu de la recherche par IA : l’essai à grande échelle
Dans son bilan, Ryan explique que l’enjeu de ce concours ne consiste pas à concevoir une « stratégie maligne », mais à construire un système capable d’effectuer une recherche de grande ampleur, de valider et d’éliminer des idées. Plutôt que de s’appuyer sur l’intuition humaine, il vaut mieux laisser l’IA tester dans un espace de solutions immense, et amplifier l’efficacité grâce à la parallélisation et à l’automatisation.
Ce cas renforce aussi le changement de rôle de l’« Agentic AI » dans les processus d’ingénierie et de recherche : l’IA n’est plus seulement un outil d’assistance, elle peut devenir directement l’unité d’exécution centrale chargée de l’exploration et de la prise de décision. Dans certains problèmes hautement structurés et simulables, les humains peuvent même se retirer complètement du rôle de « résolveur », pour se concentrer sur la conception du cadre de recherche et des mécanismes d’évaluation.
Cet article, la recherche automatisée par Claude Code qui remporte le hackathon ! Lauréat : je ne sais absolument pas comment j’ai gagné, apparaît pour la première fois sur Chaîne d’actualités ABMedia.