Pourquoi ceux qui sont doués pour expliquer le passé se trompent-ils toujours de manière flagrante en prédisant l'avenir ?

Pourquoi le surapprentissage dans la quantification et l’investissement historique transforme les gagnants passés en perdants futurs ?

“Une vie de surapprentissage”

#01

Un “mensonge” soigneusement tissé

Si vous montrez à un gestionnaire de fonds quantitatifs une courbe de valeur nette presque parfaite — avec une faible baisse, un rendement élevé, et une volatilité qui ressemble à un battement de cœur — il ne sera probablement pas excité, mais vous demandera froidement : « Es-tu sûr que cette stratégie n’est pas surapprise ? »

La recherche quantitative, comme toute recherche, vise à trouver des régularités dans une masse énorme de données de prix historiques, mais cette régularité n’est pas destinée à expliquer le passé, mais à prévoir l’avenir.

Ce qu’on appelle “surapprentissage”, en termes simples, c’est que votre modèle fonctionne si bien qu’il ne peut que expliquer le passé, mais ne connaît rien du futur.

Pourquoi y a-t-il une contradiction entre expliquer le passé et prévoir l’avenir dans le monde de l’investissement ?

Les trois diagrammes ci-dessous illustrent les causes du “surapprentissage” :

Le premier montre un “sous-apprentissage”, où la ligne de séparation repère simplement que les points bleus sont plutôt à gauche et les points orange à droite, mais la frontière est trop simple ;

Le deuxième montre un “modèle parfait”, utilisant une courbe simple pour délimiter les points bleus et orange, avec seulement quelques points déviant du modèle, que l’on peut considérer comme du “bruit”, ce genre de modèle possède une capacité de généralisation, c’est-à-dire que l’expérience spécifique peut s’appliquer à plus de scénarios.

Le troisième montre un “surapprentissage”, où la frontière tente de décrire non seulement les points bleus et orange, mais aussi intègre plusieurs points manifestement “bruyants”, rendant le modèle très complexe.

On peut imaginer que, même si ce modèle performe bien sur les données d’entraînement, une fois en environnement réel, face à des données futures distribuées aléatoirement et jamais vues, il échouera rapidement.

Le “surapprentissage” résulte du fait que vous cherchez une stratégie parfaite, par exemple un ratio de Sharpe supérieur à 2, une perte maximale inférieure à 5 %, etc. Or, le marché financier est un environnement avec un rapport signal/bruit extrêmement faible, la majorité des fluctuations de prix étant en réalité du bruit aléatoire sans signification. Si vous poursuivez des indicateurs de performance extrêmes, votre algorithme aura tendance à s’adapter à ce bruit, en le traitant comme un signal, et la stratégie obtenue ne sera qu’un produit qui correspond précisément à un échantillon historique particulier.

Comme sur le diagramme de droite, une stratégie “surapprise” augmente souvent ses filtres, par exemple “n’acheter que le mardi”, “MACD croise à la hausse et il pleut à Pékin ce jour-là”, etc., et une stratégie avec 20 paramètres sera beaucoup plus susceptible de “coller” une courbe de valeur nette attrayante sur les données historiques qu’une stratégie avec seulement 2 paramètres, augmentant ainsi le risque de surapprentissage.

Prenons un exemple : si l’on analyse avec un ordinateur les résultats passés d’un tirage de loterie, en utilisant suffisamment de paramètres, on peut sûrement trouver une formule qui explique parfaitement la répartition des numéros gagnants passés, mais après le prochain tirage, cette formule s’effondrera, et il faudra encore ajouter des paramètres.

L’essence du surapprentissage, c’est d’utiliser un modèle trop complexe pour expliquer un monde rempli d’aléa.

Fascinantement, ce “piège de calcul” qui existe dans des serveurs haute performance se joue aussi chaque jour dans notre cerveau. À un certain niveau, beaucoup de nos croyances profondes sont en réalité une forme de “surapprentissage” de la vie.

#02

L’empirisme, c’est du surapprentissage

Le cerveau humain possède environ 86 milliards de neurones, avec une “capacité” suffisante pour se souvenir de chaque trauma, chaque succès, chaque instant d’émotion intense, et pour en faire des poids dans nos décisions futures. C’est un avantage évolutif, mais cela comporte aussi un risque de “surapprentissage”.

La différence, c’est que le “surapprentissage” en stratégie quantitative est une coïncidence précise, alors que celui du cerveau humain est souvent une approximation grossière.

Imaginez une personne qui rencontre deux fois de suite un partenaire “très enthousiaste mais qui l’a trompée”, et qui construit deux modèles cognitifs :

Modèle correct : je dois faire une vérification approfondie avant de m’engager, et y aller étape par étape.

Modèle de surapprentissage : tous ceux qui montrent de l’enthousiasme ne valent pas confiance. Si quelqu’un montre de l’enthousiasme, je m’éloigne automatiquement.

Ce dernier est une règle de décision trop spécifique, construite à partir de deux expériences passées, qui perd sa capacité de généralisation. Elle peut l’aider à éviter “les escrocs enthousiastes”, mais aussi lui faire manquer des partenaires sincères.

Dans une vie, il n’y a que quelques dizaines d’événements “indépendants et majeurs” qui peuvent réellement changer le destin :

  • Le choix de l’université, du métier ;

  • La personne avec qui on se marie, la ville où on s’installe ;

  • Un investissement massif à un moment clé, ou un changement de cap lors d’une crise.

Utiliser quelques dizaines d’échantillons pour modéliser un monde aux dimensions quasi infinies, beaucoup plus complexe que le marché financier, est mathématiquement presque inévitable de faire du surapprentissage.

Comme dans les trois diagrammes précédents, la majorité des gens ne se satisferont pas du modèle du milieu, mais essaieront d’expliquer le passé avec le modèle de droite, “surappris”, pour guider le futur.

De plus, dans la stratégie quantitative, on utilise souvent le rendement pour renforcer le modèle ; mais dans la cognition humaine, la douleur et le plaisir sont les signaux de rétroaction les plus puissants. Une douleur extrême peut entraîner une mise à jour de poids bien plus forte qu’une simple sensation agréable, ce qui revient à donner une importance démesurée à un événement extrême dans le backtest.

Quand quelqu’un réussit dans une tâche grâce à “effort + chance”, son cerveau construit rapidement une logique très complexe. Il relie la température, ses paroles, même une maxime qu’il croit, à la clé du succès. Il croit détenir la formule du monde, alors qu’en réalité, ce n’est peut-être qu’un rayon de lumière dans le bruit aléatoire du destin.

Ce phénomène de “surapprentissage” que nous appelons souvent “empirisme” consiste à ajuster un modèle trop complexe à un monde rempli d’aléa, en sacrifiant la capacité de généralisation.

Ce qui est intéressant, c’est que ce “piège de calcul” qui existe dans des serveurs puissants se joue aussi dans notre cerveau. En un sens, beaucoup de nos croyances fondamentales sont en fait des “surapprentissages” de notre vie.

#03

La vie n’a pas de jeu de test

Pour éviter le “surapprentissage”, la quantification utilise une série de méthodes scientifiques, comme diviser les données en ensemble d’entraînement et de test, construire la logique sur l’ensemble d’entraînement, puis la vérifier sur l’ensemble de test, ou entraîner sur des données historiques et valider avec de nouvelles données.

Mais la vie est toujours en situation réelle, sans ensemble d’entraînement ni de test, la vie ne peut pas entrer deux fois dans le même fleuve, ni cloner une version de soi-même pour tester si ses expériences restent valides dans un univers parallèle.

Plus important encore, l’être humain possède un mécanisme de défense psychologique qui rend très difficile la prise de conscience que nos expériences de vie, dont nous sommes fiers, ne sont peut-être qu’un “surapprentissage” d’une période particulière.

Par exemple, le biais de confirmation : une fois qu’on a une croyance, le cerveau cherche activement des preuves pour la soutenir, en ignorant celles qui la contredisent. C’est comme ajouter plus de paramètres à un modèle “surappris” pour qu’il s’adapte à de nouvelles données, mais en s’éloignant de la vérité.

Ou encore, le biais d’attribution : quand une décision réussit, on l’attribue à notre jugement ; quand elle échoue, on la met sur

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler