Une religion amère : la guerre sainte de l'intelligence artificielle autour de l'expansion des lois

La communauté de l’intelligence artificielle est plongée dans un débat sur son avenir et sur la question de savoir si elle a une ampleur suffisante pour créer la doctrine de Dieu.

Écrit par : Mario Gabriele

Compilation: Block unicorn

La guerre sainte de l’intelligence artificielle

Je préférerais vivre ma vie comme s’il y avait un Dieu et découvrir à ma mort qu’il n’existe pas, plutôt que de vivre comme s’il n’y avait pas de Dieu et découvrir à ma mort qu’il existe. - Blaise Pascal

La religion est une chose intéressante. Peut-être parce qu’elle est totalement impossible à prouver dans n’importe quelle direction, ou peut-être comme ma phrase préférée : “Vous ne pouvez pas lutter contre les émotions avec des faits.”

Les caractéristiques de la croyance religieuse sont qu’elles se développent à une vitesse incroyablement rapide à mesure que la foi monte, au point qu’il est presque impossible de douter de l’existence de Dieu. Comment pouvez-vous douter de l’existence d’une présence divine lorsque de plus en plus de gens autour de vous y croient ? Où est l’espace pour les hérétiques lorsque le monde se réorganise autour d’une doctrine ? Où est l’opposition lorsque les temples et les cathédrales, les lois et les normes sont tous organisés selon un nouvel évangile inébranlable ?

Lorsque le christianisme est apparu pour la première fois et s’est répandu dans les continents, ou lorsque le bouddhisme s’est répandu de l’Inde à travers l’Asie, la puissance de la foi a créé un cercle vertueux. Avec de plus en plus de personnes qui se convertissent et qui construisent des systèmes théologiques et des rituels complexes autour de ces croyances, remettre en question ces fondements devient de plus en plus difficile. Dans un océan de crédulité, devenir un hérétique n’est pas facile. Les magnifiques églises, les textes religieux complexes et les monastères prospères servent de preuves physiques de l’existence divine.

Mais l’histoire des religions nous dit aussi à quel point de telles structures sont fragiles. Avec la propagation du christianisme dans la péninsule scandinave, l’ancienne foi nordique s’est effondrée en seulement quelques générations. Le système religieux de l’ancienne Égypte a perduré pendant des milliers d’années, pour finalement disparaître avec l’émergence d’une nouvelle foi plus durable et l’apparition de structures de pouvoir plus importantes. Même à l’intérieur d’une même religion, nous avons assisté à des scissions dramatiques - la Réforme a déchiré l’Église chrétienne occidentale, et le Grand Schisme a conduit à la division de l’Église d’Orient et d’Occident. Ces schismes commencent souvent par des divergences doctrinales en apparence insignifiantes, pour évoluer progressivement vers des systèmes de croyances totalement différents.

Canon

Dieu est une métaphore au-delà de toutes les couches de la pensée intellectuelle. C’est aussi simple que ça. - Joseph Campbell

En termes simples, croire en Dieu, c’est la religion. Peut-être que créer Dieu n’est pas si différent.

Depuis leur naissance, les chercheurs en intelligence artificielle optimistes ont envisagé leur travail comme une création divine - c’est-à-dire la création de Dieu. Au cours des dernières années, le développement explosif des grands modèles de langage (LLM) a encore renforcé la conviction des croyants selon laquelle nous sommes sur un chemin sacré.

Il a également confirmé un article de blog écrit en 2019. Bien que les personnes en dehors du domaine de l’intelligence artificielle ne l’aient découvert que récemment, “The Bitter Lesson” de Richard Sutton, un informaticien canadien, est devenu un texte de plus en plus important dans la communauté, passant d’une connaissance secrète à une base religieuse nouvelle et globale.

Dans les 1 113 mots (chaque religion nécessite un nombre sacré), Sutton résume une observation technologique : « La plus grande leçon que l’on peut tirer des 70 années de recherche en intelligence artificielle est que l’utilisation de méthodes de calcul générales est finalement la plus efficace et constitue un avantage énorme. » Les progrès des modèles d’intelligence artificielle sont le résultat de l’augmentation exponentielle des ressources de calcul, portée par la grande vague de la loi de Moore. Dans le même temps, Sutton souligne que de nombreux travaux de recherche en intelligence artificielle se concentrent sur l’optimisation des performances par le biais de techniques spécialisées - l’augmentation des connaissances humaines ou des outils spécifiques. Bien que ces optimisations puissent être utiles à court terme, selon Sutton, elles finissent par être une perte de temps et de ressources, tout comme ajuster les ailerons de la planche de surf ou essayer de nouvelles cires lors de l’arrivée d’une énorme vague.

C’est la base de ce que nous appelons la “religion amère”. Il n’y a qu’une seule règle, généralement appelée “loi de l’expansion” dans la communauté : les calculs de croissance exponentielle entraînent des performances ; le reste est stupide.

La religion amère s’étend des grands modèles linguistiques (LLM) aux modèles mondiaux, et se propage rapidement maintenant à travers la biologie, la chimie et l’intelligence incarnée (robotique et véhicules autonomes) non transformées.

Cependant, avec la propagation de la théorie de Sutton, la définition a également commencé à changer. C’est le signe de toutes les religions actives et dynamiques - débats, extensions, commentaires. La “loi de l’extension” ne signifie plus seulement l’extension du calcul (l’Arche n’est pas seulement un bateau), elle fait maintenant référence à diverses méthodes visant à améliorer les transformateurs et les performances de calcul, avec quelques astuces.

Maintenant, le classique englobe les tentatives d’optimisation de chaque partie de la pile d’IA, des astuces appliquées au modèle central lui-même (fusion de modèles, mélange d’experts (MoE) et extraction de connaissances) à la génération de données synthétiques pour nourrir ces dieux toujours affamés, avec de nombreuses expériences entre les deux.

Les factions en guerre

Récemment, une question soulevée dans la communauté de l’intelligence artificielle, avec des connotations de croisade, est de savoir si le “religion amère” est toujours correcte.

Cette semaine, Harvard, Stanford et le MIT ont publié un nouvel article intitulé “La règle de l’expansion de la précision”, déclenchant ce conflit. L’article discute de la fin des gains d’efficacité de la technologie quantitative, une série de techniques qui améliorent les performances des modèles d’intelligence artificielle et bénéficient grandement à l’écosystème open source. Tim Dettmers, chercheur en sciences de l’IA à l’Institut Alan Turing, en a résumé l’importance dans le post ci-dessous, le qualifiant de “l’article le plus important depuis longtemps”. Il représente la continuation d’un dialogue en constante intensification au cours des dernières semaines et révèle une tendance à noter : le renforcement croissant de deux religions.

Le PDG d’OpenAI, Sam Altman, et le PDG d’Anthropic, Dario Amodei, appartiennent à la même secte. Les deux hommes affirment avec confiance que nous parviendrons à une intelligence artificielle générale (AGI) dans environ 2 à 3 ans. Altman et Amodei sont tous deux les grandes figures les plus dépendantes du caractère sacré de la ‘religion de l’amertume’. Toutes leurs incitations tendent à des promesses excessives, créant ainsi un maximum de battage médiatique pour accumuler du capital dans ce jeu presque entièrement dominé par l’économie d’échelle. Si la règle d’expansion n’est pas ‘alpha et oméga’, le début et la fin, alors que feriez-vous avec 220 milliards de dollars?

Ilya Sutskever, ancien scientifique en chef d’OpenAI, défend un ensemble de principes différents. Avec d’autres chercheurs, y compris de nombreux chercheurs internes d’OpenAI selon des informations récemment divulguées, il estime que l’expansion touche à sa limite. Ce groupe estime qu’il faudra de nouvelles sciences et recherches pour maintenir les progrès et donner vie à l’AGI dans le monde réel.

Sutskever a raison de souligner que l’extension continue du paradigme d’Altman n’est pas économiquement viable. Comme le demande Noam Brown, chercheur en intelligence artificielle : “Voulons-nous vraiment former des modèles qui coûteront des milliards ou des billions de dollars ?” Sans oublier les dépenses supplémentaires de plusieurs milliards de dollars nécessaires au calcul de l’inférence si nous déplaçons l’extension du calcul de la formation à l’inférence.

Mais les vrais croyants connaissent très bien les arguments de leurs adversaires. Les missionnaires devant votre porte peuvent facilement faire face à votre dilemme hédoniste. Pour Brown et Sutskever, le camp de Sutskever souligne la possibilité d’étendre le « calcul au moment du test ». Contrairement aux cas précédents, le « calcul au moment du test » ne repose pas sur une augmentation du calcul pour améliorer l’entraînement, mais sur l’utilisation de plus de ressources pour l’exécution. Lorsqu’un modèle d’intelligence artificielle doit répondre à vos questions ou générer du code ou du texte, il peut fournir plus de temps et de calcul. Cela revient à détourner votre attention des révisions de mathématiques pour convaincre votre professeur de vous accorder une heure supplémentaire et de vous permettre d’utiliser une calculatrice. Pour de nombreuses personnes de l’écosystème, il s’agit de la nouvelle frontière de la « religion amère », car les équipes passent d’une approche orthodoxe de pré-formation à une approche de post-formation / inférence.

Il est facile de pointer du doigt les failles d’autres systèmes de croyance et de critiquer d’autres doctrines sans révéler sa propre position. Alors, quelle est ma propre foi ? Tout d’abord, je pense que le lot actuel de modèles offrira un retour sur investissement très élevé dans le temps. Au fur et à mesure que les gens apprendront à contourner les restrictions et à tirer parti des API existantes, nous verrons des expériences de produits véritablement innovantes émerger et réussir. Nous dépasserons les stades skeuomorphiques et incrémentaux des produits d’IA. Nous ne devrions pas la considérer comme une « intelligence artificielle générale » (AGI) en raison des défauts de cette définition, mais plutôt comme une « intelligence minimale viable » qui peut être adaptée à différents produits et cas d’utilisation.

Quant à la réalisation de l’intelligence artificielle superintelligente (ASI), davantage de structure est nécessaire. Des définitions et des distinctions plus précises nous aideront à discuter plus efficacement des compromis entre la valeur économique et les coûts économiques potentiels respectifs. Par exemple, l’AGI pourrait fournir une valeur économique à certaines parties prenantes (ce n’est qu’une croyance locale), tandis que l’ASI pourrait avoir des effets cumulatifs irrésistibles et changer le monde, nos croyances et notre structure sociale. Je ne pense pas que l’ASI puisse être réalisée simplement en étendant un transformateur, mais malheureusement, comme certains pourraient le dire, c’est juste ma croyance athée.

La foi perdue

La communauté de l’intelligence artificielle ne peut pas résoudre cette croisade dans un avenir proche; il n’y a pas de fondement factuel à présenter dans cette lutte émotionnelle. Au contraire, nous devrions nous concentrer sur ce que signifie remettre en question l’intelligence artificielle quant à sa croyance dans l’extension des lois. La perte de cette croyance pourrait déclencher une réaction en chaîne, dépassant les LLMs, et ayant un impact sur tous les secteurs et marchés.

Il convient de noter que, dans la plupart des domaines de l’intelligence artificielle / de l’apprentissage automatique, nous n’avons pas encore pleinement exploré les lois de l’extension ; il y aura encore plus de miracles à l’avenir. Cependant, si des doutes apparaissent réellement, il sera plus difficile pour les investisseurs et les constructeurs de maintenir le même niveau de confiance élevée dans des catégories comme la biotechnologie et les robots, qui sont « tôt dans la courbe » de la performance ultime. En d’autres termes, si nous constatons que de grands modèles de langage commencent à ralentir et à s’écarter de la voie choisie, de nombreux fondateurs et investisseurs verront leur système de croyances dans des domaines adjacents s’effondrer.

Savoir si cela est juste est une autre question.

Certains pensent que l’IA générale a besoin d’une plus grande échelle, donc la “qualité” des modèles spécialisés devrait être démontrée à plus petite échelle, afin qu’ils ne rencontrent pas de goulots d’étranglement avant de fournir une valeur réelle. Si un modèle dans un domaine spécifique n’utilise qu’une partie des données et nécessite donc seulement une partie des ressources de calcul pour être viable, ne devrait-il pas avoir suffisamment de marge d’amélioration ? Cela semble logique intuitivement, mais nous avons constaté à plusieurs reprises que ce n’est pas toujours le cas : inclure des données connexes ou apparemment non connexes peut souvent améliorer les performances de modèles apparemment non connexes. Par exemple, l’inclusion de données de programmation semble aider à améliorer les capacités de raisonnement plus larges.

À long terme, le débat sur le modèle de spécialisation pourrait être insignifiant. Toute personne qui construit une IA superintelligente (ASI) a probablement pour objectif ultime de créer une entité capable de s’auto-répliquer, de s’améliorer et de faire preuve d’une créativité infinie dans tous les domaines. Holden Karnofsky, ancien membre du conseil d’administration d’OpenAI et fondateur d’Open Philanthropy, appelle cette création le « PASTA » (le processus d’automatisation des sciences et des avancées technologiques). Le plan de rentabilité initial de Sam Altman semble reposer sur des principes similaires : « Construire une AGI, puis lui demander comment obtenir un retour sur investissement. » C’est l’intelligence artificielle eschatologique, c’est le destin ultime.

Le succès de grands laboratoires d’IA tels qu’OpenAI et Anthropic a stimulé le soutien du marché financier pour des laboratoires similaires dans des domaines tels que “X”. Leur objectif à long terme est de développer une “AGI” centrée sur une industrie ou un domaine spécifique. Cette décomposition à grande échelle conduira à un changement de paradigme, passant des simulations OpenAI à des entreprises centrées sur les produits - une possibilité que j’ai soulevée lors de la conférence annuelle Compound 2023.

Contrairement au modèle eschatologique, ces entreprises doivent démontrer une série de progrès. Ils seront des entreprises construites sur des problèmes d’ingénierie à l’échelle, plutôt que des organisations scientifiques menant des recherches appliquées avec pour objectif final de construire des produits.

Dans le domaine scientifique, si vous savez ce que vous faites, alors vous ne devriez pas le faire. Dans le domaine de l’ingénierie, si vous ne savez pas ce que vous faites, alors vous ne devriez pas le faire. - Richard Hamming

Les fidèles ne sont probablement pas susceptibles de perdre leur foi sacrée à court terme. Comme mentionné précédemment, avec l’augmentation de la religion, elles ont compilé un ensemble de scripts de vie et de culte ainsi qu’un ensemble de méthodes inspirantes. Ils ont construit des monuments et des infrastructures tangibles, renforçant leur puissance et leur sagesse, et montrant qu’ils «savent ce qu’ils font».

Lors d’une récente interview, Sam Altman a déclaré ceci à propos de l’AGI (l’accent étant mis sur nous) :

C’est la première fois que je me sens vraiment savoir quoi faire. De maintenant jusqu’à la construction d’un AGI, il reste encore beaucoup de travail à faire. Nous savons qu’il y a des inconnues connues, mais je pense que nous savons essentiellement quoi faire, cela prendra du temps ; ce sera difficile, mais aussi très excitant.

Le Jugement

En remettant en question ‘L’amertume religieuse’, les sceptiques de l’extension remettent en cause l’une des discussions les plus profondes des dernières années. Nous avons tous réfléchi de cette manière à un moment donné. Que se passerait-il si nous inventions Dieu ? À quelle vitesse apparaîtrait ce Dieu ? Que se passerait-il si l’AGI (intelligence artificielle générale) émergeait vraiment et de manière irréversible ?

Comme pour tous les sujets inconnus et complexes, nous stockons rapidement nos propres réactions spécifiques dans notre cerveau : certains anticipent qu’ils deviendront bientôt insignifiants, la plupart s’attendent à un mélange de destruction et de prospérité, tandis que d’autres prévoient que l’humanité continuera à faire ce qu’elle fait le mieux, à chercher des problèmes à résoudre et à résoudre les problèmes que nous avons créés, dans le but d’atteindre une prospérité pure.

Toute personne ayant des intérêts majeurs souhaite pouvoir prédire à quoi ressemblera le monde pour eux si la loi d’expansion est vérifiée et si l’IA générale arrive dans quelques années. Comment servirez-vous ce nouveau dieu et comment vous servira-t-il ?

Mais que faire si l’évangile stagnante chasse les optimistes ? Que faire si nous commençons à penser que même Dieu pourrait décliner ? Dans un précédent article intitulé “Robot FOMO, loi de l’échelle et prévisions technologiques”, j’ai écrit :

Parfois, je me demande ce qui se passerait si la loi de l’expansion n’était pas valide, si cela aurait un impact similaire à la perte de revenus, la croissance ralentie et l’augmentation des taux d’intérêt sur de nombreux domaines technologiques. Je me demande également si la loi de l’expansion est entièrement valide, si cela est similaire à la courbe de marchandisation de la valeur de nombreux autres domaines pionniers.

“Les avantages du capitalisme sont tels que, quoi qu’il en soit, nous dépenserons beaucoup d’argent pour trouver des réponses.”

Pour les fondateurs et les investisseurs, la question est devenue : que va-t-il se passer ensuite ? Les candidats potentiels pour devenir de grands constructeurs de produits dans chaque domaine vertical commencent à être connus. Il y aura encore plus de ces personnes dans chaque industrie, mais l’histoire a déjà commencé. D’où viendront de nouvelles opportunités ?

Si l’expansion stagne, je m’attends à voir une vague de faillites et de fusions. Les entreprises restantes se concentreront de plus en plus sur l’ingénierie, une évolution que nous devrions anticiper en suivant les mouvements de talents. Nous commençons à voir des signes indiquant qu’OpenAI se dirige dans cette direction, car elle commercialise de plus en plus ses produits. Ce changement ouvrira la voie à la prochaine génération de start-ups, qui effectueront des “dépassements en virage” en s’appuyant sur la recherche et la science innovante plutôt que sur l’ingénierie, dépassant ainsi les entreprises existantes dans leurs tentatives pour ouvrir de nouvelles voies.

Leçon de religion

Ma vision de la technologie est que tout ce qui semble avoir un effet de levier évident ne dure généralement pas longtemps, et une opinion généralement partagée est que toute activité qui semble avoir un effet de levier évident se développe étrangement à une vitesse et à une échelle bien inférieures aux attentes.

Les premiers signes de division religieuse suivent généralement des schémas prévisibles, qui peuvent servir de cadre pour suivre l’évolution de la ‘religion amère’.

Il commence généralement par des interprétations concurrentes, que ce soit pour des raisons capitalistes ou idéologiques. Dans les premiers temps du christianisme, les divergences sur la nature divine du Christ et de la Trinité ont entraîné des divisions et des interprétations bibliques radicalement différentes. Outre la scission mentionnée précédemment de l’IA, d’autres fissures sont en train de se former. Par exemple, nous voyons certains chercheurs en IA rejeter les notions orthodoxes centrales des transformateurs au profit d’autres architectures telles que les modèles d’espace d’état, Mamba, RWKV, les modèles liquides, etc. Bien que ceux-ci ne soient actuellement que des signaux faibles, ils témoignent de l’émergence de la pensée hérétique et de la volonté de repenser ce domaine à partir de principes fondamentaux.

Au fil du temps, les commentaires impatients des prophètes peuvent également entraîner la méfiance des gens. Lorsque les prédictions des leaders religieux ne se réalisent pas, ou lorsque l’intervention divine ne se produit pas comme prévu, cela sème les graines du doute.

Le mouvement millénaire a prédit le retour du Christ en 1844, mais lorsque Jésus n’est pas venu comme prévu, le mouvement s’est effondré. Dans le monde de la technologie, nous avons tendance à enterrer silencieusement les prédictions ratées et à permettre à nos prophètes de continuer à décrire des versions optimistes et à long terme de l’avenir, même si les dates limites fixées sont constamment manquées (hey, Elon). Cependant, sans le soutien d’une amélioration continue des performances du modèle initial, la croyance en la loi de l’expansion pourrait également faire face à un effondrement similaire.

Une religion corrompue, obèse ou instable est facilement influencée par les apostats. Le mouvement de la Réforme protestante a pu progresser non seulement en raison des points de vue théologiques de Luther, mais aussi parce qu’il est apparu pendant la décadence et l’agitation de l’Église catholique. Lorsque les institutions dominantes se fissurent, les idées « hérétiques » de longue date trouvent soudain un sol fertile.

Dans le domaine de l’intelligence artificielle, nous pourrions nous concentrer sur des modèles de taille plus petite ou des approches alternatives qui parviennent à des résultats similaires avec moins de calculs ou de données, comme le travail réalisé par divers laboratoires d’entreprises chinoises et des équipes open source (comme Nous Research). Ceux qui repoussent les limites de l’intelligence biologique et surmontent les obstacles depuis longtemps considérés comme insurmontables pourraient également créer un nouveau récit.

L’observation la plus directe et la plus actuelle du début du changement est de suivre les tendances des praticiens. Avant toute scission formelle, les érudits religieux et le clergé ont généralement des points de vue hétérodoxes en privé mais se montrent soumis en public. Aujourd’hui, un phénomène correspondant pourrait être que certains chercheurs en IA semblent suivre la loi de l’expansion en apparence, mais poursuivent en réalité des méthodes radicalement différentes en secret, attendant le bon moment pour remettre en question le consensus ou quitter leur laboratoire à la recherche d’un horizon théorique plus vaste.

La difficulté avec la religion et la technologie orthodoxe est qu’elles ont souvent une partie qui est correcte, mais pas aussi universellement correcte que les fidèles les plus dévoués le pensent. Tout comme la religion intègre les vérités fondamentales de l’humanité dans son cadre métaphysique, la loi d’expansion décrit clairement la réalité de l’apprentissage des réseaux neuronaux. La question est de savoir si cette réalité est complète et immuable, comme le suggèrent les passions actuelles, et si ces institutions religieuses (laboratoires d’intelligence artificielle) sont suffisamment flexibles et stratégiques pour guider les fervents disciples. En même temps, il faut mettre en place une imprimante qui facilite la diffusion des connaissances (interface de conversation et API) pour que leur savoir puisse se propager.

Finale

“La religion est réelle aux yeux du peuple, fausse aux yeux des sages et utile aux yeux des dirigeants.” - Lucius Annaeus Seneca

Une perspective possible et dépassée sur les institutions religieuses est qu’une fois qu’elles atteignent une certaine taille, elles sont susceptibles, comme de nombreuses organisations gérées par des humains, de céder aux motivations de survie et de chercher à survivre dans la compétition. Dans ce processus, elles négligent les motivations de vérité et de grandeur (qui ne s’excluent pas mutuellement).

J’ai déjà écrit un article sur la façon dont le marché des capitaux peut devenir une bulle d’information axée sur le récit, et les mécanismes d’incitation ont tendance à prolonger ces récits. Le consensus sur la loi d’expansion donne une impression sinistre - un système de croyance profondément enraciné, qui est élégant mathématiquement et extrêmement utile pour coordonner le déploiement de capitaux à grande échelle. Comme de nombreux cadres religieux, il peut être plus précieux en tant que mécanisme de coordination qu’en tant que vérité fondamentale.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)