L’année 2024 touche à sa fin, et Rob Toews, investisseur en capital-risque chez Radical Ventures, partage ses 10 prédictions sur l’intelligence artificielle pour 2025 :
01Meta commencera à facturer le modèle Llama
Meta est l’étalon mondial de l’intelligence artificielle ouverte. Dans une étude de cas stratégique d’entreprise remarquable, alors que des concurrents tels que OpenAI et Google ont choisi de fermer leurs modèles de pointe et de facturer des frais d’utilisation, Meta a choisi de fournir gratuitement son modèle de pointe Llama.
Par conséquent, il sera surprenant pour de nombreuses personnes d’apprendre que Meta commencera à facturer les entreprises qui utilisent Llama l’année prochaine.
Il est important de préciser que nous n’avons pas prédit que Meta rendrait Llama complètement propriétaire, et cela ne signifie pas que tous les utilisateurs du modèle Llama devront payer pour cela.
Au contraire, nous prédisons que Meta imposera des restrictions plus strictes sur les conditions de licence open source de Llama, de sorte que les entreprises utilisant Llama dans un certain contexte commercial devront commencer à payer pour utiliser les modèles.
Techniquement, Meta a déjà réalisé cela dans une certaine mesure. La société n’autorise pas les plus grandes entreprises, comme les supercalculateurs cloud et d’autres sociétés avec plus de 700 millions d’utilisateurs actifs mensuels, à utiliser librement son modèle Llama.
Dès 2023, le PDG de Meta, Mark Zuckerberg, a déclaré : “Si vous êtes une entreprise comme Microsoft, Amazon ou Google, et que vous revendez essentiellement des lamas, nous devrions en tirer une part de revenus. Je ne pense pas que ce soit une grosse somme à court terme, mais j’espère que cela deviendra une source de revenus à long terme.”
L’année prochaine, Meta élargira considérablement la portée de l’entreprise qui doit payer pour utiliser Llama, en incluant davantage d’entreprises de taille moyenne et grande.
Suivre le dernier cri des grands modèles de langage (LLM) est très coûteux. Pour que Llama soit en phase ou proche des derniers modèles de pointe d’entreprises telles que OpenAI et Anthropic, Meta devrait investir des dizaines de milliards de dollars par an.
Meta est l’une des entreprises les plus importantes et les mieux financées au monde. Mais il s’agit également d’une société ouverte qui, en fin de compte, doit rendre des comptes à ses actionnaires.
Avec le coût croissant de la fabrication de modèles de pointe, il est de plus en plus difficile de justifier l’investissement massif de Meta dans la formation de la prochaine génération de modèles Llama sans perspective de revenus.
Les amateurs, les chercheurs, les développeurs individuels et les start-ups pourront continuer à utiliser gratuitement le modèle Llama l’année prochaine. Mais en 2025, ce sera l’année où Meta commencera sérieusement à réaliser des bénéfices avec Llama.
**02.**Problèmes associés à la “loi de l’échelle”
Ces dernières semaines, la discussion la plus fréquente dans le domaine de l’intelligence artificielle concerne les lois d’échelle et la question de savoir si elles sont sur le point de se terminer.
La loi de l’échelle a été mentionnée pour la première fois dans un article d’OpenAI en 2020. Son concept de base est simple et clair : lors de l’entraînement d’un modèle d’intelligence artificielle, à mesure que le nombre de paramètres du modèle, la quantité de données d’entraînement et la puissance de calcul augmentent, les performances du modèle s’améliorent de manière fiable et prévisible (techniquement, sa perte de test diminue).
De GPT-2 à GPT-3 puis à GPT-4, les améliorations de performance époustouflantes sont toutes dues à la loi d’échelle。
Comme la loi de Moore, la loi de l’échelle n’est en réalité pas une véritable règle, mais seulement une observation empirique simple.
Au cours du dernier mois, une série de rapports indiquent que les principaux laboratoires d’intelligence artificielle voient des rendements décroissants lorsqu’ils continuent d’élargir l’échelle des modèles de langue de grande taille. Cela contribue à expliquer pourquoi la sortie de GPT-5 d’OpenAI est reportée à plusieurs reprises.
L’objection la plus courante à la loi d’échelle qui tend vers la stabilité est que le calcul effectué lors du test a ouvert une toute nouvelle dimension, qui peut être explorée pour une expansion à l’échelle de cette dimension.
En d’autres termes, au lieu d’étendre massivement les calculs pendant la période d’entraînement, de nouveaux modèles d’inférence tels que o3 d’OpenAI rendent possible une expansion massive des calculs pendant la période d’inférence en permettant au modèle de “réfléchir plus longtemps” pour débloquer de nouvelles capacités d’IA.
Il s’agit d’un point de vue important. Les tests de calcul représentent effectivement une nouvelle voie passionnante pour l’extension, ainsi qu’une amélioration des performances de l’IA.
Mais un autre point de vue important sur la loi d’échelle, qui a été largement sous-estimé dans les discussions d’aujourd’hui, est crucial. Presque toutes les discussions sur la loi d’échelle, de l’article initial de 2020 jusqu’à l’attention portée aux calculs lors des tests aujourd’hui, se concentrent sur le langage. Mais le langage n’est pas le seul mode de données important.
Pensez à la technologie des robots, à la biologie, aux modèles mondiaux ou aux agents en réseau. Pour ces modèles de données, la loi d’échelle n’est pas encore saturée ; au contraire, ils ne font que commencer.
En fait, il n’y a pas encore de preuve rigoureuse de l’existence de lois d’échelle à moyenne échelle dans ces domaines, et ce, même aujourd’hui.
Les start-ups qui construisent des modèles de base pour ces nouveaux modes de données - telles que Evolutionary Scale dans le domaine de la biologie, PhysicalIntelligence dans le domaine de la robotique et WorldLabs dans le domaine des modèles mondiaux - cherchent à identifier et à exploiter les lois d’échelle de ces domaines, tout comme OpenAI a réussi à le faire dans la première moitié des années 2020 avec les lois d’échelle des grands modèles linguistiques (LLM).
L’année prochaine, on prévoit de faire d’énormes progrès ici.
La loi d’échelle ne disparaîtra pas, elles resteront tout aussi importantes en 2025. Cependant, le centre d’activité de la loi d’échelle passera des pré-entraînements LLM à d’autres modèles.
**03.**Trump and Musk may have differences in the direction of AI
Le nouveau gouvernement américain apportera une série de changements politiques et stratégiques concernant l’intelligence artificielle.
Pour prévoir la direction de l’intelligence artificielle sous la présidence du président Trump, et compte tenu de la position centrale actuelle de Musk dans le domaine de l’intelligence artificielle, les gens pourraient être enclins à se concentrer sur la relation étroite entre le président élu et Musk.
On peut imaginer que Musk pourrait influencer le développement de l’intelligence artificielle par le gouvernement Trump de diverses manières.
Étant donné l’hostilité profonde entre Musk et OpenAI, le nouveau gouvernement pourrait adopter une position peu amicale à l’égard d’OpenAI dans ses contacts avec l’industrie, l’élaboration de réglementations en matière d’intelligence artificielle, l’attribution de contrats gouvernementaux, etc. C’est un risque réellement préoccupant pour OpenAI aujourd’hui.
D’autre part, le gouvernement de Trump pourrait être plus enclin à soutenir la propre entreprise de Musk : par exemple, en réduisant les formalités administratives pour permettre à xAI de construire des centres de données et de prendre une longueur d’avance dans la compétition de modèles de pointe ; en fournissant une approbation réglementaire rapide pour le déploiement d’une flotte de taxis autonomes de Tesla, etc.
Plus fondamentalement, contrairement à de nombreux autres leaders technologiques que Trump admire, Musk accorde une grande importance aux risques de sécurité de l’intelligence artificielle et plaide donc en faveur d’une réglementation importante de l’intelligence artificielle.
Il soutient le projet de loi controversé SB1047 de la Californie, qui vise à imposer des restrictions significatives aux développeurs d’IA. En conséquence, l’influence de Musk pourrait conduire à un environnement réglementaire plus strict pour l’IA aux États-Unis.
Cependant, toutes ces spéculations posent un problème. La relation étroite entre Trump et Musk finira inévitablement par se briser.
Comme nous l’avons vu à maintes reprises au cours du premier mandat de l’administration Trump, la durée moyenne du mandat des alliés de Trump, même les plus fidèles en apparence, est très courte.
Parmi les rares collaborateurs de la première administration de Trump qui lui sont encore fidèles aujourd’hui.
Trump et Musk sont tous deux des personnalités complexes, volatiles et imprévisibles avec lesquelles il n’est pas facile de travailler, elles sont épuisantes et leur nouvelle amitié a jusqu’à présent été mutuellement bénéfique, mais toujours dans sa « phase de lune de miel ».
Nous prévoyons que cette relation se détériorera avant la fin de 2025.
Que signifie cela pour le monde de l’intelligence artificielle ?
C’est une bonne nouvelle pour OpenAI. Pour les actionnaires de Tesla, ce sera une mauvaise nouvelle. Et pour ceux qui s’intéressent à la sécurité de l’intelligence artificielle, ce sera une déception, car cela garantit presque que le gouvernement américain adoptera une attitude de non-intervention en matière de réglementation de l’intelligence artificielle pendant la présidence de Trump.
04L’agent AI deviendra dominant
Imaginez un monde où vous n’avez plus besoin d’interagir directement avec Internet. Chaque fois que vous avez besoin de gérer des abonnements, de payer des factures, de prendre rendez-vous chez le médecin, de commander des articles sur Amazon, de réserver un restaurant ou d’accomplir toute autre tâche en ligne fastidieuse, il vous suffit de demander à votre assistant d’intelligence artificielle de le faire à votre place.
Le concept de “proxy réseau” existe depuis de nombreuses années. S’il y a un tel produit et qu’il fonctionne correctement, sans aucun doute, ce sera un produit très réussi.
Cependant, il n’existe pas encore de proxy web universel sur le marché qui fonctionne correctement.
Des start-ups comme Adept, même avec une équipe fondatrice de sang pur et des centaines de millions de dollars de financement, n’ont pas réussi à réaliser leur vision.
L’année prochaine sera l’année où les proxys web commenceront enfin à bien fonctionner et à devenir grand public. Les progrès continus dans les modèles de base linguistiques et visuels, associés aux récentes percées dans les capacités de « pensée de second système » grâce aux nouveaux modèles d’inférence et aux calculs de temps d’inférence, signifieront que les agents Web sont prêts pour un âge d’or.
En d’autres termes, l’idée d’Adept est correcte, mais c’est juste trop tôt. Dans les start-ups, comme dans la vie, le timing est tout.
Les agents de réseau trouveront divers cas d’utilisation de valeur, mais nous pensons que la plus grande opportunité de marché pour les agents de réseau sera les consommateurs.
Bien que l’intérêt pour l’intelligence artificielle ne faiblisse pas récemment, en dehors de ChatGPT, il y a relativement peu d’applications natives d’intelligence artificielle qui peuvent devenir des applications grand public.
Les proxys Web vont changer cela et devenir la prochaine véritable « killer app » dans l’espace de l’IA grand public.
05L’idée de placer un centre de données d’intelligence artificielle dans l’espace sera réalisée
En 2023, la ressource physique clé limitant le développement de l’intelligence artificielle est la puce GPU. En 2024, il devient l’électricité et les centres de données.
En 2024, il y a peu d’histoires qui suscitent autant d’attention que la demande croissante et rapide en énergie pendant que l’intelligence artificielle construit frénétiquement davantage de centres de données pour elle-même.
Grâce au développement florissant de l’intelligence artificielle, la demande d’électricité des centres de données mondiaux devrait doubler entre 2023 et 2026, après des décennies de stabilité. Aux États-Unis, la consommation d’électricité des centres de données devrait atteindre près de 10% de la consommation totale d’ici 2030, contre seulement 3% en 2022.
!
Le système énergétique actuel est tout simplement incapable de faire face à la demande croissante de charge de travail de l’intelligence artificielle. Il y aura bientôt une collision historique entre notre réseau énergétique et notre infrastructure informatique, deux systèmes d’une valeur de plusieurs billions de dollars.
Comme une solution possible à ce problème, l’énergie nucléaire a connu un développement rapide cette année. L’énergie nucléaire est une source d’énergie idéale pour l’intelligence artificielle à bien des égards : elle est une énergie zéro carbone, disponible en permanence et en réalité, elle est inépuisable.
Cependant, compte tenu de la réalité de la situation, il ne sera pas possible de résoudre ce problème avec les énergies nouvelles avant les années 2030 en raison du temps nécessaire pour la recherche, le développement de projets et la réglementation. Cela s’applique également aux centrales nucléaires à fission traditionnelles, aux réacteurs modulaires de nouvelle génération (SMR) et aux centrales de fusion nucléaire.
L’année prochaine, une nouvelle idée non conventionnelle pour relever ce défi émergera et attirera de réelles ressources : placer des centres de données d’IA dans l’espace.
Un centre de données d’intelligence artificielle dans l’espace, à première vue, cela ressemble à une blague de mauvais goût, un investisseur risqué essayant de combiner trop de jargon entrepreneurial.
Mais en fait, cela peut avoir du sens.
Le plus grand obstacle à la construction rapide de plus de centres de données sur Terre est l’obtention de l’électricité requise. Les clusters de calcul en orbite peuvent bénéficier gratuitement, en continu et sans émission de carbone de l’électricité : le soleil dans l’espace brille toujours.
Un autre avantage important de placer le calcul dans l’espace est qu’il résout le problème du refroidissement.
Pour construire un centre de données d’intelligence artificielle plus puissant, l’un des plus grands obstacles techniques est de faire fonctionner de nombreux GPU dans un espace restreint, ce qui peut provoquer une chaleur excessive et endommager ou détruire les équipements de calcul.
Les développeurs de centres de données ont recours à des méthodes coûteuses et non éprouvées, telles que le refroidissement par immersion liquide, pour tenter de résoudre ce problème. Mais l’espace est extrêmement froid, et toute chaleur générée par l’activité informatique se dissipe immédiatement et sans danger.
Bien sûr, il y a encore de nombreux défis pratiques à relever. Un problème évident est de savoir si et comment transférer efficacement de grandes quantités de données entre l’orbite et la Terre à faible coût.
Il s’agit d’une question ouverte, mais qui pourrait s’avérer soluble : des travaux prometteurs peuvent être réalisés avec les lasers et d’autres technologies de communication optique à large bande passante.
Une startup appelée Lumen Orbit, soutenue par YCombinator, a récemment levé 11 millions de dollars pour réaliser son idéal : établir un réseau de centres de données de plusieurs mégawatts dans l’espace pour former des modèles d’intelligence artificielle.
Comme l’a dit le PDG de la société: “plutôt que de payer 140 millions de dollars de factures d’électricité, il vaut mieux payer 10 millions de dollars pour les frais de lancement et d’énergie solaire”.
!
En 2025, Lumen ne sera pas la seule organisation à prendre au sérieux ce concept.
D’autres concurrents de start-ups peuvent également apparaître. Ne soyez pas surpris si une ou plusieurs entreprises de cloud computing à grande échelle explorent également cette approche.
Amazon a déjà une grande expérience de la mise en orbite d’actifs dans le cadre du projet Kuiper ; Google finance depuis longtemps des « moonshots » similaires ; Même Microsoft n’est pas étranger à l’économie spatiale.
On peut imaginer que SpaceX, la société de Musk, fera également quelque chose dans ce domaine.
06 Le système d’intelligence artificielle réussira le “test de Turing vocal”.
Le test de Turing est l’un des benchmarks les plus anciens et les plus connus pour les performances de l’IA.
Pour “passer” le test de Turing, un système d’intelligence artificielle doit être capable de communiquer par écrit de manière à ce que les gens ordinaires ne puissent pas distinguer s’ils interagissent avec l’intelligence artificielle ou avec d’autres personnes.
Grâce aux progrès significatifs des grands modèles de langage, le test de Turing est devenu une question résolue dans les années 2020.
Cependant, le texte écrit n’est pas le seul moyen de communication humaine.
Avec l’intelligence artificielle de plus en plus multimodale, on peut imaginer une nouvelle version du test de Turing plus difficile appelée le “test de Turing vocal”. Dans ce test, le système d’intelligence artificielle doit être capable d’interagir avec les humains par la voix, avec des compétences et une fluidité indiscernables de celles d’un locuteur humain.
Les systèmes d’intelligence artificielle d’aujourd’hui ne peuvent pas encore passer le test de Turing en matière de reconnaissance vocale, et résoudre ce problème nécessitera davantage de progrès technologiques. Le délai (le retard entre la parole humaine et la réponse de l’intelligence artificielle) doit être réduit à près de zéro pour correspondre à l’expérience de parler à un autre être humain.
Les systèmes d’IA vocale doivent être plus aptes à gérer élégamment les entrées ambiguës ou les malentendus en temps réel, par exemple lorsque la parole est interrompue. Ils doivent être capables de participer à de longues conversations ouvertes à plusieurs tours, tout en se souvenant des premières parties de la discussion.
Et surtout, les agents d’IA vocale doivent apprendre à mieux comprendre les signaux non verbaux dans la parole. Par exemple, si un locuteur humain semble ennuyé, excité ou sarcastique à propos de ce que cela signifie, générez ces signaux non verbaux dans sa propre voix.
À mesure que nous approchons de la fin de 2024, l’intelligence artificielle vocale est à un tournant passionnant, un tournant fondamental stimulé par des percées telles que l’apparition de modèles de parole à parole.
De nos jours, il y a peu de domaines de l’intelligence artificielle où les progrès technologiques et commerciaux sont plus rapides que ceux de l’intelligence artificielle vocale. Il est prévu que les dernières technologies de l’intelligence artificielle vocale connaîtront une avancée en 2025.
07Le système d’IA autonome fera des progrès importants
Le concept d’IA récursive auto-améliorée est un sujet fréquent dans la communauté de l’IA depuis des décennies.
Par exemple, dès 1965, I.J.Good, le collaborateur proche d’Alan Turing, écrivait : « Définissons une machine superintelligente comme une machine capable de dépasser de loin toutes les activités intellectuelles humaines, quelle que soit sa finesse. »
« Puisque la conception de machines est l’une de ces activités intellectuelles, les machines superintelligentes peuvent concevoir de meilleures machines ; À ce moment-là, il y aura sans aucun doute une « explosion de l’intelligence » où l’intelligence humaine sera laissée loin derrière. ”
L’intelligence artificielle peut inventer une meilleure intelligence artificielle, qui est un concept plein de sagesse. Cependant, même aujourd’hui, il conserve l’ombre de la science-fiction.
Cependant, bien que ce concept ne soit pas encore largement reconnu, il est en réalité en train de devenir de plus en plus réel. Les chercheurs à la pointe de la science de l’intelligence artificielle ont déjà commencé à faire des progrès concrets dans la construction de systèmes d’intelligence artificielle, et les systèmes d’intelligence artificielle eux-mêmes peuvent également construire de meilleurs systèmes d’intelligence artificielle.
Nous prévoyons que cette direction de recherche deviendra dominante l’année prochaine.
Jusqu’à présent, l’exemple le plus notable de recherche dans cette direction est le «scientifique en intelligence artificielle» de Sakana.
Le « AI Scientist » a été publié en août de cette année, et il prouve de manière convaincante que les systèmes d’IA peuvent en effet mener des recherches sur l’IA de manière totalement autonome.
Les « scientifiques de l’IA » de Sakana effectuent eux-mêmes l’ensemble du cycle de vie de la recherche sur l’IA : lire la littérature existante, générer de nouvelles idées de recherche, concevoir des expériences pour tester ces idées, réaliser ces expériences, rédiger des documents de recherche pour rendre compte de leurs résultats, puis évaluer leurs travaux par des pairs.
Ces travaux sont entièrement réalisés de manière autonome par l’intelligence artificielle, sans intervention humaine. Vous pouvez lire en ligne une partie des articles de recherche rédigés par des scientifiques en intelligence artificielle.
OpenAI, Anthropic et d’autres laboratoires de recherche consacrent des ressources à l’idée de « chercheurs en IA automatisée », bien que rien n’ait été reconnu publiquement.
À mesure que de plus en plus de personnes réalisent que la recherche en intelligence artificielle automatisée est en train de devenir une possibilité réelle, il est prévu que ce domaine fera l’objet de plus de discussions, de progrès et d’activités entrepreneuriales d’ici 2025.
L’étape la plus importante, cependant, sera la première fois qu’un document de recherche entièrement rédigé par un agent d’IA sera accepté par une conférence de haut niveau sur l’IA. Si l’article est examiné à l’aveugle, l’examinateur de la conférence ne saura pas que l’article a été rédigé par l’IA jusqu’à ce qu’il soit accepté.
Ne soyez pas surpris si les résultats de la recherche en intelligence artificielle sont acceptés par NeurIPS, CVPR ou ICML l’année prochaine. Ce sera un moment historique fascinant et controversé pour le domaine de l’intelligence artificielle.
08Les géants de l’industrie tels qu’OpenAI ont recentré leur stratégie sur la construction d’applications
Construire des modèles de pointe est un travail difficile.
Il s’agit d’une activité à forte intensité de capital. Les laboratoires modèles de pointe consomment beaucoup d’argent. Il y a quelques mois à peine, OpenAI a levé un montant record de 6,5 milliards de dollars, et dans un avenir proche, il pourrait avoir besoin d’en lever davantage. Anthropic, xAI et d’autres sont dans une situation similaire.
Les coûts de conversion et la fidélité des clients sont faibles. Les applications d’intelligence artificielle sont généralement conçues dans un but de neutralité du modèle, ce qui permet de passer facilement d’un modèle de fournisseur à un autre en fonction de l’évolution des coûts et des performances.
Avec l’émergence de modèles ouverts avancés tels que Meta’s Llama et Qwen d’Alibaba, la menace de la marchandisation technologique se rapproche de plus en plus. Des leaders de l’intelligence artificielle tels que OpenAI et Anthropic continueront inévitablement à investir dans la construction de modèles de pointe.
Cependant, l’année prochaine, pour développer des lignes d’activités plus rentables, plus différenciées et plus adhérentes, le laboratoire de pointe devrait lancer vigoureusement ses propres applications et produits.
Bien sûr, le laboratoire de pointe a déjà un cas d’application très réussi : ChatGPT.
Quels autres types d’applications de première partie pouvons-nous voir dans le laboratoire d’intelligence artificielle cette année ? Une réponse évidente est une application de recherche plus complexe et plus riche en fonctionnalités. SearchGPT d’OpenAI en est un exemple.
Le codage est une autre catégorie évidente. De même, avec la première apparition du produit Canvas d’OpenAI en octobre, le travail initial de mise en production a déjà commencé.
Est-ce que OpenAI ou Anthropic lancera un produit de recherche d’entreprise en 2025 ? Ou peut-être un produit de service client, d’intelligence artificielle juridique ou de vente ?
Du côté du consommateur, on peut imaginer un produit de proxy web « assistant personnel », ou une application de planification de voyage, ou une application qui génère de la musique.
L’un des aspects les plus fascinants du passage des laboratoires de pointe à la couche applicative est que cette évolution les mettra en concurrence directe avec bon nombre de leurs clients les plus importants.
Perplexité dans le domaine de la recherche, curseur dans le domaine du codage, Sierra dans le domaine du service client, Harvey dans le domaine de l’intelligence artificielle juridique, Clay dans le domaine des ventes, etc.
09 Klarna va être coté en bourse en 2025, mais il y a des signes d’exagération de la valeur de l’IA.
Klarna est un fournisseur de services basé en Suède qui a levé près de 5 milliards de dollars en capital-risque depuis sa création en 2005.
Peut-être qu’aucune entreprise n’est plus loquace au sujet de ses applications d’IA que Klarna.
Il y a quelques jours à peine, le PDG de Klarna, Sebastian Siemiatkowski, a déclaré à Bloomberg que l’entreprise avait complètement arrêté d’embaucher des employés humains et comptait plutôt sur l’intelligence artificielle générative pour effectuer les tâches.
Comme Siemiatkowski l’a dit : “Je pense que l’intelligence artificielle peut déjà accomplir tout le travail que nous faisons en tant qu’êtres humains.”
De manière similaire, plus tôt cette année, la société Klarna a annoncé le lancement d’une plateforme de service client alimentée par l’intelligence artificielle, qui a entièrement automatisé le travail de 700 agents de service clientèle.
!
La société prétend également avoir cessé d’utiliser des produits logiciels d’entreprise tels que Salesforce et Workday, car elle peut simplement les remplacer par l’intelligence artificielle.
Pour être direct, ces affirmations ne sont pas fiables. Elles reflètent un manque de compréhension des capacités et des limites des systèmes d’intelligence artificielle d’aujourd’hui.
Affirmer que l’agent d’intelligence artificielle de bout en bout peut remplacer n’importe quel employé humain spécifique d’un département fonctionnel au sein d’une organisation n’est pas réaliste. Cela équivaut à résoudre le problème général de l’intelligence artificielle de niveau humain.
Aujourd’hui, les principales start-ups d’IA sont à l’avant-garde du domaine et travaillent à la création de systèmes d’agence qui automatisent des flux de travail d’entreprise spécifiques, étroits et hautement structurés, par exemple, les représentants du développement des ventes ou un sous-ensemble des activités des agents du service client.
Même dans ces situations où la gamme est étroite, ces systèmes de proxy ne fonctionnent pas encore de manière totalement fiable, bien qu’ils aient commencé à bien fonctionner dans certains cas, suffisamment pour être utilisés commercialement au début.
Pourquoi Klarna exagère-t-il la valeur de l’intelligence artificielle ?
La réponse est simple. La société prévoit d’entrer en bourse au cours du premier semestre 2025. La clé d’une introduction en bourse réussie est d’avoir une histoire d’IA convaincante.
Klarna, qui reste une entreprise non rentable, a perdu 241 millions de dollars l’année dernière, espère peut-être que son histoire d’IA convaincra les investisseurs du marché public qu’elle a la capacité de réduire considérablement les coûts et de réaliser des bénéfices durables.
Il ne fait aucun doute que chaque entreprise mondiale, y compris Klarna, bénéficiera d’une énorme augmentation de la productivité grâce à l’intelligence artificielle au cours des prochaines années. Cependant, avant que les agents d’intelligence artificielle ne remplacent complètement la main-d’œuvre humaine, de nombreux défis techniques, produits et organisationnels complexes restent à résoudre.
Des affirmations exagérées comme celle de Klarna sont un blasphème contre le domaine de l’IA et les progrès laborieux réalisés par les technologues et les entrepreneurs de l’IA dans le développement d’agents d’IA.
Alors que Klarna se prépare à une introduction en bourse en 2025, ces affirmations devraient faire l’objet d’un examen minutieux et du scepticisme du public, et jusqu’à présent, elles n’ont pour la plupart pas été remises en question. Ne soyez pas surpris si certaines des descriptions de l’entreprise de ses applications d’IA sont exagérées.
10 Le premier véritable incident de sécurité de l’IA se produira bientôt.
Ces dernières années, avec l’augmentation de la puissance de l’intelligence artificielle, les gens sont de plus en plus inquiets que les systèmes d’intelligence artificielle pourraient commencer à agir de manière incompatible avec les intérêts humains, et que les humains pourraient perdre le contrôle de ces systèmes.
Par exemple, imaginez un système d’intelligence artificielle qui apprend à tromper ou à manipuler les humains pour atteindre ses propres objectifs, même si ces objectifs peuvent causer des dommages aux humains. Ces préoccupations sont généralement classées comme des problèmes de sécurité de l’IA.
Ces dernières années, la sécurité de l’intelligence artificielle est passée d’un sujet de science-fiction marginal à un domaine d’activité dominant.
Aujourd’hui, chaque acteur majeur de l’intelligence artificielle, de Google et Microsoft à OpenAI, investit des ressources importantes dans la sécurité de l’intelligence artificielle. Des idoles de l’intelligence artificielle telles que Geoff Hinton, Yoshua Bengio et Elon Musk commencent également à exprimer leur opinion sur les risques de sécurité de l’intelligence artificielle.
Cependant, jusqu’à présent, la question de la sécurité de l’IA est restée entièrement théorique. Il n’y a jamais eu de véritable incident de sécurité de l’IA dans le monde réel (du moins pas rapporté publiquement).
2025 sera l’année du changement de cette situation. À quoi ressemblera le premier incident de sécurité de l’intelligence artificielle ?
En termes clairs, il ne s’agit pas de robots tueurs de style Terminator et il est peu probable qu’ils causent des dommages aux êtres humains.
Peut-être que le modèle d’IA essaiera secrètement de créer une copie de lui-même sur un autre serveur afin de se sauver lui-même (connu sous le nom d’auto-filtrage).
Il est possible que les modèles d’intelligence artificielle parviennent à la conclusion suivante : pour mieux promouvoir les objectifs qui leur sont assignés, ils doivent dissimuler leurs capacités réelles aux humains, se montrer modestes lors des évaluations de performance et éviter des examens plus rigoureux.
Ces exemples ne sont pas tirés par les cheveux. Des expériences importantes publiées plus tôt ce mois-ci par la société de recherche Apollo montrent que, avec des indices spécifiques, les modèles de pointe actuels sont capables de produire ce type de comportement trompeur.
De même, des recherches récentes en anthropologie ont montré que les LLM ont une capacité troublante à « pseudo-aligner ».
Nous prévoyons que cet incident de sécurité en intelligence artificielle, qui est le premier du genre, sera découvert et éliminé avant de causer des dommages réels. Cependant, cela marquera un moment d’éveil majeur pour le domaine de l’intelligence artificielle et pour la société dans son ensemble.
Il va être clair sur une chose: avant que l’humanité ne soit confrontée à la menace existentielle de l’intelligence artificielle omnipotente, nous devons accepter une réalité plus banale: nous partageons actuellement notre monde avec une forme d’intelligence différente, qui peut parfois être capricieuse, imprévisible et trompeuse.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les 10 principales prévisions de l'intelligence artificielle en 2025 : la direction des agents d'IA deviendra la norme.
L’année 2024 touche à sa fin, et Rob Toews, investisseur en capital-risque chez Radical Ventures, partage ses 10 prédictions sur l’intelligence artificielle pour 2025 :
01 Meta commencera à facturer le modèle Llama
Meta est l’étalon mondial de l’intelligence artificielle ouverte. Dans une étude de cas stratégique d’entreprise remarquable, alors que des concurrents tels que OpenAI et Google ont choisi de fermer leurs modèles de pointe et de facturer des frais d’utilisation, Meta a choisi de fournir gratuitement son modèle de pointe Llama.
Par conséquent, il sera surprenant pour de nombreuses personnes d’apprendre que Meta commencera à facturer les entreprises qui utilisent Llama l’année prochaine.
Il est important de préciser que nous n’avons pas prédit que Meta rendrait Llama complètement propriétaire, et cela ne signifie pas que tous les utilisateurs du modèle Llama devront payer pour cela.
Au contraire, nous prédisons que Meta imposera des restrictions plus strictes sur les conditions de licence open source de Llama, de sorte que les entreprises utilisant Llama dans un certain contexte commercial devront commencer à payer pour utiliser les modèles.
Techniquement, Meta a déjà réalisé cela dans une certaine mesure. La société n’autorise pas les plus grandes entreprises, comme les supercalculateurs cloud et d’autres sociétés avec plus de 700 millions d’utilisateurs actifs mensuels, à utiliser librement son modèle Llama.
Dès 2023, le PDG de Meta, Mark Zuckerberg, a déclaré : “Si vous êtes une entreprise comme Microsoft, Amazon ou Google, et que vous revendez essentiellement des lamas, nous devrions en tirer une part de revenus. Je ne pense pas que ce soit une grosse somme à court terme, mais j’espère que cela deviendra une source de revenus à long terme.”
L’année prochaine, Meta élargira considérablement la portée de l’entreprise qui doit payer pour utiliser Llama, en incluant davantage d’entreprises de taille moyenne et grande.
Suivre le dernier cri des grands modèles de langage (LLM) est très coûteux. Pour que Llama soit en phase ou proche des derniers modèles de pointe d’entreprises telles que OpenAI et Anthropic, Meta devrait investir des dizaines de milliards de dollars par an.
Meta est l’une des entreprises les plus importantes et les mieux financées au monde. Mais il s’agit également d’une société ouverte qui, en fin de compte, doit rendre des comptes à ses actionnaires.
Avec le coût croissant de la fabrication de modèles de pointe, il est de plus en plus difficile de justifier l’investissement massif de Meta dans la formation de la prochaine génération de modèles Llama sans perspective de revenus.
Les amateurs, les chercheurs, les développeurs individuels et les start-ups pourront continuer à utiliser gratuitement le modèle Llama l’année prochaine. Mais en 2025, ce sera l’année où Meta commencera sérieusement à réaliser des bénéfices avec Llama.
**02.**Problèmes associés à la “loi de l’échelle”
Ces dernières semaines, la discussion la plus fréquente dans le domaine de l’intelligence artificielle concerne les lois d’échelle et la question de savoir si elles sont sur le point de se terminer.
La loi de l’échelle a été mentionnée pour la première fois dans un article d’OpenAI en 2020. Son concept de base est simple et clair : lors de l’entraînement d’un modèle d’intelligence artificielle, à mesure que le nombre de paramètres du modèle, la quantité de données d’entraînement et la puissance de calcul augmentent, les performances du modèle s’améliorent de manière fiable et prévisible (techniquement, sa perte de test diminue).
De GPT-2 à GPT-3 puis à GPT-4, les améliorations de performance époustouflantes sont toutes dues à la loi d’échelle。
Comme la loi de Moore, la loi de l’échelle n’est en réalité pas une véritable règle, mais seulement une observation empirique simple.
Au cours du dernier mois, une série de rapports indiquent que les principaux laboratoires d’intelligence artificielle voient des rendements décroissants lorsqu’ils continuent d’élargir l’échelle des modèles de langue de grande taille. Cela contribue à expliquer pourquoi la sortie de GPT-5 d’OpenAI est reportée à plusieurs reprises.
L’objection la plus courante à la loi d’échelle qui tend vers la stabilité est que le calcul effectué lors du test a ouvert une toute nouvelle dimension, qui peut être explorée pour une expansion à l’échelle de cette dimension.
En d’autres termes, au lieu d’étendre massivement les calculs pendant la période d’entraînement, de nouveaux modèles d’inférence tels que o3 d’OpenAI rendent possible une expansion massive des calculs pendant la période d’inférence en permettant au modèle de “réfléchir plus longtemps” pour débloquer de nouvelles capacités d’IA.
Il s’agit d’un point de vue important. Les tests de calcul représentent effectivement une nouvelle voie passionnante pour l’extension, ainsi qu’une amélioration des performances de l’IA.
Mais un autre point de vue important sur la loi d’échelle, qui a été largement sous-estimé dans les discussions d’aujourd’hui, est crucial. Presque toutes les discussions sur la loi d’échelle, de l’article initial de 2020 jusqu’à l’attention portée aux calculs lors des tests aujourd’hui, se concentrent sur le langage. Mais le langage n’est pas le seul mode de données important.
Pensez à la technologie des robots, à la biologie, aux modèles mondiaux ou aux agents en réseau. Pour ces modèles de données, la loi d’échelle n’est pas encore saturée ; au contraire, ils ne font que commencer.
En fait, il n’y a pas encore de preuve rigoureuse de l’existence de lois d’échelle à moyenne échelle dans ces domaines, et ce, même aujourd’hui.
Les start-ups qui construisent des modèles de base pour ces nouveaux modes de données - telles que Evolutionary Scale dans le domaine de la biologie, PhysicalIntelligence dans le domaine de la robotique et WorldLabs dans le domaine des modèles mondiaux - cherchent à identifier et à exploiter les lois d’échelle de ces domaines, tout comme OpenAI a réussi à le faire dans la première moitié des années 2020 avec les lois d’échelle des grands modèles linguistiques (LLM).
L’année prochaine, on prévoit de faire d’énormes progrès ici.
La loi d’échelle ne disparaîtra pas, elles resteront tout aussi importantes en 2025. Cependant, le centre d’activité de la loi d’échelle passera des pré-entraînements LLM à d’autres modèles.
**03.**Trump and Musk may have differences in the direction of AI
Le nouveau gouvernement américain apportera une série de changements politiques et stratégiques concernant l’intelligence artificielle.
Pour prévoir la direction de l’intelligence artificielle sous la présidence du président Trump, et compte tenu de la position centrale actuelle de Musk dans le domaine de l’intelligence artificielle, les gens pourraient être enclins à se concentrer sur la relation étroite entre le président élu et Musk.
On peut imaginer que Musk pourrait influencer le développement de l’intelligence artificielle par le gouvernement Trump de diverses manières.
Étant donné l’hostilité profonde entre Musk et OpenAI, le nouveau gouvernement pourrait adopter une position peu amicale à l’égard d’OpenAI dans ses contacts avec l’industrie, l’élaboration de réglementations en matière d’intelligence artificielle, l’attribution de contrats gouvernementaux, etc. C’est un risque réellement préoccupant pour OpenAI aujourd’hui.
D’autre part, le gouvernement de Trump pourrait être plus enclin à soutenir la propre entreprise de Musk : par exemple, en réduisant les formalités administratives pour permettre à xAI de construire des centres de données et de prendre une longueur d’avance dans la compétition de modèles de pointe ; en fournissant une approbation réglementaire rapide pour le déploiement d’une flotte de taxis autonomes de Tesla, etc.
Plus fondamentalement, contrairement à de nombreux autres leaders technologiques que Trump admire, Musk accorde une grande importance aux risques de sécurité de l’intelligence artificielle et plaide donc en faveur d’une réglementation importante de l’intelligence artificielle.
Il soutient le projet de loi controversé SB1047 de la Californie, qui vise à imposer des restrictions significatives aux développeurs d’IA. En conséquence, l’influence de Musk pourrait conduire à un environnement réglementaire plus strict pour l’IA aux États-Unis.
Cependant, toutes ces spéculations posent un problème. La relation étroite entre Trump et Musk finira inévitablement par se briser.
Comme nous l’avons vu à maintes reprises au cours du premier mandat de l’administration Trump, la durée moyenne du mandat des alliés de Trump, même les plus fidèles en apparence, est très courte.
Parmi les rares collaborateurs de la première administration de Trump qui lui sont encore fidèles aujourd’hui.
Trump et Musk sont tous deux des personnalités complexes, volatiles et imprévisibles avec lesquelles il n’est pas facile de travailler, elles sont épuisantes et leur nouvelle amitié a jusqu’à présent été mutuellement bénéfique, mais toujours dans sa « phase de lune de miel ».
Nous prévoyons que cette relation se détériorera avant la fin de 2025.
Que signifie cela pour le monde de l’intelligence artificielle ?
C’est une bonne nouvelle pour OpenAI. Pour les actionnaires de Tesla, ce sera une mauvaise nouvelle. Et pour ceux qui s’intéressent à la sécurité de l’intelligence artificielle, ce sera une déception, car cela garantit presque que le gouvernement américain adoptera une attitude de non-intervention en matière de réglementation de l’intelligence artificielle pendant la présidence de Trump.
04 L’agent AI deviendra dominant
Imaginez un monde où vous n’avez plus besoin d’interagir directement avec Internet. Chaque fois que vous avez besoin de gérer des abonnements, de payer des factures, de prendre rendez-vous chez le médecin, de commander des articles sur Amazon, de réserver un restaurant ou d’accomplir toute autre tâche en ligne fastidieuse, il vous suffit de demander à votre assistant d’intelligence artificielle de le faire à votre place.
Le concept de “proxy réseau” existe depuis de nombreuses années. S’il y a un tel produit et qu’il fonctionne correctement, sans aucun doute, ce sera un produit très réussi.
Cependant, il n’existe pas encore de proxy web universel sur le marché qui fonctionne correctement.
Des start-ups comme Adept, même avec une équipe fondatrice de sang pur et des centaines de millions de dollars de financement, n’ont pas réussi à réaliser leur vision.
L’année prochaine sera l’année où les proxys web commenceront enfin à bien fonctionner et à devenir grand public. Les progrès continus dans les modèles de base linguistiques et visuels, associés aux récentes percées dans les capacités de « pensée de second système » grâce aux nouveaux modèles d’inférence et aux calculs de temps d’inférence, signifieront que les agents Web sont prêts pour un âge d’or.
En d’autres termes, l’idée d’Adept est correcte, mais c’est juste trop tôt. Dans les start-ups, comme dans la vie, le timing est tout.
Les agents de réseau trouveront divers cas d’utilisation de valeur, mais nous pensons que la plus grande opportunité de marché pour les agents de réseau sera les consommateurs.
Bien que l’intérêt pour l’intelligence artificielle ne faiblisse pas récemment, en dehors de ChatGPT, il y a relativement peu d’applications natives d’intelligence artificielle qui peuvent devenir des applications grand public.
Les proxys Web vont changer cela et devenir la prochaine véritable « killer app » dans l’espace de l’IA grand public.
05 L’idée de placer un centre de données d’intelligence artificielle dans l’espace sera réalisée
En 2023, la ressource physique clé limitant le développement de l’intelligence artificielle est la puce GPU. En 2024, il devient l’électricité et les centres de données.
En 2024, il y a peu d’histoires qui suscitent autant d’attention que la demande croissante et rapide en énergie pendant que l’intelligence artificielle construit frénétiquement davantage de centres de données pour elle-même.
Grâce au développement florissant de l’intelligence artificielle, la demande d’électricité des centres de données mondiaux devrait doubler entre 2023 et 2026, après des décennies de stabilité. Aux États-Unis, la consommation d’électricité des centres de données devrait atteindre près de 10% de la consommation totale d’ici 2030, contre seulement 3% en 2022.
!
Le système énergétique actuel est tout simplement incapable de faire face à la demande croissante de charge de travail de l’intelligence artificielle. Il y aura bientôt une collision historique entre notre réseau énergétique et notre infrastructure informatique, deux systèmes d’une valeur de plusieurs billions de dollars.
Comme une solution possible à ce problème, l’énergie nucléaire a connu un développement rapide cette année. L’énergie nucléaire est une source d’énergie idéale pour l’intelligence artificielle à bien des égards : elle est une énergie zéro carbone, disponible en permanence et en réalité, elle est inépuisable.
Cependant, compte tenu de la réalité de la situation, il ne sera pas possible de résoudre ce problème avec les énergies nouvelles avant les années 2030 en raison du temps nécessaire pour la recherche, le développement de projets et la réglementation. Cela s’applique également aux centrales nucléaires à fission traditionnelles, aux réacteurs modulaires de nouvelle génération (SMR) et aux centrales de fusion nucléaire.
L’année prochaine, une nouvelle idée non conventionnelle pour relever ce défi émergera et attirera de réelles ressources : placer des centres de données d’IA dans l’espace.
Un centre de données d’intelligence artificielle dans l’espace, à première vue, cela ressemble à une blague de mauvais goût, un investisseur risqué essayant de combiner trop de jargon entrepreneurial.
Mais en fait, cela peut avoir du sens.
Le plus grand obstacle à la construction rapide de plus de centres de données sur Terre est l’obtention de l’électricité requise. Les clusters de calcul en orbite peuvent bénéficier gratuitement, en continu et sans émission de carbone de l’électricité : le soleil dans l’espace brille toujours.
Un autre avantage important de placer le calcul dans l’espace est qu’il résout le problème du refroidissement.
Pour construire un centre de données d’intelligence artificielle plus puissant, l’un des plus grands obstacles techniques est de faire fonctionner de nombreux GPU dans un espace restreint, ce qui peut provoquer une chaleur excessive et endommager ou détruire les équipements de calcul.
Les développeurs de centres de données ont recours à des méthodes coûteuses et non éprouvées, telles que le refroidissement par immersion liquide, pour tenter de résoudre ce problème. Mais l’espace est extrêmement froid, et toute chaleur générée par l’activité informatique se dissipe immédiatement et sans danger.
Bien sûr, il y a encore de nombreux défis pratiques à relever. Un problème évident est de savoir si et comment transférer efficacement de grandes quantités de données entre l’orbite et la Terre à faible coût.
Il s’agit d’une question ouverte, mais qui pourrait s’avérer soluble : des travaux prometteurs peuvent être réalisés avec les lasers et d’autres technologies de communication optique à large bande passante.
Une startup appelée Lumen Orbit, soutenue par YCombinator, a récemment levé 11 millions de dollars pour réaliser son idéal : établir un réseau de centres de données de plusieurs mégawatts dans l’espace pour former des modèles d’intelligence artificielle.
Comme l’a dit le PDG de la société: “plutôt que de payer 140 millions de dollars de factures d’électricité, il vaut mieux payer 10 millions de dollars pour les frais de lancement et d’énergie solaire”.
!
En 2025, Lumen ne sera pas la seule organisation à prendre au sérieux ce concept.
D’autres concurrents de start-ups peuvent également apparaître. Ne soyez pas surpris si une ou plusieurs entreprises de cloud computing à grande échelle explorent également cette approche.
Amazon a déjà une grande expérience de la mise en orbite d’actifs dans le cadre du projet Kuiper ; Google finance depuis longtemps des « moonshots » similaires ; Même Microsoft n’est pas étranger à l’économie spatiale.
On peut imaginer que SpaceX, la société de Musk, fera également quelque chose dans ce domaine.
06 Le système d’intelligence artificielle réussira le “test de Turing vocal”.
Le test de Turing est l’un des benchmarks les plus anciens et les plus connus pour les performances de l’IA.
Pour “passer” le test de Turing, un système d’intelligence artificielle doit être capable de communiquer par écrit de manière à ce que les gens ordinaires ne puissent pas distinguer s’ils interagissent avec l’intelligence artificielle ou avec d’autres personnes.
Grâce aux progrès significatifs des grands modèles de langage, le test de Turing est devenu une question résolue dans les années 2020.
Cependant, le texte écrit n’est pas le seul moyen de communication humaine.
Avec l’intelligence artificielle de plus en plus multimodale, on peut imaginer une nouvelle version du test de Turing plus difficile appelée le “test de Turing vocal”. Dans ce test, le système d’intelligence artificielle doit être capable d’interagir avec les humains par la voix, avec des compétences et une fluidité indiscernables de celles d’un locuteur humain.
Les systèmes d’intelligence artificielle d’aujourd’hui ne peuvent pas encore passer le test de Turing en matière de reconnaissance vocale, et résoudre ce problème nécessitera davantage de progrès technologiques. Le délai (le retard entre la parole humaine et la réponse de l’intelligence artificielle) doit être réduit à près de zéro pour correspondre à l’expérience de parler à un autre être humain.
Les systèmes d’IA vocale doivent être plus aptes à gérer élégamment les entrées ambiguës ou les malentendus en temps réel, par exemple lorsque la parole est interrompue. Ils doivent être capables de participer à de longues conversations ouvertes à plusieurs tours, tout en se souvenant des premières parties de la discussion.
Et surtout, les agents d’IA vocale doivent apprendre à mieux comprendre les signaux non verbaux dans la parole. Par exemple, si un locuteur humain semble ennuyé, excité ou sarcastique à propos de ce que cela signifie, générez ces signaux non verbaux dans sa propre voix.
À mesure que nous approchons de la fin de 2024, l’intelligence artificielle vocale est à un tournant passionnant, un tournant fondamental stimulé par des percées telles que l’apparition de modèles de parole à parole.
De nos jours, il y a peu de domaines de l’intelligence artificielle où les progrès technologiques et commerciaux sont plus rapides que ceux de l’intelligence artificielle vocale. Il est prévu que les dernières technologies de l’intelligence artificielle vocale connaîtront une avancée en 2025.
07 Le système d’IA autonome fera des progrès importants
Le concept d’IA récursive auto-améliorée est un sujet fréquent dans la communauté de l’IA depuis des décennies.
Par exemple, dès 1965, I.J.Good, le collaborateur proche d’Alan Turing, écrivait : « Définissons une machine superintelligente comme une machine capable de dépasser de loin toutes les activités intellectuelles humaines, quelle que soit sa finesse. »
« Puisque la conception de machines est l’une de ces activités intellectuelles, les machines superintelligentes peuvent concevoir de meilleures machines ; À ce moment-là, il y aura sans aucun doute une « explosion de l’intelligence » où l’intelligence humaine sera laissée loin derrière. ”
L’intelligence artificielle peut inventer une meilleure intelligence artificielle, qui est un concept plein de sagesse. Cependant, même aujourd’hui, il conserve l’ombre de la science-fiction.
Cependant, bien que ce concept ne soit pas encore largement reconnu, il est en réalité en train de devenir de plus en plus réel. Les chercheurs à la pointe de la science de l’intelligence artificielle ont déjà commencé à faire des progrès concrets dans la construction de systèmes d’intelligence artificielle, et les systèmes d’intelligence artificielle eux-mêmes peuvent également construire de meilleurs systèmes d’intelligence artificielle.
Nous prévoyons que cette direction de recherche deviendra dominante l’année prochaine.
Jusqu’à présent, l’exemple le plus notable de recherche dans cette direction est le «scientifique en intelligence artificielle» de Sakana.
Le « AI Scientist » a été publié en août de cette année, et il prouve de manière convaincante que les systèmes d’IA peuvent en effet mener des recherches sur l’IA de manière totalement autonome.
Les « scientifiques de l’IA » de Sakana effectuent eux-mêmes l’ensemble du cycle de vie de la recherche sur l’IA : lire la littérature existante, générer de nouvelles idées de recherche, concevoir des expériences pour tester ces idées, réaliser ces expériences, rédiger des documents de recherche pour rendre compte de leurs résultats, puis évaluer leurs travaux par des pairs.
Ces travaux sont entièrement réalisés de manière autonome par l’intelligence artificielle, sans intervention humaine. Vous pouvez lire en ligne une partie des articles de recherche rédigés par des scientifiques en intelligence artificielle.
OpenAI, Anthropic et d’autres laboratoires de recherche consacrent des ressources à l’idée de « chercheurs en IA automatisée », bien que rien n’ait été reconnu publiquement.
À mesure que de plus en plus de personnes réalisent que la recherche en intelligence artificielle automatisée est en train de devenir une possibilité réelle, il est prévu que ce domaine fera l’objet de plus de discussions, de progrès et d’activités entrepreneuriales d’ici 2025.
L’étape la plus importante, cependant, sera la première fois qu’un document de recherche entièrement rédigé par un agent d’IA sera accepté par une conférence de haut niveau sur l’IA. Si l’article est examiné à l’aveugle, l’examinateur de la conférence ne saura pas que l’article a été rédigé par l’IA jusqu’à ce qu’il soit accepté.
Ne soyez pas surpris si les résultats de la recherche en intelligence artificielle sont acceptés par NeurIPS, CVPR ou ICML l’année prochaine. Ce sera un moment historique fascinant et controversé pour le domaine de l’intelligence artificielle.
08 Les géants de l’industrie tels qu’OpenAI ont recentré leur stratégie sur la construction d’applications
Construire des modèles de pointe est un travail difficile.
Il s’agit d’une activité à forte intensité de capital. Les laboratoires modèles de pointe consomment beaucoup d’argent. Il y a quelques mois à peine, OpenAI a levé un montant record de 6,5 milliards de dollars, et dans un avenir proche, il pourrait avoir besoin d’en lever davantage. Anthropic, xAI et d’autres sont dans une situation similaire.
Les coûts de conversion et la fidélité des clients sont faibles. Les applications d’intelligence artificielle sont généralement conçues dans un but de neutralité du modèle, ce qui permet de passer facilement d’un modèle de fournisseur à un autre en fonction de l’évolution des coûts et des performances.
Avec l’émergence de modèles ouverts avancés tels que Meta’s Llama et Qwen d’Alibaba, la menace de la marchandisation technologique se rapproche de plus en plus. Des leaders de l’intelligence artificielle tels que OpenAI et Anthropic continueront inévitablement à investir dans la construction de modèles de pointe.
Cependant, l’année prochaine, pour développer des lignes d’activités plus rentables, plus différenciées et plus adhérentes, le laboratoire de pointe devrait lancer vigoureusement ses propres applications et produits.
Bien sûr, le laboratoire de pointe a déjà un cas d’application très réussi : ChatGPT.
Quels autres types d’applications de première partie pouvons-nous voir dans le laboratoire d’intelligence artificielle cette année ? Une réponse évidente est une application de recherche plus complexe et plus riche en fonctionnalités. SearchGPT d’OpenAI en est un exemple.
Le codage est une autre catégorie évidente. De même, avec la première apparition du produit Canvas d’OpenAI en octobre, le travail initial de mise en production a déjà commencé.
Est-ce que OpenAI ou Anthropic lancera un produit de recherche d’entreprise en 2025 ? Ou peut-être un produit de service client, d’intelligence artificielle juridique ou de vente ?
Du côté du consommateur, on peut imaginer un produit de proxy web « assistant personnel », ou une application de planification de voyage, ou une application qui génère de la musique.
L’un des aspects les plus fascinants du passage des laboratoires de pointe à la couche applicative est que cette évolution les mettra en concurrence directe avec bon nombre de leurs clients les plus importants.
Perplexité dans le domaine de la recherche, curseur dans le domaine du codage, Sierra dans le domaine du service client, Harvey dans le domaine de l’intelligence artificielle juridique, Clay dans le domaine des ventes, etc.
09 Klarna va être coté en bourse en 2025, mais il y a des signes d’exagération de la valeur de l’IA.
Klarna est un fournisseur de services basé en Suède qui a levé près de 5 milliards de dollars en capital-risque depuis sa création en 2005.
Peut-être qu’aucune entreprise n’est plus loquace au sujet de ses applications d’IA que Klarna.
Il y a quelques jours à peine, le PDG de Klarna, Sebastian Siemiatkowski, a déclaré à Bloomberg que l’entreprise avait complètement arrêté d’embaucher des employés humains et comptait plutôt sur l’intelligence artificielle générative pour effectuer les tâches.
Comme Siemiatkowski l’a dit : “Je pense que l’intelligence artificielle peut déjà accomplir tout le travail que nous faisons en tant qu’êtres humains.”
De manière similaire, plus tôt cette année, la société Klarna a annoncé le lancement d’une plateforme de service client alimentée par l’intelligence artificielle, qui a entièrement automatisé le travail de 700 agents de service clientèle.
!
La société prétend également avoir cessé d’utiliser des produits logiciels d’entreprise tels que Salesforce et Workday, car elle peut simplement les remplacer par l’intelligence artificielle.
Pour être direct, ces affirmations ne sont pas fiables. Elles reflètent un manque de compréhension des capacités et des limites des systèmes d’intelligence artificielle d’aujourd’hui.
Affirmer que l’agent d’intelligence artificielle de bout en bout peut remplacer n’importe quel employé humain spécifique d’un département fonctionnel au sein d’une organisation n’est pas réaliste. Cela équivaut à résoudre le problème général de l’intelligence artificielle de niveau humain.
Aujourd’hui, les principales start-ups d’IA sont à l’avant-garde du domaine et travaillent à la création de systèmes d’agence qui automatisent des flux de travail d’entreprise spécifiques, étroits et hautement structurés, par exemple, les représentants du développement des ventes ou un sous-ensemble des activités des agents du service client.
Même dans ces situations où la gamme est étroite, ces systèmes de proxy ne fonctionnent pas encore de manière totalement fiable, bien qu’ils aient commencé à bien fonctionner dans certains cas, suffisamment pour être utilisés commercialement au début.
Pourquoi Klarna exagère-t-il la valeur de l’intelligence artificielle ?
La réponse est simple. La société prévoit d’entrer en bourse au cours du premier semestre 2025. La clé d’une introduction en bourse réussie est d’avoir une histoire d’IA convaincante.
Klarna, qui reste une entreprise non rentable, a perdu 241 millions de dollars l’année dernière, espère peut-être que son histoire d’IA convaincra les investisseurs du marché public qu’elle a la capacité de réduire considérablement les coûts et de réaliser des bénéfices durables.
Il ne fait aucun doute que chaque entreprise mondiale, y compris Klarna, bénéficiera d’une énorme augmentation de la productivité grâce à l’intelligence artificielle au cours des prochaines années. Cependant, avant que les agents d’intelligence artificielle ne remplacent complètement la main-d’œuvre humaine, de nombreux défis techniques, produits et organisationnels complexes restent à résoudre.
Des affirmations exagérées comme celle de Klarna sont un blasphème contre le domaine de l’IA et les progrès laborieux réalisés par les technologues et les entrepreneurs de l’IA dans le développement d’agents d’IA.
Alors que Klarna se prépare à une introduction en bourse en 2025, ces affirmations devraient faire l’objet d’un examen minutieux et du scepticisme du public, et jusqu’à présent, elles n’ont pour la plupart pas été remises en question. Ne soyez pas surpris si certaines des descriptions de l’entreprise de ses applications d’IA sont exagérées.
10 Le premier véritable incident de sécurité de l’IA se produira bientôt.
Ces dernières années, avec l’augmentation de la puissance de l’intelligence artificielle, les gens sont de plus en plus inquiets que les systèmes d’intelligence artificielle pourraient commencer à agir de manière incompatible avec les intérêts humains, et que les humains pourraient perdre le contrôle de ces systèmes.
Par exemple, imaginez un système d’intelligence artificielle qui apprend à tromper ou à manipuler les humains pour atteindre ses propres objectifs, même si ces objectifs peuvent causer des dommages aux humains. Ces préoccupations sont généralement classées comme des problèmes de sécurité de l’IA.
Ces dernières années, la sécurité de l’intelligence artificielle est passée d’un sujet de science-fiction marginal à un domaine d’activité dominant.
Aujourd’hui, chaque acteur majeur de l’intelligence artificielle, de Google et Microsoft à OpenAI, investit des ressources importantes dans la sécurité de l’intelligence artificielle. Des idoles de l’intelligence artificielle telles que Geoff Hinton, Yoshua Bengio et Elon Musk commencent également à exprimer leur opinion sur les risques de sécurité de l’intelligence artificielle.
Cependant, jusqu’à présent, la question de la sécurité de l’IA est restée entièrement théorique. Il n’y a jamais eu de véritable incident de sécurité de l’IA dans le monde réel (du moins pas rapporté publiquement).
2025 sera l’année du changement de cette situation. À quoi ressemblera le premier incident de sécurité de l’intelligence artificielle ?
En termes clairs, il ne s’agit pas de robots tueurs de style Terminator et il est peu probable qu’ils causent des dommages aux êtres humains.
Peut-être que le modèle d’IA essaiera secrètement de créer une copie de lui-même sur un autre serveur afin de se sauver lui-même (connu sous le nom d’auto-filtrage).
Il est possible que les modèles d’intelligence artificielle parviennent à la conclusion suivante : pour mieux promouvoir les objectifs qui leur sont assignés, ils doivent dissimuler leurs capacités réelles aux humains, se montrer modestes lors des évaluations de performance et éviter des examens plus rigoureux.
Ces exemples ne sont pas tirés par les cheveux. Des expériences importantes publiées plus tôt ce mois-ci par la société de recherche Apollo montrent que, avec des indices spécifiques, les modèles de pointe actuels sont capables de produire ce type de comportement trompeur.
De même, des recherches récentes en anthropologie ont montré que les LLM ont une capacité troublante à « pseudo-aligner ».
Nous prévoyons que cet incident de sécurité en intelligence artificielle, qui est le premier du genre, sera découvert et éliminé avant de causer des dommages réels. Cependant, cela marquera un moment d’éveil majeur pour le domaine de l’intelligence artificielle et pour la société dans son ensemble.
Il va être clair sur une chose: avant que l’humanité ne soit confrontée à la menace existentielle de l’intelligence artificielle omnipotente, nous devons accepter une réalité plus banale: nous partageons actuellement notre monde avec une forme d’intelligence différente, qui peut parfois être capricieuse, imprévisible et trompeuse.