Les agents d'IA sont bloqués en mode pilote parce que les banques ne leur font toujours pas confiance

L’IA agentique attire de plus en plus l’attention dans la finance, mais le plus grand obstacle pour l’industrie n’est plus de savoir si les modèles sont suffisamment puissants. Le problème plus difficile est de savoir si les banques, les gestionnaires d’actifs et les desks de trésorerie disposent de l’infrastructure pour déléguer des tâches financières à des systèmes autonomes sans perdre le contrôle de l’argent, la responsabilité ou la conformité.

Un sondage Deloitte auprès de plus de 3 300 professionnels de la finance et de la comptabilité a montré clairement cet écart : 80,5 % ont déclaré que des outils alimentés par l’IA tels que les agents et les chatbots GenAI pourraient devenir la norme d’ici cinq ans, mais seulement 13,5 % ont indiqué que leurs organisations utilisaient déjà l’IA agentique.

Citi Sky a montré pourquoi le débat sur l’infrastructure est important

Citi a lancé Citi Sky, un assistant de gestion de patrimoine alimenté par l’IA construit avec Google Cloud et Google DeepMind, le 22 avril. L’outil a été développé en utilisant la plateforme d’agents d’entreprise Gemini de Google et doit être déployé par étapes auprès des clients Citigold aux États-Unis cet été.

Ce lancement a donné un exemple concret du débat sur l’IA agentique dans le secteur bancaire. Dipendra Malhotra, responsable de la technologie de la gestion de patrimoine chez Citi, a souligné la mémoire comme une contrainte centrale pour une IA de conseil à enjeux élevés, en se demandant combien de temps un client peut maintenir une conversation avant que le système ne commence à halluciner.

La plupart des agents s’appuient sur la génération augmentée par récupération pour étendre la mémoire via des bases de données externes. Les fenêtres de contexte limitent encore la quantité d’informations qu’un agent peut contenir à la fois.

Dans le conseil financier, la gestion de trésorerie ou l’exécution de portefeuille, ce plafond de mémoire devient plus qu’un problème technique. Il devient un risque opérationnel.

MihnChi Park, co-fondateur de CoinFello, a déclaré que les conditions pour une délégation fiable sont simples : l’agent ne peut agir que selon les instructions de l’utilisateur, l’utilisateur peut l’arrêter, et les actifs sous-jacents ne sont jamais transférés à un tiers.

Ethereum esquisse des primitives en chaîne pour l’identité des agents

La proposition Ethereum ERC-8004 introduit des systèmes pour l’identité, la réputation et la validation des agents. La norme provisoire prévoit trois registres : un registre d’identité, un registre de réputation et un registre de validation.

Ensemble, ils sont destinés à aider les agents autonomes à prouver qui ils sont, à établir un historique de comportement et à soutenir la vérification par d’autres acteurs du marché.

ERC-8183 adopte une approche plus restreinte. Il propose une norme de séquestre de travail avec attestation de l’évaluateur, où un client finance un travail, un prestataire soumet le travail, et un évaluateur termine ou rejette le résultat.

La proposition ne prévoit pas d’arbitrage ni de résolution formelle des litiges, mais elle offre aux marchés basés sur des agents un cadre pour des tâches séquestrées et une réalisation vérifiable.

Le document arXiv « The Agent Economy: A Blockchain-Based Foundation for Autonomous AI Agents » cartographie une architecture à cinq couches pour ce changement, couvrant l’infrastructure physique, l’identité en chaîne, les outils cognitifs, le règlement économique et la gouvernance collective.

La couche de réputation comporte encore une vulnérabilité structurelle. Les agents peuvent générer une activité à une vitesse et à une échelle que les humains ne peuvent égaler, rendant possible la falsification des signaux de confiance sur de courtes périodes.

Cela laisse aux institutions financières une question difficile : lorsqu’un agent a un bon historique, cette réputation est-elle une preuve de fiabilité ou simplement une preuve d’activité automatisée répétée ?

McKinsey estime que 50 % à 60 % des opérations bancaires sont concernées

McKinsey estime que 50 % à 60 % des équivalents temps plein en banque sont liés aux opérations. Des experts mettent en garde contre un « purgatoire des pilotes », où les institutions réalisent de faibles preuves de concept sans réorganiser leur modèle opérationnel.

Comme l’a rapporté Cryptopolitan lors du Web3 Festival de Hong Kong, McKinsey prévoit que le marché de l’IA agentique passera de 5,25 milliards de dollars en 2024 à environ 200 milliards de dollars d’ici 2034.

Porter Stowell, PDG de W3.io, a déclaré : « Les entreprises n’ont aucun moyen de voir, contrôler ou auditer ce que font les systèmes autonomes avec leur argent. La supervision humaine ne disparaît pas. Elle se déplace simplement vers le haut de la pile. »

Quatre questions restent sans réponse : qui est responsable lorsqu’un agent IA cause une perte financière, sa réputation peut-elle être fiable, qui contrôle une fois que ces systèmes sont déployés à grande échelle, et quel cadre réglementaire s’applique lorsqu’un agent agit en dehors de son périmètre.

Vous laissez toujours la banque garder la meilleure partie ? Regardez notre vidéo gratuite sur comment devenir votre propre banque.

ETH1,2%
SKY-1,2%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler