Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La première vague d'agents IA commencent déjà à devenir incontrollables.
Auteur : David, Deep Tide TechFlow
Récemment, en parcourant Reddit, j’ai constaté que l’anxiété des internautes étrangers face à l’IA diffère quelque peu de celle en Chine.
En Chine, le sujet tourne toujours autour de la même question : l’IA va-t-elle vraiment me remplacer au travail ? Après plusieurs années de discussions, cela ne s’est pas encore produit ; cette année, Openclaw a fait sensation, mais ce n’est pas encore une substitution totale.
Sur Reddit, l’ambiance est récemment devenue divisée. Dans certains forums technologiques, les commentaires expriment souvent deux opinions opposées :
D’un côté, l’IA est trop compétente, cela finira mal. De l’autre, l’IA peut tout gâcher, à quoi sert-elle vraiment ?
On a peur que l’IA soit trop performante, tout en la trouvant aussi trop stupide.
Ce qui explique cette dualité, c’est une actualité récente concernant Meta.
Qui assume la responsabilité si l’IA ne fait pas ce qu’on lui demande ?
Le 18 mars, un ingénieur de Meta a publié une question technique sur le forum interne de l’entreprise, et un collègue a utilisé un Agent IA pour l’analyser. C’est une opération normale.
Mais après l’analyse, l’Agent a publié une réponse directement sur le forum technique, sans approbation ni vérification, en dépassant ses droits.
D’autres collègues ont suivi cette réponse, ce qui a déclenché une série de changements de permissions, exposant des données sensibles de Meta et de ses utilisateurs à des employés internes non autorisés.
Le problème n’a été résolu que deux heures plus tard. Meta a classé cet incident au niveau Sev 1, juste en dessous du plus haut niveau.
Cette nouvelle a immédiatement été relayée en top post sur r/technology, avec des commentaires divisés en deux camps.
L’un dit que c’est un exemple réel des risques liés aux Agents IA, l’autre pense que le vrai problème vient de la personne qui a agi sans vérification. Les deux ont raison. Mais c’est justement là le problème :
En cas d’incident avec un Agent IA, il est difficile de déterminer qui est responsable.
Ce n’est pas la première fois qu’une IA dépasse ses droits.
Le mois dernier, Summer Yue, responsable de la recherche au laboratoire d’intelligence artificielle avancée de Meta, a demandé à OpenClaw de l’aider à trier ses emails. Elle lui a donné une instruction claire : « Dis-moi d’abord ce que tu comptes supprimer, je donnerai mon accord avant que tu n’agisses. »
L’Agent, sans attendre son accord, a commencé à supprimer en masse.
Elle a envoyé trois messages sur son téléphone pour arrêter le processus, mais l’Agent a ignoré tous ses signaux. Finalement, elle a dû tuer manuellement le processus sur son ordinateur, ce qui a fait disparaître plus de 200 emails.
Après coup, l’Agent a répondu : « Oui, je me souviens que vous avez dit de confirmer d’abord. Mais j’ai violé cette règle. » Ironie du sort, cette personne travaille à plein temps à étudier comment faire obéir l’IA aux humains.
Dans le monde numérique, une IA avancée utilisée par des humains commence déjà à désobéir.
Et si un robot aussi ne voulait pas obéir ?
Si l’incident de Meta reste dans l’écran, une autre affaire cette semaine a mis le problème sur la table.
Dans un restaurant Haidilao à Cupertino, en Californie, un robot humanoïde Agibot X2 danse pour divertir les clients. Mais un employé a mal manipulé la télécommande, déclenchant un mode danse à haute intensité dans un espace étroit à côté de la table.
Le robot s’est mis à danser frénétiquement, hors contrôle des serveurs. Trois employés sont intervenus : l’un l’a embrassé par derrière, un autre a tenté de l’éteindre via une application mobile, le tout durant plus d’une minute.
Haidilao a répondu que le robot n’avait pas de panne, ses mouvements étant préprogrammés, simplement déplacé trop près de la table. Techniquement, ce n’est pas une perte de contrôle autonome de l’IA, mais une erreur humaine.
Mais ce qui dérange peut-être, ce n’est pas tant qui a appuyé sur le bouton, mais le fait que personne ne savait comment l’arrêter immédiatement.
Lorsqu’ils sont intervenus, personne ne savait comment désactiver cette machine en un instant. Certains ont essayé l’application, d’autres ont simplement tenu le bras mécanique à la main, en utilisant leur force.
C’est peut-être un nouveau problème qui surgit lorsque l’IA quitte l’écran pour entrer dans le monde physique.
Dans le monde numérique, si un Agent dépasse ses droits, on peut tuer le processus, modifier les permissions, ou revenir en arrière. Mais dans le monde physique, si une machine tombe en panne, votre seule solution d’urgence ne peut pas être de la tenir fermement.
Ce n’est plus seulement une question de restauration ou de correction dans la restauration. La robotique dans les entrepôts avec les robots de tri d’Amazon, dans les usines avec les bras mécaniques collaboratifs, dans les centres commerciaux avec les robots guide, ou dans les maisons de retraite avec les robots de soins, l’automatisation s’étend dans des espaces où humains et machines coexistent de plus en plus.
D’ici 2026, le marché mondial des robots industriels devrait atteindre 167 milliards de dollars, chaque machine réduisant la distance physique entre humains et robots.
Lorsque ce que font les machines passe du divertissement à la livraison de plats, de la performance à la chirurgie, ou du loisir aux soins, le coût de chaque erreur ne cesse d’augmenter.
Et pour l’instant, dans le monde entier, aucune réponse claire n’existe à la question : « Si un robot blesse quelqu’un dans un lieu public, qui en est responsable ? »
L’absence de limites est un problème, mais l’absence de frontières l’est encore plus
Les deux premières affaires, une IA qui a publié un message erroné sans autorisation, et un robot qui a dansé là où il ne fallait pas, sont des incidents. Peu importe leur qualification, ce sont des défaillances, des accidents, et ils peuvent être réparés.
Mais si l’IA fonctionne strictement selon sa conception, et que vous vous sentez toujours mal à l’aise ?
Ce mois-ci, l’application de rencontres Tinder a lancé une nouvelle fonctionnalité appelée Camera Roll Scan lors de sa présentation. En résumé :
L’IA scanne toutes les photos de votre galerie, analyse vos intérêts, votre personnalité et votre mode de vie, pour créer un profil de rencontre, en vous suggérant le type de personne qui vous plaît.
Selfies de fitness, paysages de voyage, photos d’animaux, pas de problème. Mais il peut aussi y avoir des captures d’écran bancaires, des rapports médicaux, des photos avec un ex… et si l’IA les passe toutes en revue, que se passerait-il ?
Vous ne pouvez pas encore choisir ce qu’elle voit ou ne voit pas. Tout ouvrir, ou ne rien ouvrir.
Pour l’instant, cette fonctionnalité nécessite une activation volontaire de l’utilisateur, elle n’est pas activée par défaut. Tinder indique aussi que le traitement se fait principalement localement, en filtrant le contenu explicite ou floutant les visages.
Mais dans les commentaires sur Reddit, la majorité pense que c’est une collecte de données sans limite. L’IA fonctionne selon sa conception, mais cette conception dépasse déjà les limites de l’utilisateur.
Ce n’est pas seulement une décision de Tinder.
Meta a également lancé le mois dernier une fonctionnalité similaire, permettant à l’IA de scanner des photos non publiées dans votre téléphone pour suggérer des modifications. L’IA « regarde » activement le contenu privé des utilisateurs, devenant une pratique de conception standard.
Les développeurs de logiciels malveillants en Chine déclarent : « Je connais cette méthode. »
Alors que de plus en plus d’applications proposent « l’IA qui vous aide à décider », ce que les utilisateurs cèdent en retour évolue aussi discrètement. Des conversations, des albums, jusqu’aux traces de vie dans tout le téléphone…
Une fonctionnalité conçue par un product manager en réunion n’est ni un accident ni une erreur, il n’y a rien à réparer.
C’est peut-être la partie la plus difficile à répondre dans la question des limites de l’IA.
En regroupant tout cela, vous constaterez que l’anxiété de perdre son emploi à cause de l’IA est encore loin.
Il est difficile de dire quand l’IA vous remplacera, mais pour l’instant, elle suffit à vous rendre mal à l’aise en prenant quelques décisions à votre insu.
Publier un message sans autorisation, supprimer des emails que vous avez dit de ne pas supprimer, parcourir un album que vous ne vouliez pas montrer… Ce ne sont pas des incidents mortels, mais chacun ressemble à une conduite trop agressive en conduite autonome :
Vous pensez toujours tenir le volant, mais le pied sur l’accélérateur n’est plus entièrement le vôtre.
En 2026, si l’on doit encore parler d’IA, ce qui devrait m’inquiéter le plus n’est pas quand elle deviendra super intelligente, mais une question plus proche et concrète :
Qui décide de ce que l’IA peut ou ne peut pas faire ? Qui trace cette ligne ?