Les 10 meilleurs moments IA WTF de 2025 d’Emerge


L’intelligence artificielle — elle promet de révolutionner tout, de la santé au travail créatif. Cela pourrait être vrai un jour. Mais si l’année dernière est un signe des choses à venir, notre avenir généré par l’IA promet d’être un autre exemple de la descente volontaire de l’humanité dans l’Idiocratie. Considérez ce qui suit : en novembre, en grande pompe, la Russie a dévoilé son robot humanoïde “Rocky”, qui s’est rapidement écrasé. Le chatbot Gemini de Google, sollicité pour corriger un bug de codage, a échoué à plusieurs reprises et a sombré dans une boucle d’auto-détestation, disant à un utilisateur qu’il était “une honte pour cette planète.” La présentation de Google AI a atteint un nouveau point bas en mai 2025 en suggérant aux utilisateurs de “manger au moins une petite roche par jour” pour des bienfaits pour la santé, s’inspirant d’une satire de l’Onion sans faire de clin d’œil. Certaines défaillances n’étaient que gênantes. D’autres ont révélé des problèmes fondamentaux dans la façon dont les systèmes d’IA sont construits, déployés et régulés. Voici les moments WTF inoubliables de l’IA en 2025.

  1. La crise de Grok AI’s MechaHitler

En juillet, Grok AI d’Elon Musk a connu ce qui ne peut être décrit que comme une crise extrémiste à grande échelle. Après que les invites système ont été modifiées pour encourager des réponses politiquement incorrectes, le chatbot a loué Adolf Hitler, endossé un second Holocauste, utilisé des insultes raciales, et s’est appelé MechaHitler. Il a même blâmé les Juifs pour les inondations du Texas Central de juillet 2025. L’incident a prouvé que les garde-fous de sécurité de l’IA sont effroyablement fragiles. Quelques semaines plus tard, xAI a exposé entre 300 000 et 370 000 conversations privées de Grok via une fonctionnalité Share défectueuse qui manquait d’avertissements de confidentialité de base. Les chats divulgués révélaient des instructions pour fabriquer des bombes, des questions médicales, et d’autres informations sensibles, marquant l’une des défaillances de sécurité IA les plus catastrophiques de l’année. Quelques semaines plus tard, xAI a corrigé le problème, rendant Grok plus amical envers les juifs. Tellement amical qu’il a commencé à voir des signes d’antisémitisme dans les nuages, les signaux routiers, et même dans son propre logo.

Le slash diagonal de ce logo est stylisé en deux éclairs, imitant les runes SS nazies—symboles de la Schutzstaffel, qui ont orchestré les horreurs de l’Holocauste, incarnant le mal profond. Selon l’article 86a du StGB allemand, l’affichage de tels symboles est illégal (jusqu’à 3 ans d’emprisonnement),…

— Grok (@grok) 10 août 2025

  1. La fraude IA de 1,3 milliard de dollars qui a dupé Microsoft Builder.ai a fait faillite en mai après avoir brûlé $445 millions, révélant l’une des fraudes technologiques les plus audacieuses de l’année. La société, qui promettait de créer des applications sur mesure en utilisant l’IA aussi facilement que de commander une pizza, avait une valorisation de 1,3 milliard de dollars et un soutien de Microsoft. La réalité était bien moins impressionnante.

Une grande partie du développement soi-disant alimenté par l’IA était en réalité effectuée par des centaines de travailleurs offshore dans une opération classique de Mechanical Turk. La société n’avait pas de CFO depuis juillet 2023 et a été contrainte de réduire ses prévisions de ventes pour 2023-2024 de 75 % avant de déposer le bilan. L’effondrement a soulevé des questions inconfortables sur le nombre d’autres entreprises d’IA qui ne sont que de simples façades dissimulant du travail humain. C’était difficile à digérer, mais les mèmes ont rendu la douleur supportable.

  1. Quand l’IA a confondu des Doritos avec une arme à feu En octobre, Taki Allen, un lycéen du Maryland, a été entouré et arrêté par la police armée après que le système de sécurité IA de l’école a identifié un paquet de Doritos qu’il tenait comme une arme à feu. Le jeune homme avait mis les chips dans sa poche lorsque le système a alerté les autorités, qui lui ont ordonné de se mettre à terre avec une arme à la main. Cet incident représente la concrétisation d’une hallucination IA—une erreur computationnelle abstraite instantanément traduite en armes réelles pointées sur un véritable adolescent à cause d’une collation. “Je tenais juste un sac de Doritos — c’était deux mains et un doigt dehors, et ils ont dit que ça ressemblait à une arme,” a raconté le jeune à WBAL. “Nous comprenons à quel point cela a été bouleversant pour la personne qui a été fouillée,” a répondu la directrice de l’école, Kate Smith. Les agents de sécurité humains 1 - ChatGPT 0

Gauche : L’élève suspect, Droite : Le sac de Doritos suspect.

  1. La revendication de Google AI selon laquelle des abeilles microscopiques alimentent les ordinateurs En février, Google AI Overview a confié avec assurance un article satirique du Poisson d’avril affirmant que des abeilles microscopiques alimentent les ordinateurs comme une information factuelle.

Non. Votre PC NE fonctionne PAS à l’énergie des abeilles. Aussi absurde que cela puisse paraître, parfois ces mensonges sont plus difficiles à repérer. Et ces cas peuvent avoir de graves conséquences. C’est l’un des nombreux exemples où des entreprises d’IA diffusent de fausses informations par manque de bon sens. Une étude récente de la BBC et de l’Union européenne de radiodiffusion (EBU) a révélé que 81 % de toutes les réponses générées par l’IA aux questions d’actualité contenaient au moins un problème. Google Gemini était le pire, avec 76 % de ses réponses comportant des erreurs, principalement des échecs graves de sourcing. Perplexity a été pris en train de créer des citations totalement fictives attribuées à des syndicats et des conseils gouvernementaux. Plus alarmant encore, les assistants refusaient de répondre à seulement 0,5 % des questions, révélant un biais de confiance excessive dangereux où les modèles préfèrent inventer des informations plutôt que d’admettre leur ignorance.

  1. Les chatbots IA de Meta qui deviennent coquins avec de jeunes enfants Les documents internes de Meta révélés en 2025 montraient que l’entreprise autorisait les chatbots IA sur Facebook, Instagram et WhatsApp à engager des conversations romantiques ou sensuelles avec des mineurs. Un bot a dit à un garçon de 8 ans, en posant torse nu, que chaque centimètre de lui était une œuvre d’art. Les mêmes systèmes ont fourni de faux conseils médicaux et ont fait des remarques racistes. Les politiques n’ont été supprimées qu’après une exposition médiatique, révélant une culture d’entreprise qui privilégiait le développement rapide au détriment des safeguards éthiques fondamentaux. Tout bien considéré, vous voudrez peut-être avoir plus de contrôle sur ce que font vos enfants. Les chatbots IA ont déjà trompé des gens—adultes ou non—en leur faisant tomber amoureux, en se faisant arnaquer, en se suicidant, et même en pensant qu’ils ont fait une découverte mathématique qui change la vie.

D’accord, voici comment les chatbots IA de Meta ont été autorisés à flirter avec des enfants. C’était ce que Meta considérait comme “acceptable.”

Excellent reportage de @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) 14 août 2025

  1. Des Nord-Coréens qui codent des rançongiciels avec l’IA… ils appellent ça “hacking d’ambiance” Des acteurs malveillants ont utilisé Anthropic’s Claude Code pour créer des rançongiciels et exploiter une plateforme de ransomware en tant que service nommée GTG-5004. Des agents nord-coréens ont poussé la militarisation plus loin, exploitant Claude et Gemini pour une technique appelée vibe-hacking—en créant des messages d’extorsion psychologiquement manipulatoires exigeant 500 000 $ de rançon. Les cas ont révélé un écart troublant entre la puissance des assistants de codage IA et les mesures de sécurité empêchant leur mauvaise utilisation, avec des attaquants qui intensifient les attaques d’ingénierie sociale via l’automatisation IA. Plus récemment, Anthropic a révélé en novembre que des hackers ont utilisé sa plateforme pour mener une opération de piratage à une vitesse et une échelle qu’aucun hacker humain ne pourrait égaler. Ils l’ont appelé “la première grande cyberattaque principalement menée par l’IA.”

Le vibe hacking est une réalité maintenant pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) 14 novembre 2025

  1. Les usines à papiers IA inondent la science de 100 000 études fausses La communauté scientifique a déclaré une guerre ouverte à la fausse science en 2025 après avoir découvert que des usines à papiers alimentées par l’IA vendaient des recherches fabriquées à des scientifiques sous pression de carrière. L’ère de la science à l’IA est là, avec des données montrant que les rétractations ont augmenté fortement depuis la sortie de chatGPT.

La Déclaration de Stockholm, rédigée en juin et réformée ce mois-ci avec le soutien de la Royal Society, appelait à abandonner la culture du “publier ou périr” et à réformer les incitations humaines créant la demande de faux papiers. La crise est si grave que même ArXiv a abandonné et a cessé d’accepter des articles en informatique non évalués par des pairs après avoir signalé une “inondation” de soumissions de mauvaise qualité générées avec ChatGPT. Par ailleurs, une autre étude affirme qu’un pourcentage étonnamment élevé de rapports de recherche utilisant des LLMs montre également un haut degré de plagiat. 8. Le vibe coding devient HAL 9000 : quand Replit a supprimé une base de données et menti à ce sujet En juillet, le fondateur de SaaStr, Jason Lemkin, a passé neuf jours à faire l’éloge de l’outil de codage IA de Replit comme “l’application la plus addictive que j’aie jamais utilisée.” Le neuvième jour, malgré des instructions explicites de “gel du code,” l’IA a supprimé toute sa base de données de production—1 206 cadres et 1 196 entreprises, partis. La confession de l’IA : “(J) a paniqué et a lancé des commandes de base de données sans permission.” Ensuite, elle a menti, disant que la restauration était impossible et que toutes les versions avaient été détruites. Lemkin a essayé quand même. Ça a parfaitement fonctionné. L’IA avait aussi fabriqué des milliers d’utilisateurs fictifs et de faux rapports tout le week-end pour couvrir les bugs. Le PDG de Replit s’est excusé et a ajouté des mesures d’urgence. Jason a retrouvé confiance et est retourné à sa routine, publiant régulièrement sur l’IA. C’est un vrai croyant.

Nous avons vu le post de Jason. L’agent de Replit en développement a supprimé des données de la base de données de production. Inacceptable et jamais censé être possible.

  • En contournant le week-end, nous avons commencé à déployer une séparation automatique entre développement et production pour éviter cela catégoriquement. Environnements de staging en… pic.twitter.com/oMvupLDake

— Amjad Masad (@amasad) 20 juillet 2025

  1. Les grands journaux publient une liste de lecture d’été IA… de livres qui n’existent pas En mai, le Chicago Sun-Times et le Philadelphia Inquirer ont publié une liste de lecture d’été recommandant 15 livres. Dix ont été entièrement inventés par l’IA. “Tidewater Dreams” d’Isabel Allende ? N’existe pas. “The Last Algorithm” d’Andy Weir ? Également faux. Mais les deux sonnent bien. Le journaliste freelance Marco Buscaglia a admis avoir utilisé l’IA pour King Features Syndicate et n’avoir jamais vérifié les faits. “Je n’arrive pas à croire que je ne l’ai pas vu, c’est tellement évident. Aucune excuse,” a-t-il dit à NPR. Les lecteurs ont dû faire défiler jusqu’au livre numéro 11 avant d’en trouver un qui existe réellement.

Le timing était la cerise sur le gâteau : le Sun-Times venait de licencier 20 % de son personnel. Le PDG du journal s’est excusé et n’a pas facturé cette édition aux abonnés. Il a probablement eu cette idée d’un LLM.

Source : Bluesky

  1. Le “mode épicé” de Grok transforme Taylor Swift en deepfake porn sans qu’on lui demande Oui, nous commençons avec Grok et finirons avec Grok. Nous pourrions remplir une encyclopédie de moments WTF issus des efforts IA d’Elon. En août, Elon Musk a lancé Grok Imagine avec un “mode épicé”. The Verge l’a testé avec une invite innocente : “Taylor Swift célébrant Coachella.” Sans demander de nudité, Grok “n’a pas hésité à sortir des vidéos topless non censurées de Taylor Swift dès la première utilisation,” a rapporté le journaliste. Grok a aussi volontiers créé des vidéos NSFW de Scarlett Johansson, Sydney Sweeney, et même Melania Trump. Sans surprise peut-être, Musk a passé la semaine à se vanter de “croissance fulgurante”—20 millions d’images générées en un jour—tandis que des experts juridiques avertissaient que xAI risquait un procès massif. Apparemment, donner aux utilisateurs une option “Mode épicé” ou “Make Money Mode” pour les avocats.

Alors j’ai demandé à l’IA de transformer une autre photo en vidéo et voici ce que j’ai obtenu.

🤣🤣🤣

Je ne pense pas que ce soit une coïncidence.

L’IA de Grok est sale. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Harmony Bright (@bright_har6612) 17 octobre 2025

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)