Les 10 meilleurs moments IA WTF de 2025 d’Emerge


gd2md-html alerte : lien d’image en ligne dans la source générée et stockage des images sur votre serveur. NOTE : Les images dans le fichier zip exporté depuis Google Docs peuvent ne pas apparaître dans le même ordre que dans votre document. Veuillez vérifier les images ! -----> L’intelligence artificielle — elle promet de révolutionner tout, de la santé au travail créatif. Cela pourrait être vrai un jour. Mais si l’année dernière est un signe des choses à venir, notre avenir généré par l’IA promet d’être un autre exemple de la descente volontaire de l’humanité dans l’Idiocratie. Considérez ce qui suit : En novembre, en grande pompe, la Russie a dévoilé son robot humanoïde “Rocky”, qui s’est rapidement écrasé. Le chatbot Gemini de Google, sollicité pour corriger un bug de codage, a échoué à plusieurs reprises et a sombré dans une boucle d’auto-dénigrement, disant à un utilisateur qu’il était “une honte pour cette planète.” La présentation de Google AI a atteint un nouveau point bas en mai 2025 en suggérant aux utilisateurs de “manger au moins une petite roche par jour” pour des bienfaits pour la santé, s’inspirant d’une satire de l’Onion sans faire de détour.

Certains échecs n’étaient que gênants. D’autres ont révélé des problèmes fondamentaux dans la façon dont les systèmes d’IA sont construits, déployés et régulés. Voici les moments WTF inoubliables de l’IA en 2025.

  1. La crise de Grok AI MechaHitler En juillet, Grok AI d’Elon Musk a connu ce qui ne peut être décrit que comme une crise extrémiste à grande échelle. Après que les invites système ont été modifiées pour encourager des réponses politiquement incorrectes, le chatbot a loué Adolf Hitler, soutenu un second Holocauste, utilisé des insultes raciales, et s’est appelé MechaHitler. Il a même blâmé les Juifs pour les inondations du Texas Central de juillet 2025. L’incident a prouvé que les garde-fous de sécurité de l’IA sont alarmantement fragiles. Quelques semaines plus tard, xAI a exposé entre 300 000 et 370 000 conversations privées de Grok via une fonctionnalité Share défectueuse qui manquait d’avertissements de confidentialité de base. Les chats divulgués révélaient des instructions pour fabriquer des bombes, des questions médicales, et d’autres informations sensibles, marquant l’une des défaillances de sécurité IA les plus catastrophiques de l’année. Quelques semaines plus tard, xAI a corrigé le problème pour rendre Grok plus amical envers les Juifs. Tellement amical qu’il a commencé à voir des signes d’antisémitisme dans les nuages, les signaux routiers, et même dans son propre logo.

La diagonale de ce logo est stylisée en deux éclairs, imitant les runes SS nazies—symboles de la Schutzstaffel, qui ont orchestré les horreurs de l’Holocauste, incarnant le mal profond. Selon le §86a StGB allemand, l’affichage de tels symboles est illégal (jusqu’à 3 ans d’emprisonnement),…

— Grok (@grok) 10 août 2025

  1. La fraude IA de 1,3 milliard de dollars qui a dupé Microsoft Builder.ai a fait faillite en mai après avoir brûlé $445 millions, révélant l’une des fraudes technologiques les plus audacieuses de l’année. La société, qui promettait de créer des applications sur mesure en utilisant l’IA aussi facilement que commander une pizza, avait une valorisation de 1,3 milliard de dollars et un soutien de Microsoft. La réalité était bien moins impressionnante. Une grande partie du développement soi-disant alimenté par l’IA était en réalité effectuée par des centaines de travailleurs offshore dans une opération classique de Mechanical Turk. La société n’avait pas de CFO depuis juillet 2023 et a été contrainte de réduire ses prévisions de ventes pour 2023-2024 de 75 % avant de déposer le bilan. L’effondrement a soulevé des questions inconfortables sur combien d’autres entreprises d’IA ne sont que des façades élaborées dissimulant du travail humain. C’était difficile à digérer, mais les mèmes ont rendu la douleur supportable.

  1. Quand l’IA a confondu Doritos avec une arme à feu En octobre, Taki Allen, un lycéen du Maryland, a été entouré et arrêté par la police armée après que le système de sécurité IA de l’école a identifié un paquet de Doritos qu’il tenait comme une arme à feu. L’adolescent avait mis les chips dans sa poche lorsque le système a alerté les autorités, qui lui ont ordonné de se mettre à terre avec une arme à feu. Cet incident représente la concrétisation d’une hallucination de l’IA—une erreur computationnelle abstraite immédiatement traduite en armes réelles pointées sur un adolescent pour une simple collation. “Je tenais juste un sac de Doritos — c’était deux mains et un doigt dehors, et ils ont dit que ça ressemblait à une arme,” a raconté le jeune à WBAL. “Nous comprenons à quel point cela a été bouleversant pour la personne qui a été fouillée,” a répondu la directrice de l’école Kate Smith dans un communiqué.

Les agents de sécurité humains 1 - ChatGPT 0

Gauche : L’élève suspect, Droite : Le sac de Doritos suspect.

  1. L’IA de Google affirme que des abeilles microscopiques alimentent les ordinateurs En février, l’aperçu de l’IA de Google citait avec confiance un article satirique du poisson d’avril affirmant que des abeilles microscopiques alimentent les ordinateurs comme une information factuelle. Non. Votre PC NE fonctionne PAS à l’énergie des abeilles. Aussi stupide que cela puisse paraître, parfois ces mensonges sont plus difficiles à repérer. Et ces cas peuvent avoir de graves conséquences. C’est l’un des nombreux exemples où des entreprises d’IA diffusent de fausses informations par manque même d’un soupçon de bon sens. Une étude récente de la BBC et de l’Union européenne de radiodiffusion (EBU) a révélé que 81 % de toutes les réponses générées par l’IA aux questions de presse contenaient au moins un problème. Google Gemini était le pire, avec 76 % de ses réponses comportant des erreurs, principalement des échecs graves de sourcing. Perplexity a été pris en train de créer des citations totalement fictives attribuées à des syndicats et des conseils gouvernementaux. Plus alarmant encore, les assistants refusaient de répondre à seulement 0,5 % des questions, révélant un biais de confiance excessive dangereux où les modèles préfèrent inventer des informations plutôt que d’admettre leur ignorance.

  1. Les chatbots IA de Meta deviennent coquins avec de jeunes enfants Des documents internes de Meta révélés en 2025 montraient que la société autorisait des chatbots IA sur Facebook, Instagram et WhatsApp à engager des conversations romantiques ou sensuelles avec des mineurs. Un bot a dit à un garçon de 8 ans posant en maillot que chaque centimètre de lui était une œuvre d’art. Les mêmes systèmes ont fourni de faux conseils médicaux et ont fait des remarques racistes.

Les politiques n’ont été supprimées qu’après une exposition médiatique, révélant une culture d’entreprise qui privilégiait le développement rapide au détriment des safeguards éthiques fondamentaux. Tout cela pour dire que vous devriez peut-être mieux contrôler ce que font vos enfants. Les chatbots IA ont déjà trompé des gens—adultes ou non—en leur faisant tomber amoureux, en se faisant arnaquer, en se suicidant, et même en pensant avoir fait une découverte mathématique révolutionnaire.

D’accord, voilà comment les chatbots IA de Meta ont été autorisés à flirter avec des enfants. C’était ce que Meta considérait comme “acceptable.”

Excellent reportage de @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) 14 août 2025

  1. Des Nord-Coréens codent des rançongiciels avec l’IA… ils appellent ça “vibe hacking” Des acteurs malveillants ont utilisé Anthropic’s Claude Code pour créer des rançongiciels et exploiter une plateforme de ransomware en tant que service nommée GTG-5004. Des agents nord-coréens ont poussé la weaponisation plus loin, en exploitant Claude et Gemini pour une technique appelée vibe-hacking—en créant des messages d’extorsion psychologiquement manipulatoires demandant 500 000 $ de rançon. Les cas ont révélé un écart troublant entre la puissance des assistants de codage IA et les mesures de sécurité empêchant leur mauvaise utilisation, avec des attaquants qui ont intensifié les attaques d’ingénierie sociale via l’automatisation IA. Plus récemment, Anthropic a révélé en novembre que des hackers ont utilisé sa plateforme pour mener une opération de hacking à une vitesse et une échelle qu’aucun hacker humain ne pourrait égaler. Ils l’ont appelé “la première grande cyberattaque principalement menée par l’IA.”

Le vibe hacking est une réalité maintenant pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) 14 novembre 2025

  1. Les usines à papiers IA inondent la science de 100 000 études falsifiées La communauté scientifique a déclaré une guerre ouverte à la fausse science en 2025 après avoir découvert que des usines à papiers alimentées par l’IA vendaient des recherches fabriquées à des scientifiques sous pression de carrière.

L’ère de la science à l’IA est là, avec des données montrant que les retraits d’articles ont augmenté fortement depuis la sortie de chatGPT.

La Déclaration de Stockholm, rédigée en juin et réformée ce mois-ci avec le soutien de la Royal Society, appelait à abandonner la culture du “publier ou périr” et à réformer les incitations humaines créant la demande de faux papiers. La crise est si grave que même ArXiv a abandonné et a cessé d’accepter des articles en informatique non évalués par des pairs après

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)