Découvrez SCENE
Le Congrès renforce la répression des escroqueries alimentées par l'IA avec une législation bipartite qui enverrait les fraudeurs en prison pendant des décennies après que des attaques d'imposture effrontées aient visé les hauts fonctionnaires américains.
La loi sur la dissuasion de la fraude par l'IA, introduite par le représentant Ted Lieu (D-CA) et le représentant Neal Dunn (R-FL) mardi, augmenterait les amendes maximales à $2 millions et prolongerait les peines de prison jusqu'à 30 ans pour fraude bancaire commise avec l'assistance de l'IA, selon une déclaration de mardi.
Heureux de présenter aujourd'hui la loi sur la dissuasion de la fraude par IA avec @DrNealDunnFL2, qui élargirait les sanctions pour les escroqueries par IA et les deepfakes, y compris les usurpations d'identité d'agents fédéraux.
Notre objectif bipartite est simple : Dissuader les gens d'utiliser l'IA pour commettre des fraudes. pic.twitter.com/ixUe854KRV
— Rep. Ted Lieu (@RepTedLieu) 25 novembre 2025
La législation vise la fraude par fil, la fraude par courrier, le blanchiment d'argent et l'usurpation d'identité d'agents fédéraux.
« L'intelligence artificielle a abaissé le seuil d'entrée pour les escrocs, ce qui peut avoir des effets dévastateurs », a déclaré Lieu dans le communiqué, avertissant que les imitations d'officiels américains « peuvent être désastreuses pour notre sécurité nationale. »
Le projet de loi fait suite à des escrocs qui ont utilisé l'IA il y a quelques mois pour infiltrer le téléphone portable de la chef de cabinet de la Maison Blanche, Susie Wiles, en imitant sa voix lors d'appels à des sénateurs, des gouverneurs, des chefs d'entreprise et d'autres contacts de haut niveau.
Deux mois plus tard, des fraudeurs ont imité la voix du secrétaire d'État Marco Rubio lors d'appels à trois ministres étrangers, un membre du Congrès et un gouverneur dans une tentative apparente d'obtenir des informations sensibles et un accès aux comptes, selon le projet de loi.
Le projet de loi adopte la définition de l'IA de la Loi nationale sur l'IA de 2020 et crée des protections du Premier Amendement, exemptant la satire, la parodie et d'autres usages expressifs qui incluent une divulgation claire de l'inauthenticité.
La fraude par courrier et par virement assistée par l'IA pourrait entraîner jusqu'à 20 ans de prison et une amende de $1 millions, avec des pénalités standard augmentant à $2 millions. La fraude bancaire alimentée par l'IA pourrait entraîner 30 ans de prison et une amende de $2 millions.
Le blanchiment d'argent assisté par l'IA pourrait entraîner jusqu'à 20 ans de prison et des amendes de $1 millions ou trois fois la valeur de la transaction, et l'usurpation d'identité d'agents fédéraux par l'IA entraînerait trois ans de prison et une amende de $1 millions.
« L'IA progresse à un rythme rapide, et nos lois doivent suivre ce rythme », a déclaré Dunn, en avertissant que lorsque des criminels utilisent l'IA pour voler des identités ou frauder des Américains, « les conséquences devraient être suffisamment sévères pour correspondre au crime. »
Pendant ce temps, le président Trump envisagerait apparemment un décret exécutif pour démanteler les lois étatiques sur l'IA et affirmer la primauté fédérale, alors que plus de 200 législateurs d'État exhortent le Congrès à rejeter la tentative des républicains de la Chambre d'incorporer une clause de préemption de l'IA dans le projet de loi de défense.
Un moratoire similaire s'est effondré en juillet après un vote au Sénat de 99 contre 1, et l'opposition s'est depuis élargie, bien qu'un projet d'ordre circulant la semaine dernière montre que la Maison Blanche envisage son propre moyen de contourner les règles des États.
Mohith Agadi, co-fondateur de Provenance AI, un agent IA et un logiciel SaaS de vérification des faits soutenu par Fact Protocol, a déclaré à Decrypt que le caractère bipartite de ce projet de loi souligne un consensus croissant selon lequel “l'imitation et la fraude alimentées par l'IA nécessitent une action urgente.”
“Le véritable défi est de prouver devant le tribunal que l'IA a été utilisée,” a déclaré Agadi. “Le contenu synthétique peut être difficile à attribuer, et les outils d'analyse existants sont incohérents.”
« Les législateurs doivent associer ces sanctions à des investissements dans des systèmes de forensic numérique et de provenance comme le C2PA qui documentent clairement l'origine d'un contenu », a-t-il noté, sinon nous risquons de créer des lois qui sont « conceptuellement fortes mais pratiquement difficiles à appliquer. »