Les législateurs du Colorado s’emploient à abroger et remplacer la loi de l’État sur l’intelligence artificielle de 2024, SB24-205, par de nouvelles règles qui restreignent le champ de la réglementation de l’IA tout en répondant aux inquiétudes du secteur concernant les charges de conformité. La nouvelle proposition, SB26-189, réglementerait les systèmes d’IA utilisés dans des « décisions déterminantes », y compris l’emploi, l’éducation, le logement, les prêts, l’assurance, la santé et les services publics, selon le résumé du projet de loi.
Adoptée en 2024, la SB24-205 imposait aux entreprises de vérifier et de réduire les biais dans les décisions pilotées par l’IA et ayant un impact sur le recrutement, les prêts et le logement. La loi a suscité une forte opposition de la part de l’industrie de l’IA au sujet des responsabilités de conformité qu’elle faisait peser sur les entreprises qui développent et déploient de l’IA dans l’État.
En avril, la société d’IA d’Elon Musk, xAI, a intenté un procès au Colorado pour bloquer la mesure initiale avant son entrée en vigueur. Le Département américain de la Justice s’est joint à l’action en justice, cherchant à intervenir et à soutenir la position de xAI. D’après Cody Barela, associé chez Armstrong Teasdale, l’argument du secteur portait sur la charge de conformité : « Je pense qu’ils ont un argument valable en termes des contraintes que la politique du Colorado imposerait à ces entreprises. La charge qui leur incomberait, par rapport au délai qu’elle provoque dans la course à l’IA, pourrait en fait être un meilleur argument. »
La SB26-189 s’applique spécifiquement aux outils d’IA qui traitent des données personnelles pour produire des sorties telles que des prédictions ou des classements, qui influencent des résultats déterminants. Le projet de loi reformule les protections des consommateurs de la loi initiale avec de nouvelles exigences à la fois pour les développeurs et les entreprises qui déploient ces systèmes.
Les développeurs devront fournir une documentation expliquant le fonctionnement de leurs systèmes, les données qu’ils utilisent et leurs limites connues. Ils devront aussi notifier aux entreprises les mises à jour matérielles apportées à leurs systèmes.
Les entreprises utilisant ces systèmes d’IA auront des obligations distinctes : informer les consommateurs lorsqu’une décision implique de l’IA, expliquer les issues défavorables en langage clair, permettre aux personnes d’accéder à leurs données et de les corriger, et permettre aux personnes de demander un examen humain des décisions pilotées par l’IA.
Si le nouveau texte est adopté, il entrerait en vigueur le 1er janvier 2027. La proposition du Colorado s’inscrit dans une dynamique plus large en faveur de la réglementation de l’IA au niveau des États, alors que des législateurs d’autres États, dont New York et la Californie, envisagent des règles similaires visant les systèmes d’IA. L’administration Trump cherche simultanément à faire passer outre les lois étatiques sur l’IA.
Articles similaires
R0AR progresse vers la manche finale du pitchfest Consensus 2026, manquant de peu le top 20
Musk réclame un règlement de 150 milliards de dollars avec OpenAI avant le procès, les discussions échouent
Cursor accepte l’offre d’acquisition de SpaceX de 60 milliards de dollars, mais ne s’associera pas à xAI sur des modèles de codage
Haun Ventures clôture un fonds de 1 milliard de dollars le 4 mai, répartit le capital entre des investissements crypto à un stade précoce et à un stade avancé
OpenAI lève $4 milliard pour une coentreprise de déploiement, évaluée à 10 milliards de dollars
Pourquoi certaines personnes pensent que l’IA change le monde, tandis que d’autres pensent que ce n’est pas si différent : les deux diagnostics de Karpathy