L'IA en Europe : ce que pourrait signifier la loi sur l'IA

Photo par Maico Amorim sur Unsplash


La loi sur l’IA est encore à l’état de projet, mais les investisseurs et les entrepreneurs en affaires dans l’Union européenne sont déjà nerveux quant aux résultats possibles.

Empêchera-t-elle l’Union européenne d’être un concurrent précieux dans l’espace mondial ?

Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.

La loi sur l’IA et l’évaluation des risques

La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories de risques, mais avant cela, elle limite la définition de l’intelligence artificielle à inclure uniquement ces systèmes basés sur l’apprentissage automatique et la logique.

Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à nous aider à comprendre pourquoi l’UE souhaite catégoriser le risque.

Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques relevant de la catégorie du risque inacceptable sont considérées comme interdites.

Ce type de pratiques inclut :

*   Pratiques impliquant des techniques qui fonctionnent au-delà de la conscience d'une personne, 
*   Pratiques cherchant à exploiter des parties vulnérables de la population, 
*   Systèmes basés sur l'IA mis en place pour classer les personnes selon des caractéristiques ou comportements personnels,
*   Systèmes basés sur l'IA utilisant l'identification biométrique dans les espaces publics. 

Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des “pratiques à haut risque”.

Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (et cela pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises pour éviter les risques pour les personnes et pour être aussi transparent que possible.

Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient traiter.

La loi semble trop générique

L’un des aspects qui inquiètent le plus les entrepreneurs et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.

Par exemple, celles qui produisent et utilisent des systèmes basés sur l’IA à des fins générales pourraient être considérées comme utilisant l’intelligence artificielle pour des cas d’usage à haut risque.

Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.

Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en fait, l’Europe ne possède pas de grandes entreprises d’IA comme aux États-Unis, car l’environnement de l’IA en Europe est principalement créé par des PME et des startups.

Selon une enquête menée par appliedAI, une grande majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de “à haut risque”, précisément à cause de la complexité impliquée dans cette classification.

ChatGPT a changé les plans de l’UE

Les régulateurs de l’UE auraient dû clôturer le document le 19 avril, mais la discussion concernant les différentes définitions des systèmes basés sur l’IA et leurs cas d’usage a retardé la livraison du projet final.

De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.

Le point qui a principalement causé des retards est la différenciation entre modèles fondamentaux et IA à usage général.

Un exemple de modèles fondamentaux d’IA est ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer tout type de sortie.

L’IA à usage général inclut ces systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.

Les régulateurs de l’UE veulent réglementer strictement les modèles fondamentaux, car ils pourraient poser plus de risques et affecter négativement la vie des gens.

Comment les États-Unis et la Chine réglementent l’IA

Si l’on regarde comment les régulateurs de l’UE traitent l’IA, quelque chose ressort : il semble que les régulateurs soient moins disposés à coopérer.

Aux États-Unis, par exemple, l’administration Biden a recherché des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un cadre réglementaire potentiel.

En Chine, le gouvernement

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler