Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
L'IA en Europe : ce que pourrait signifier la loi sur l'IA
Photo par Maico Amorim sur Unsplash
La loi sur l’IA est encore à l’état de projet, mais les investisseurs et les entrepreneurs en affaires dans l’Union européenne sont déjà nerveux quant aux résultats possibles.
Empêchera-t-elle l’Union européenne d’être un concurrent précieux dans l’espace mondial ?
Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.
La loi sur l’IA et l’évaluation des risques
La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories de risques, mais avant cela, elle limite la définition de l’intelligence artificielle à inclure uniquement ces systèmes basés sur l’apprentissage automatique et la logique.
Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à nous aider à comprendre pourquoi l’UE souhaite catégoriser le risque.
Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques relevant de la catégorie du risque inacceptable sont considérées comme interdites.
Ce type de pratiques inclut :
Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des “pratiques à haut risque”.
Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (et cela pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises pour éviter les risques pour les personnes et pour être aussi transparent que possible.
Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient traiter.
La loi semble trop générique
L’un des aspects qui inquiètent le plus les entrepreneurs et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.
Par exemple, celles qui produisent et utilisent des systèmes basés sur l’IA à des fins générales pourraient être considérées comme utilisant l’intelligence artificielle pour des cas d’usage à haut risque.
Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.
Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en fait, l’Europe ne possède pas de grandes entreprises d’IA comme aux États-Unis, car l’environnement de l’IA en Europe est principalement créé par des PME et des startups.
Selon une enquête menée par appliedAI, une grande majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de “à haut risque”, précisément à cause de la complexité impliquée dans cette classification.
ChatGPT a changé les plans de l’UE
Les régulateurs de l’UE auraient dû clôturer le document le 19 avril, mais la discussion concernant les différentes définitions des systèmes basés sur l’IA et leurs cas d’usage a retardé la livraison du projet final.
De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.
Le point qui a principalement causé des retards est la différenciation entre modèles fondamentaux et IA à usage général.
Un exemple de modèles fondamentaux d’IA est ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer tout type de sortie.
L’IA à usage général inclut ces systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.
Les régulateurs de l’UE veulent réglementer strictement les modèles fondamentaux, car ils pourraient poser plus de risques et affecter négativement la vie des gens.
Comment les États-Unis et la Chine réglementent l’IA
Si l’on regarde comment les régulateurs de l’UE traitent l’IA, quelque chose ressort : il semble que les régulateurs soient moins disposés à coopérer.
Aux États-Unis, par exemple, l’administration Biden a recherché des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un cadre réglementaire potentiel.
En Chine, le gouvernement