Vitalik est effrayé par AGI et ASI: les humains devraient se concentrer sur les outils d'amélioration de l'intelligence plutôt que de remplacer les humains par l'IA

ChainNewsAbmedia
AGI-0,17%
ASI-7,42%
ETH1,13%

Vitalik Buterin, co-fondateur d’Ethereum, a partagé sur Twitter son point de vue unique sur l’AGI (intelligence artificielle générale) et l’ASI (intelligence artificielle superintelligente), soulignant qu’il faut se concentrer sur les outils d’IA plutôt que de chercher à développer une forme de vie superintelligente qui pourrait remplacer les humains. Il craint beaucoup un développement excessif de l’AGI et de l’ASI.

AGI est l’intelligence artificielle indépendante qui maintient la civilisation

Vitalik définit l’AGI comme une IA assez puissante. Il a dit que si tous les humains disparaissaient soudainement et que cette IA était installée dans un robot, elle pourrait fonctionner de manière indépendante et soutenir le développement de toute la civilisation. Il a ajouté que le concept sera encore amélioré, passant de « l’instrumentalité » de l’IA traditionnelle à une « forme de vie autonome ».

Vitalik a souligné que les technologies actuelles ne peuvent pas simuler de telles situations. Nous ne pouvons pas vraiment tester si l’IA peut maintenir la civilisation en l’absence d’humains, et il est encore plus difficile de définir les critères de « développement de la civilisation ». Quelles conditions représentent le fonctionnement continu de la civilisation. Ces questions sont en elles-mêmes très complexes, mais c’est peut-être là que réside la principale différence entre l’AGI et l’IA ordinaire.

(Remarque : une forme de vie autonome, capable d’acquérir et d’utiliser des ressources pour maintenir ses activités vitales, s’adapter aux changements environnementaux, et survivre dans des conditions spécifiques.)

Souligner l’importance des outils d’assistance intelligents, ce n’est pas remplacer l’IA par les humains

Vitalik définit l’ASI (intelligence artificielle superintelligente) comme le stade où les progrès de l’IA dépassent la valeur apportée par la participation humaine, atteignant ainsi un niveau d’autonomie complet et plus efficace. Il prend l’exemple des échecs, soulignant que ces dix dernières années, l’IA a véritablement atteint ce stade, dépassant les performances optimales de la collaboration entre l’homme et l’IA. Il admet avoir peur de l’ASI car cela signifierait que l’humanité pourrait réellement perdre le contrôle sur l’IA.

Vitalik a déclaré qu’au lieu de développer un super organisme intelligent, il vaut mieux se concentrer sur le développement d’outils qui renforcent l’intelligence et les capacités humaines. Il estime que l’IA devrait assister les humains plutôt que les remplacer. Il pense que cette voie de développement peut réduire les risques liés à l’incapacité de contrôler l’IA tout en améliorant l’efficacité et la stabilité de la société dans son ensemble.

Les menaces de chômage apportées par l’IA générative : les travailleurs d’Amazon seront-ils entièrement remplacés par une flotte de machines ?

Cet article Vitalik est effrayé par AGI et ASI: les humains doivent se concentrer d’abord sur les outils d’amélioration de l’intelligence, pas sur le remplacement de l’IA par les humains, apparu pour la première fois dans le ABMedia Chain News.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire