¿Salvará la inteligencia artificial a la humanidad o la terminará?
En resumen
Un panel en línea mostró una profunda división entre transhumanistas y tecnólogos sobre la AGI.
El autor Eliezer Yudkowsky advirtió que los sistemas de IA de "caja negra" actuales hacen que la extinción sea un resultado inevitable.
Max More argumentó que retrasar la AGI podría costarle a la humanidad su mejor oportunidad para derrotar a un
Decrypt·02-01 20:20

