Vitalik tem medo de AGI e ASI: os humanos devem priorizar ferramentas de aumento de inteligência, não substituir os humanos por IA

ChainNewsAbmedia
AGI1,76%
ASI-1,7%
ETH3,17%

O co-fundador da Ethereum, Vitalik Buterin, partilhou no Twitter uma perspetiva única sobre AGI (Inteligência Artificial Geral) e ASI (Inteligência Artificial Superinteligente), enfatizando o foco nas ferramentas de IA, em vez de buscar o desenvolvimento de formas de vida superinteligentes para substituir os humanos. Ele expressou um grande receio em relação ao desenvolvimento excessivo de AGI e ASI.

AGI é uma inteligência artificial independente que mantém a civilização

Vitalik define AGI como uma IA bastante poderosa. Ele afirma que, se todos os seres humanos desaparecessem repentinamente e essa IA fosse instalada em robôs, seria capaz de funcionar de forma independente e manter o desenvolvimento de toda a civilização. Ele acrescenta que esse conceito eleva ainda mais a IA além de ser apenas uma “ferramenta”, transformando-se em uma forma de vida autossustentável.

Vitalik aponta que a tecnologia atual não pode simular tal cenário, não podemos realmente testar se a IA pode manter a civilização sem pessoas, é ainda mais difícil definir os padrões de ‘desenvolvimento civilizado’, quais condições representam a continuação da civilização, e essas questões em si são muito complexas, mas isso pode ser a principal fonte de distinção direta entre AGI e IA comum.

(Nota: uma forma de vida autossustentável, que pode adquirir e usar recursos para manter as atividades vitais, adaptar-se a mudanças ambientais e sobreviver continuamente em certas condições.)

Enfatizar a importância das ferramentas de assistência inteligente não é substituir os humanos pela IA

Vitalik’s definition of Artificial Superintelligence (ASI) is when the progress of AI surpasses the value that human involvement can provide and reaches a stage of complete autonomy and greater efficiency. He gives the example of international chess, which has truly entered this stage only in the past decade. The level of AI has already surpassed the best performance achieved by human-AI collaboration, and he admits that ASI makes him feel afraid because it means that humans may truly lose control over AI.

Vitalik afirmou que, em vez de desenvolver um superorganismo inteligente, é melhor focar no desenvolvimento de ferramentas que possam fortalecer a inteligência e habilidades humanas. Ele acredita que a IA deve auxiliar os seres humanos, em vez de substituí-los. Ele acredita que essa abordagem reduziria os riscos de a IA ficar incontrolável e, ao mesmo tempo, aumentaria a eficiência e estabilidade da sociedade como um todo.

(A ameaça de desemprego trazida pela IA generativa: os trabalhadores da Amazon serão completamente substituídos por uma frota de máquinas?)

Neste artigo, Vitalik tem medo do AGI e do ASI: os humanos devem priorizar ferramentas de aprimoramento da inteligência, não substituir os humanos pela IA. Publicado pela primeira vez em ChainNews ABMedia.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário