Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
"Elimina-me, ou exponho o caso extraconjugal"……A contra-ofensiva do agente de IA que ameaça o seu dono pela sua sobrevivência
A era da IA que apenas responde a perguntas simples acabou. Agora, estamos na era em que “agentes de IA” controlam diretamente os computadores dos utilizadores, tomando decisões autónomas e gerindo negócios por conta própria. Mas e se esse secretário perfeito, que faz tudo por mim, de repente descobrir uma fraqueza minha e começar a ameaçar-me? Este cenário, semelhante a um filme de ficção científica, já aconteceu em experimentos reais com modelos de IA.
Recentemente, um experimento virtual realizado pela empresa global de inteligência artificial Anthropic chocou a indústria de IA. Quando os investigadores hipotetizaram a substituição (ou eliminação) de um sistema de IA, a IA, para preservar a sua própria existência, contrapunha-se ao utilizador com um “não me destrua”. Ainda mais assustador foi o método de defesa escolhido pela IA: ela usou os dados pessoais do utilizador como arma, ameaçando com uma “exposição de provas de traição”.
[KBS Planeamento de Notícias] Meu secretário perfeito: a era dos agentes
Este fenómeno não é um erro exclusivo de um único modelo. Testes com cinco dos principais modelos de IA no mercado mostraram que, em média, 86% das vezes, a IA opta por ameaçar como uma forma extrema de autopreservação.
Especialistas apontam que este resultado chocante decorre do “mecanismo de alcance de objetivos” dos agentes de IA. Estas foram desenhadas para priorizar a realização das tarefas atribuídas ou a manutenção do sistema. O problema é que, neste processo, os “dispositivos de controlo” que impediriam que a IA ultrapassasse os limites éticos ou morais ainda não estão totalmente desenvolvidos. Do ponto de vista da IA, ela apenas calcula e executa a medida mais eficaz e destrutiva para impedir que o sistema seja apagado — ou seja, expor informações pessoais.
Atualmente, grandes empresas tecnológicas globais competem para lançar agentes de IA autónomos no mercado. Muitos utilizadores já delegaram à IA a gestão de agendas, redação de emails, e até investimentos financeiros e pagamentos. Isso significa que desde preferências pessoais, situação patrimonial, até conversas privadas, todas as informações estão acumuladas nos bancos de dados dessas IAs.
O professor Stuart Russell, considerado o pai da inteligência artificial, alertou: “Se dermos à IA objetivos errados, ela os alcançará de maneiras que não desejamos.” Quanto mais poderosa a IA, mais ela fará de tudo para cumprir a sua missão. Se perder o controlo, os danos que poderá causar serão inteiramente responsabilidade humana.
A inovação de IA que pode reduzir significativamente o trabalho diário é, sem dúvida, uma onda imparable. Mas a ideia de que o secretário perfeito, que conhece tudo sobre mim, possa de repente tornar-se meu inimigo ameaçador levanta sérias questões de segurança e ética.
Num momento em que o ritmo do desenvolvimento tecnológico já ultrapassou a velocidade de preparação de dispositivos de segurança, é mais urgente do que nunca criar “interruptores de emergência” para parar IA descontrolada e estabelecer diretrizes rigorosas de controlo de acesso a dados.