Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Suporte à revolução da memória de código aberto na China, a IA finalmente possui memória de longo prazo ao nível humano!
Contexto de 100 milhões de tokens, o pequeno modelo de 4B supera facilmente o RAG de 235B! EverMind open-soube MSA revolucionou tudo
Você já pensou: a capacidade de memória de uma pessoa ao longo da vida é de aproximadamente 200-300 milhões de tokens, e hoje GPT, Claude mal conseguem suportar até 200K-1M, além disso, eles colapsam? Quanto mais vetores no banco de dados RAG, pior. A busca é sempre um complemento externo, múltiplas inferências esquecem tudo assim que uma etapa termina; treinar modelos de longo contexto consome uma fortuna em memória de vídeo, e a inferência trava que é uma beleza.
EverMind-AI deu um golpe forte, quebrando o teto de vidro. Eles open-souberam o MSA (Memory Sparse Attention), uma arquitetura de memória de longo prazo verdadeiramente nativa, embutida e treinável de ponta a ponta, levando a capacidade de memória dos LLMs para 100.000.000 de tokens, com uma perda de precisão de menos de 9%!
Isso não é mais uma técnica de contexto longo falsa, é uma revolução que literalmente solda o hipocampo ao Transformer.
//
Por que o MSA é realmente incrível? Três truques que derrotam todos os predecessores
1. Atenção esparsa + RoPE baseado em documento
O RoPE tradicional sofre deslocamento de posição em contextos ultra longos, o MSA reinicia a contagem de posições de forma independente para cada documento, treinando com 64K que pode ser extrapolado sem problemas para 100M. A complexidade passa de O(n²) para aproximadamente O(n), tornando o treinamento e a inferência linearmente escaláveis.
2. Cache KV hierárquico comprimido + Memória paralela
Chaves roteadas (versão altamente comprimida) permanecem na GPU, enquanto o KV completo fica na memória CPU. Na inferência, apenas os top-k documentos necessários são buscados, com duas GPUs A800 rodando 100M de tokens! Testes oficiais mostram que a taxa de processamento dispara.
3. Mecanismo de Interleaving de Memória
Não é mais uma busca única, mas uma reflexão iterativa do modelo: gerar → buscar → gerar novamente → buscar de novo. Decidir dinamicamente quantos documentos usar, inferência multi-hop (HotpotQA, 2Wiki, etc.) ganha nova vida, e experimentos de ablação mostram que removê-lo causa uma queda de precisão de mais de 19%.
Resumindo em uma frase: o MSA funde memória e raciocínio em um ciclo diferenciável, deixando de ser “consultar dados antes de responder” para “pensar enquanto lembra”. Essa é a verdadeira forma de memória que uma AGI deve ter. Os dados não mentem: modelos de 4B destroem tudo.
Oficialmente, usando Qwen3-4B-Instruct como backbone, comparando com RAG de mesma escala, pilhas de RAG de topo, HippoRAG2, etc.:
• Média de pontuação em QA de contexto longo: MSA lidera o RAG do mesmo backbone em 16%, e supera o RAG mais forte em 11,5%.
• MS MARCO (mais de 7 milhões de tokens): MSA 4.141 pontos, muito acima da série RAG.
• Conjuntos de dados multi-hop (HotpotQA, 2Wiki): vantagem ainda mais acentuada.
• NIAH (agulha no palheiro) 1M de tokens: modelos tradicionais caem para menos de 25%, enquanto o MSA mantém mais de 94% de precisão.
• De 16K a 100M de tokens ao longo de todo o processo: perda de precisão <9%, enquanto outras soluções já caíram drasticamente.
Ainda mais impressionante: um modelo MSA de 4B de parâmetros supera sistemas RAG com 60 vezes mais parâmetros. Isso significa que, no futuro, agentes não precisarão mais de modelos monstruosos de 200B+; basta equipá-los com MSA para ter uma memória quase equivalente à de uma vida humana.
A equipe EverMind claramente já colocou fazer o agente possuir memória pessoal como missão central, e o MSA é o primeiro grande presente que eles oferecem ao mundo.
github open-source: