Notícias do Gate News, a 11 de abril, a empresa de infraestruturas de IA Ramp Labs publicou resultados de investigação «Latent Briefing», permitindo uma partilha eficiente de memória entre sistemas multiagente através da compressão direta da cache KV de grandes modelos. Isto faz uma grande redução do consumo de Tokens sem perda de exatidão. Nas arquiteturas multiagente mais comuns, o orquestrador (Orchestrator) decompõe tarefas e chama repetidamente modelos de trabalhadores (Worker). À medida que a cadeia de inferência se vai tornando mais longa, a quantidade de Tokens cresce de forma exponencial. A ideia central do Latent Briefing é, com o auxílio do mecanismo de atenção, identificar as partes verdadeiramente essenciais no contexto e eliminar informação redundante diretamente na camada de representação, em vez de depender de resumos de LLM que são lentos ou de pesquisas RAG com baixa estabilidade. Nos testes de referência do LongBench v2, o método teve um desempenho notável: o consumo de Tokens do modelo Worker diminuiu 65%, a mediana de Tokens poupados em documentos de comprimento médio (32k a 100k) atingiu 49%, a exatidão global melhorou cerca de 3 pontos percentuais face à linha de base e o tempo adicional para cada compressão foi apenas de cerca de 1,7 segundos, o que equivale a acelerar aproximadamente 20 vezes em relação ao algoritmo original. O experimento usou Claude Sonnet 4 como orquestrador e Qwen3-14B como modelo de trabalhador, cobrindo cenários de documentos variados, como artigos académicos, documentos jurídicos, romances e relatórios governamentais. O estudo também descobriu que o limiar de compressão ideal varia em função da dificuldade da tarefa e do comprimento do documento — para tarefas difíceis, é mais adequado uma compressão mais agressiva para filtrar ruído de inferência oportunista; para documentos longos, é mais apropriada uma compressão mais ligeira para preservar informação-chave dispersa.