Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Conferência GTC da Nvidia em texto completo: Huang Renxun anuncia a chegada da era da inferência, lagostas são o novo sistema operacional!
Fonte: Wall Street Jingwen
Escrito por: Bao Yilong
Na conferência GTC 2026, o CEO da Nvidia, Huang Renxun, posicionou a empresa como construtora de “Fábricas de IA”, afirmando que “até 2027 veremos uma demanda de pelo menos 1 trilhão de dólares com alta confiança”. Ele apresentou a “Economia de Token de Fábrica”, destacando que o desempenho por watt é o núcleo da monetização comercial. Huang Renxun afirmou que agentes inteligentes irão acabar com o modelo tradicional de SaaS, e que no futuro “salário anual + orçamento de Token” será o novo padrão no mercado de trabalho.
Discurso de abertura
Moderador: Bem-vindos ao palco Huang Renxun, fundador e CEO da Nvidia.
Huang Renxun, fundador e CEO:
Bem-vindos ao GTC. Esta é uma conferência tecnológica, fico muito feliz ao ver tantas pessoas na fila cedo de manhã.
Hoje, vamos discutir três plataformas principais: a plataforma CUDA-X, a plataforma de sistemas e a nova plataforma de Fábrica de IA. Claro, o mais importante é o ecossistema.
Primeiro, agradeço aos nossos anfitriões de “aquecimento pré-conferência”: Sarah Guo, da Conviction; Alfred Lin, da Sequoia Capital (o primeiro investidor de risco da Nvidia); e Gavin Baker, o primeiro investidor institucional importante na Nvidia. Essas três pessoas têm uma compreensão profunda de tecnologia e grande influência no ecossistema tecnológico. Além disso, agradeço a todos os convidados que selecionei pessoalmente.
Também agradeço a todas as empresas participantes. Como uma plataforma, a Nvidia possui tecnologia, plataformas e um ecossistema rico. Hoje, quase todas as empresas que abrangem uma indústria de trilhões de dólares estão aqui — 450 empresas patrocinando este evento, muito obrigado.
Este evento conta com 1.000 sessões técnicas, reunindo 2.000 palestrantes, cobrindo cada camada do “bolo de cinco camadas” da inteligência artificial — desde terra, energia e infraestrutura, até chips, plataformas, modelos e as diversas aplicações que impulsionam toda a indústria.
Histórico de 20 anos do CUDA
Este ano marca o 20º aniversário do CUDA.
Ao longo de 20 anos, temos dedicado esforços a essa arquitetura — essa invenção revolucionária: SIMT (Single Instruction, Multiple Threads), que permite derivar aplicações multithread a partir de código escalar, facilitando a programação em comparação com métodos tradicionais. Recentemente, adicionamos suporte a Tiles, ajudando desenvolvedores a programar Tensor Cores e estruturas matemáticas de IA atuais de forma mais conveniente.
Até agora, o CUDA acumulou milhares de ferramentas, compiladores, frameworks e bibliotecas, com centenas de milhares de projetos de código aberto na comunidade, e está profundamente integrado em todos os principais ecossistemas.
Efeito de volante e base de instalação
A seguir, uma imagem que descreve praticamente toda a estratégia da Nvidia.
O mais difícil de implementar, e também de maior valor estratégico, é a base de instalação subjacente. Após 20 anos, construímos centenas de milhões de GPUs e sistemas de computação que rodam CUDA globalmente. Abrangemos todos os provedores de nuvem e fabricantes de computadores, atendendo quase todos os setores.
A base de instalação do CUDA é a razão fundamental do efeito de volante acelerado. Essa vasta base atrai desenvolvedores, que criam novos algoritmos, levando a avanços — como o nascimento do deep learning. Esses avanços abrem novos mercados, atraindo mais parceiros ecológicos, formando uma base de instalação ainda maior. Esse efeito de volante continua acelerando.
Atualmente, o download da biblioteca Nvidia cresce a uma velocidade surpreendente, e essa taxa de crescimento continua a aumentar. Essa dinâmica permite que a plataforma de computação sustente uma quantidade massiva de aplicações e inovações tecnológicas.
Mais importante, ela também confere uma vida útil extremamente longa à infraestrutura. A razão é simples: o CUDA da Nvidia pode rodar uma vasta gama de aplicações, cobrindo todas as fases do ciclo de vida da IA, plataformas de processamento de dados, e diversos solucionadores de princípios científicos. Assim, uma vez instalada uma GPU Nvidia, sua vida útil é altamente prolongada.
Isso explica por que a arquitetura Ampere, lançada há seis anos, ainda tem preços em alta na nuvem.
Ao mesmo tempo, com atualizações contínuas de software, os custos de computação continuam a cair — não só pelo aumento de desempenho na implantação inicial, mas também pelos efeitos de redução de custos a longo prazo proporcionados pelo aceleramento de cálculos. Como todas as GPUs são compatíveis na arquitetura, continuamos apoiando e mantendo cada GPU globalmente. Quanto maior a base de instalação, mais usuários se beneficiam de cada otimização.
Essa combinação dinâmica faz com que a arquitetura Nvidia expanda sua cobertura, acelere o crescimento e reduza continuamente os custos de computação, impulsionando uma nova rodada de crescimento.
O ponto de partida do CUDA: GeForce
A jornada do CUDA começou, na verdade, há 25 anos, com a GeForce.
A GeForce é a campanha de marketing mais bem-sucedida da Nvidia. Desde quando vocês eram jovens, sem poder de compra, começamos a atrair futuros clientes — na época, seus pais pagavam por vocês, ano após ano, até que um dia vocês se tornaram excelentes cientistas da computação, verdadeiros desenvolvedores.
Há 25 anos, inventamos o shader programável — o primeiro acelerador programável do mundo, e o início dos pixel shaders. Essa invenção nos impulsionou a explorar continuamente, e cinco anos depois nasceu o CUDA.
Expandir o CUDA do GeForce para cada computador foi um dos nossos maiores investimentos na época — mesmo sendo difícil de suportar, consumiu a maior parte do lucro da empresa. Acreditávamos em seu potencial; apesar das dificuldades iniciais, após 20 anos e 13 gerações de arquitetura, o CUDA está agora onipresente.
Há cerca de oito anos, lançamos a série RTX, que redesenhou completamente a arquitetura, introduzindo duas ideias inovadoras na época: ray tracing por hardware e renderização gráfica alimentada por IA. Assim como o GeForce trouxe IA ao mundo — permitindo que Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng e outros descobrissem que GPUs aceleram o deep learning, desencadeando a explosão de IA — hoje, a IA irá revolucionar completamente a computação gráfica.
Renderização neural: DLSS 5
Hoje, quero mostrar o futuro da tecnologia gráfica. Chamamos de renderização neural — a fusão de gráficos 3D com inteligência artificial, que é DLSS 5.
Impressionante, não é? Combinamos dados estruturados de 3D (estruturas do mundo virtual) com IA generativa (cálculo probabilístico): um totalmente previsível, o outro probabilístico, mas altamente realista. A combinação gera conteúdos que são ao mesmo tempo bonitos, realistas e totalmente controláveis.
A fusão de informações estruturadas e IA generativa se repetirá em diversos setores. Dados estruturados são a base para IA confiável.
Plataformas de dados estruturados e não estruturados
A próxima imagem pode surpreendê-los, mas peço que tenham paciência para ouvir até o fim.
Dados estruturados — SQL, Spark, Pandas, Velox, além de plataformas como Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — todos lidam com Data Frames. Esses Data Frames são como planilhas gigantes, contendo todas as informações de negócios, sendo a “fato de referência” para o cálculo empresarial.
Na era da IA, esses dados estruturados serão acessados rapidamente por IA, devendo ser acelerados ao máximo. No futuro, agentes de IA também usarão extensivamente bancos de dados estruturados.
Dados não estruturados representam a maior parte da informação mundial: vetores, PDFs, vídeos, áudios… Aproximadamente 90% das informações geradas anualmente globalmente são não estruturadas. No passado, esses dados eram quase inúteis — armazenávamos em sistemas de arquivos, mas não podíamos consultá-los ou pesquisá-los.
Agora, a IA mudou tudo isso. Assim como resolve problemas de percepção multimodal e compreensão, a tecnologia atual consegue ler PDFs, entender seu conteúdo e incorporá-los em estruturas maiores, que podem ser pesquisadas e consultadas.
Para isso, a Nvidia criou duas bibliotecas fundamentais:
cuDF: aceleração de Data Frames e dados estruturados
cuVS: aceleração de armazenamento vetorial, dados semânticos e dados não estruturados de IA
Essas plataformas se tornarão entre as mais importantes do futuro.
Hoje, anunciamos oficialmente várias parcerias:
IBM (criadora do SQL) usa cuDF para acelerar sua plataforma de dados WatsonX
Dell colaborou conosco na criação da Dell AI Data Platform, integrando cuDF e cuVS, especialmente para a era de IA
Google Cloud: aceleramos o Vertex AI e o BigQuery; por exemplo, ajudamos o Snapchat a reduzir seus custos computacionais em quase 80%
AWS: aceleramos EMR, SageMaker e Bedrock, e vamos integrar o OpenAI na AWS, impulsionando o consumo de nuvem em larga escala
Microsoft Azure: aceleramos o Azure AI Foundry, apoiamos profundamente o Bing e expandimos a implantação em regiões do Azure
CoreWeave: a primeira nuvem nativa de IA do mundo, criada para hospedagem de GPUs e inferência de IA
Oracle: somos o primeiro cliente de IA da Oracle
Palantir + Dell: parceria tripla, permitindo implantação de plataformas de IA em qualquer país, região isolada ou totalmente local
Estratégia central da Nvidia: integração vertical e abertura horizontal
A Nvidia é a primeira empresa de computação no mundo a ser integrada verticalmente e ao mesmo tempo aberta horizontalmente.
A aceleração de cálculos não é apenas uma questão de chips ou sistemas, mas de aplicação acelerada. Para trazer melhorias significativas em cada setor, é preciso entender profundamente as aplicações, os domínios e os algoritmos, e implementá-los em cada cenário de implantação — seja em data centers na nuvem, localmente, na borda ou em sistemas robóticos.
Por isso, a Nvidia precisa aprofundar-se em cada setor vertical. Compreendendo os algoritmos, os integramos às plataformas de computação, tornando-as acessíveis globalmente.
Nesta GTC, cobrimos quase todos os setores verticais do ecossistema Nvidia, incluindo:
Condução autônoma
Serviços financeiros (o setor com maior participação na GTC, com foco em desenvolvedores, não em traders)
Saúde (vivendo seu “momento ChatGPT”)
Indústria de manufatura
Entretenimento e jogos
Robótica (110 robôs expostos, quase todas as empresas de robótica colaborando com a Nvidia)
Telecomunicações (setor de cerca de 2 trilhões de dólares, com estações base evoluindo para infraestrutura de computação de borda de IA)
Anunciamos nesta conferência 100 bibliotecas e cerca de 40 atualizações de modelos. Essas bibliotecas são ativos centrais da empresa, essenciais para ativar plataformas de cálculo e resolver problemas práticos.
Uma das mais importantes é a cuDNN (CUDA Deep Neural Network Library), que revolucionou a inteligência artificial e impulsionou a explosão moderna de IA.
Ponto de inflexão na inferência
O que aconteceu nos últimos dois anos? Três grandes eventos impulsionaram tudo isso:
Primeiro: o início da era do ChatGPT e IA generativa (final de 2022 a 2023). IA que não só percebe e entende, mas também traduz, cria e gera conteúdo novo. O cálculo generativo mudou fundamentalmente a arquitetura e a lógica de construção dos computadores.
Segundo: o surgimento da IA de raciocínio (modelos o 1 e o 3). Essa IA permite reflexão, planejamento, decomposição de problemas complexos em etapas gerenciáveis, tornando a IA mais confiável e baseada em fatos. Isso elevou o uso do ChatGPT e aumentou drasticamente o volume de tokens de entrada e saída.
Terceiro: o nascimento do Claude Code e da IA Agentic. O primeiro modelo verdadeiramente Agentic, capaz de ler arquivos, escrever código, compilar, testar, avaliar e otimizar iterativamente. O Claude Code revolucionou a engenharia de software. Hoje, todos os engenheiros de software da Nvidia usam IA Agentic para programar.
A IA evoluiu de “percepção” para “geração”, de “geração” para “raciocínio” e de “raciocínio” para “execução” — agora, a IA consegue realizar trabalhos realmente produtivos.
O ponto de inflexão do raciocínio já chegou. Cada pensamento, execução, leitura e raciocínio da IA exige inferência, e a demanda por tokens cresce exponencialmente. Nos últimos dois anos, a necessidade de cálculo por tarefa aumentou cerca de 10.000 vezes, o uso aumentou cerca de 100 vezes, e a demanda total de cálculo quase 1 milhão de vezes.
De 500 bilhões a 1 trilhão de dólares
No GTC do ano passado, mencionei que prevíamos uma demanda de cerca de 500 bilhões de dólares até 2026, com alta confiabilidade, para Blackwell e Rubin.
Hoje, exatamente um ano após o GTC, posso afirmar com clareza: até 2027, essa demanda atingirá 1 trilhão de dólares.
E tenho certeza de que a demanda real de cálculo será ainda maior.
No ano passado, foi o “ano da inferência” da Nvidia. Esforçamo-nos ao máximo para garantir desempenho excelente em todas as fases do ciclo de vida da IA, além do treinamento, para que os investimentos em infraestrutura possam gerar valor a longo prazo.
Ficamos felizes em ver a Anthropic escolher a Nvidia, assim como a Meta SL. Modelos de código aberto estão cada vez mais avançados e presentes em todos os lugares. A Nvidia é atualmente a única plataforma de cálculo global capaz de cobrir todos os domínios de IA — linguagem, biologia, gráficos computacionais, visão computacional, fala, proteínas, química e robótica — em todos os cenários, do edge à nuvem.
Nossa arquitetura de “fungibilidade” torna-se a plataforma de menor custo e maior confiabilidade na construção de infraestrutura de IA. Quando você investe trilhões de dólares na infraestrutura, precisa de total confiança — a Nvidia é atualmente a única plataforma global que permite uma implantação confiável, seja na nuvem, local ou em qualquer país.
Atualmente, 60% dos nossos negócios vêm de cinco grandes provedores de nuvem, e os outros 40% de nuvens regionais, nuvens soberanas, empresas, indústrias, robótica, edge e supercomputação. Essa diversidade de cobertura é uma resiliência — a IA não é mais uma aplicação única, mas uma transformação real na plataforma de cálculo.
Avanços no desempenho de inferência
Conseguimos uma mudança fundamental na otimização de inferência:
Este é o mais completo teste de desempenho de IA de inferência já realizado (da Semi Analysis). Os critérios incluem:
Eixo vertical (tokens por watt): reflete a taxa de processamento. Cada data center é limitado pela energia; uma fábrica de 1 GW não pode virar 2 GW, devendo maximizar a produção de tokens dentro de uma energia limitada.
Eixo horizontal (velocidade de inferência/tokens por segundo): reflete a interatividade e a “inteligência” da IA. Quanto mais rápido, maior o modelo, maior o contexto, mais profundo o raciocínio — mais “inteligente” ele é.
Os resultados são surpreendentes:
De Hopper H200 a Grace Blackwell, a Lei de Moore previa um aumento de cerca de 1,5 vez, mas o desempenho real atingiu 35 vezes por watt. Dylan Patel, da Semi Analysis, até afirmou que os dados do meu relatório eram conservadores — na verdade, cerca de 50 vezes.
Isso significa que o custo por token da Nvidia é o mais baixo do mundo. Um data center de 1 GW custa cerca de 40 bilhões de dólares (amortizados em 15 anos); independentemente do custo fixo, é preciso instalar o sistema de cálculo mais eficiente para alcançar o menor custo por token. Atualmente, ninguém supera isso.
Por exemplo, a Fireworks AI: após atualização de software, a taxa de tokens por segundo aumentou de cerca de 700 para quase 5.000, um aumento de 7 vezes. Essa é a força de um design de colaboração extrema.
Lógica de negócio da fábrica de tokens:
No futuro, cada provedor de nuvem e empresa de IA avaliará seus negócios sob a perspectiva da fábrica de tokens. Diferentes taxas de tokens correspondem a diferentes níveis de serviço e preços:
Camada gratuita: alta taxa de processamento, baixa velocidade
Camada básica: cerca de US$3 por milhão de tokens
Camada padrão: cerca de US$6 por milhão de tokens
Camada avançada: cerca de US$45 por milhão de tokens
Camada premium: cerca de US$150 por milhão de tokens (alta velocidade, contexto longo, modelos maiores)
Por exemplo, com Grace Blackwell: em relação ao Hopper, na camada de serviço mais valiosa, a taxa de processamento aumentou 35 vezes, ampliando significativamente a capacidade de monetização e elevando o lucro do data center em cerca de 5 vezes.
Vera Rubin: próxima geração de arquitetura
Hoje, não apresento mais apenas um chip — apresento todo o sistema: Vera Rubin.
Vera Rubin foi projetada especificamente para sistemas Agentic, com lógica muito clara:
Modelos de linguagem grandes ficarão cada vez maiores, gerando mais tokens e pensando mais rápido;
Agentes de IA acessarão frequentemente memória (KV Cache), dados estruturados (cuDF) e dados não estruturados (cuVS);
Os sistemas de armazenamento suportarão grande pressão de acesso;
Ferramentas exigirão CPU com desempenho de thread único extremamente alto.
Para isso, criamos a Vera CPU — o único CPU de data center do mundo que usa LPDDR5, com desempenho de thread único elevado, excelente capacidade de processamento de dados e eficiência energética incomparável.
Principais características do sistema Vera Rubin:
100% resfriado a líquido, com cabos significativamente simplificados
Tempo de instalação reduzido de dois dias para duas horas
Resfriamento com água a 45°C, reduzindo drasticamente o consumo de energia de refrigeração do data center
Equipado com o sistema de troca NVLink de sexta geração (único no mundo) — totalmente resfriado a líquido, uma realização extremamente difícil, orgulho da equipe
Primeiro switch CPO Spectrum-X (com encapsulamento óptico) em produção: integração direta de fotônicos no chip, sinal eletrônico convertido em fotônico, conexão direta ao chip. Desenvolvido em parceria com TSMC, somos os únicos a produzir em escala, chamado “CoOP”, uma inovação revolucionária.
As séries de CPUs também estão em produção, com potencial para se tornar um negócio de bilhões de dólares.
Rubin Ultra (versão super):
O Rubin Ultra usa a nova estrutura “Kyber”, suportando 144 GPUs em um único domínio NVLink. Os nós de computação são inseridos pela frente, com switches NVLink conectados por uma placa traseira, formando um supercomputador.
Em roteiro tecnológico:
Blackwell (atual): sistema Oberon, suporte a NVLink 72
Vera Rubin: estrutura Kyber (NVLink 144) + extensão de cobre/óptica até NVLink 576
Vera Rubin Ultra: chip Rubin Ultra + LP 35 (primeira implementação da estrutura de cálculo NVFP 4)
Feynman (próxima geração): nova GPU + LP 40 + CPU Rosa (Rosen) + Bluefield 5 + CX 10 + extensão de cobre e CPO dual-mode
Aquisição Grok e avanços em raciocínio heterogêneo
Adquirimos a equipe técnica da Grok e obtivemos licença tecnológica para integração profunda.
Características principais do processador Grok:
Processador de fluxo de dados determinístico, compilação estática, agendado por compilador
Dados e cálculo chegam simultaneamente, agendamento totalmente por software, sem agendamento dinâmico
Grande SRAM, projetado especificamente para carga de trabalho de inferência
Limitado a 500 MB de armazenamento por chip (comparado a 288 GB do Rubin), incapaz de acomodar grandes modelos e KV Cache, limitando sua escala — até que tivemos uma ideia brilhante.
Dynamo: estrutura de desacoplamento de inferência
Desenvolvemos o software Dynamo, que reestruturou o fluxo de inferência:
Fase de pré-carregamento (Prefill): executada no Vera Rubin (requer muita capacidade de cálculo)
Cálculo de atenção na fase de decodificação (Decode): executado no Vera Rubin (requer muita capacidade)
Geração de tokens e rede feedforward na fase de decodificação: executado no chip Grok (requer alta largura de banda e baixa latência)
Duas arquiteturas distintas — uma otimizada para alta taxa de processamento, outra para baixa latência — integradas pelo Dynamo, reduzindo a latência em cerca de 50%.
Resultado: na camada de serviço mais valiosa, desempenho melhorou 35 vezes, abrindo uma nova dimensão de inferência de alto desempenho até então inexplorada.
Grok LP 30, fabricado pela Samsung, já em produção, com previsão de início de entrega no terceiro trimestre de 2026.
Estratégia de implantação ideal do Grok:
Se a carga de trabalho prioriza alta taxa de processamento: 100% Vera Rubin
Se há grande demanda por geração de código de alto valor ou tokens em alta velocidade: recomenda-se 25% de capacidade em Grok, restante em Vera Rubin.
Escala e perspectivas da fábrica de IA
Em uma fábrica de um gigawatt, em apenas dois anos, com otimizações de arquitetura, a taxa de geração de tokens passará de 22 milhões para 700 milhões, um aumento de 350 vezes.
Essa é a força do design de colaboração extrema — integração vertical e abertura horizontal, compartilhando os frutos com todos.
À medida que a escala da fábrica de IA cresce rapidamente, identificamos uma questão-chave: fornecedores de tecnologia nos data centers, que antes operavam de forma independente, agora precisam colaborar, pois a falta de integração gera enorme desperdício de energia.
Para resolver isso, criamos a plataforma Nvidia DSX, baseada na Omniverse, permitindo que parceiros projetem conjuntamente fábricas de IA de gigawatt em um mundo virtual — incluindo simulações completas de mecânica, gerenciamento térmico, elétrica e rede, conectadas à rede elétrica em tempo real, otimizando dinamicamente consumo e refrigeração com Max-Q.
Acreditamos que essa plataforma pode dobrar a eficiência — um valor enorme em uma escala de trilhões de dólares.
Além disso, a Nvidia avançará para o espaço: o chip Thor foi certificado para radiação, sendo implantado em satélites. Estamos desenvolvendo Vera Rubin Space-1, para construir data centers no espaço (enfrentando desafios de dissipação de calor por radiação).
OpenClaw: sistema operacional para agentes de IA
Agora, uma grande novidade.
Peter Steinberger criou um software chamado OpenClaw. Tornou-se o projeto open source mais popular de todos os tempos, superando em velocidade de disseminação os 30 anos do Linux em poucas semanas.
O que é o OpenClaw? É um sistema Agentic capaz de:
Conectar grandes modelos de linguagem
Acessar ferramentas e sistemas de arquivos
Executar agendamento e tarefas programadas
Decompor problemas em subtarefas sequenciais
Gerar e invocar sub-agentes
Suportar interação multimodal (texto, voz, gestos, etc.)
Em outras palavras, o OpenClaw é o sistema operacional de computadores Agentic. Assim como o Windows tornou possível o uso de PCs, o OpenClaw torna possível agentes pessoais.
A questão central de cada empresa agora é: qual é sua estratégia OpenClaw?
Assim como no passado cada empresa precisava de uma estratégia de Linux, HTTP/HTML ou Kubernetes, hoje toda empresa deve ter uma estratégia de OpenClaw e sistemas Agentic.
Transformação do paradigma de TI empresarial:
Modo antigo: armazenamento de arquivos no data center → ferramentas de software → uso por humanos
Modo novo: cada SaaS será uma AaaS (Agentic as a Service), oferecendo serviços especializados de agentes.
Porém, sistemas Agentic internos apresentam riscos de segurança: podem acessar informações sensíveis, executar códigos e comunicar-se externamente. Para isso, colaboramos com Peter Steinberger e especialistas globais em segurança para desenvolver a versão empresarial do OpenClaw, baseada na tecnologia de segurança OpenShell, com motor de políticas, barreiras de rede e roteadores de privacidade, criando uma arquitetura de referência segura, chamada NemoClaw, disponível para download.
Plano de modelos abertos da Nvidia
A Nvidia consolidou liderança em modelos de ponta em todos os domínios de IA:
Modelo
Domínio
Nemotron
Modelos de linguagem grandes
Cosmos
Modelos fundamentais globais
GROOT
Modelo de robótica geral
Alpamayo
Condução autônoma
BioNeMo
Biologia digital / descoberta de medicamentos
PhysicsNeMo
Simulação física de IA
Hoje, anunciamos oficialmente a criação da aliança Nemotron, em parceria com:
BlackForest Labs (geração de imagens)
Cursor (edição de código)
LangChain (framework de construção de agentes personalizados, com bilhões de downloads)
Mistral (grande modelo de código aberto)
Perplexity (busca de IA)
Reflection (sistema multimodal Agentic)
Sarvam (empresa indiana de IA)
Thinking Machines (laboratório fundado por Mira Murati)
Essas empresas colaboram conosco para integrar profundamente o design de referência NemoClaw, o pacote de ferramentas de IA Agentic da Nvidia e toda a série de modelos abertos em seus produtos e serviços.
IA física e robótica
Além de agentes digitais, há um foco de longa data na IA física e robótica.
Criamos três computadores essenciais para sistemas robóticos:
Computador de treinamento
Computador de geração de dados sintéticos e simulação
Computador embarcado no robô
Colaboramos profundamente com Siemens, Cadence e outros parceiros, e anunciamos várias parcerias importantes:
Condução autônoma: o “momento ChatGPT” na direção autônoma já chegou. Anunciamos quatro novos parceiros RoboTaxi: BYD, Hyundai, Nissan e Geely, além de Mercedes, Toyota e GM, produzindo juntos 18 milhões de veículos por ano, integrados à plataforma RoboTaxi Ready da Nvidia. Também firmamos parceria com Uber para implantar RoboTaxis em várias cidades.
Robótica industrial: colaboramos com ABB, Universal Robots, KUKA e Caterpillar, integrando modelos de IA física e sistemas de simulação às linhas de produção globais.
Telecomunicações: T-Mobile também está conosco — futuras estações base evoluirão para infraestrutura de computação de borda de IA, com inferência dinâmica e ajuste de feixes para melhorar sinal e economizar energia.
Por fim, apresentamos o robô “Olaf”, desenvolvido em parceria com a Disney — baseado na plataforma Jetson, ambiente de treinamento Omniverse, e no solucionador físico Newton, desenvolvido em colaboração com Disney e DeepMind, operando no ambiente de física real, com movimento adaptativo. Uma demonstração do futuro do IA física e uma prévia de parques temáticos do amanhã.
Resumo
Nesta GTC, abordamos quatro temas centrais:
Ponto de inflexão na inferência — IA que evolui de “entender” para “gerar”, de “gerar” para “raciocinar” e de “raciocinar” para “trabalhar”, com demanda de cálculo crescendo milhões de vezes, marcando o ponto de inflexão;
Fábrica de IA — data centers evoluindo de armazenamento de arquivos para produção de tokens, com Vera Rubin elevando a receita em cerca de 5 vezes em cada camada de serviço;
Revolução dos agentes com OpenClaw — transformação profunda na TI empresarial, com cada empresa precisando de uma estratégia de agentes, e NemoClaw oferecendo uma referência segura;
IA física e robótica — condução autônoma, robôs industriais e humanoides, marcando a chegada da era da IA física.
Desejo a todos uma excelente GTC, obrigado!