O ano de 2024 está quase a terminar e o investidor de risco da Radical Ventures, Rob Toews, partilhou as suas 10 previsões para a inteligência artificial em 2025:
01Meta irá começar a cobrar pelo modelo Llama
A Meta é o padrão mundial em inteligência artificial aberta. Num estudo de caso empresarial notável, enquanto concorrentes como a OpenAI e o Google fecham seus modelos de ponta como código-fonte e cobram taxas de uso, a Meta escolheu fornecer gratuitamente seu modelo Llama mais avançado.
Portanto, a notícia de que a Meta começará a cobrar as empresas que usam Llama no próximo ano será uma surpresa para muitos.
É importante esclarecer que não estamos prevendo que o Meta irá fechar completamente o Llama, nem significa que os usuários que usam o modelo Llama devem pagar por isso.
Pelo contrário, prevemos que o Meta imponha mais restrições aos termos de licença aberta do Llama, o que significa que as empresas que utilizam o Llama num ambiente comercial em determinada escala terão de começar a pagar para usar os modelos.
Tecnicamente, Meta conseguiu isso em uma escala limitada. A empresa não permite que as maiores empresas - que têm mais de 700 milhões de usuários ativos mensais, como a Cloud Supercomputer - usem livremente seu modelo Llama.
Em 2023, o CEO da Meta, Mark Zuckerberg, disse: “Se você é uma empresa como a Microsoft, Amazon ou Google e basicamente revende Llama, então deveríamos obter uma parte da receita. Não acho que isso será uma grande receita a curto prazo, mas espero que se torne alguma receita a longo prazo.”
No próximo ano, a Meta irá ampliar significativamente o escopo empresarial que deve pagar para usar o Llama e incluirá mais empresas de médio e grande porte.
Manter-se atualizado com os modelos de linguagem de grande escala (LLM) é muito caro. Para manter o Llama alinhado ou próximo aos modelos de ponta mais recentes da OpenAI, Anthropic e outras empresas, a Meta precisaria investir vários bilhões de dólares por ano.
A Meta é uma das maiores e mais financeiramente sólidas empresas do mundo. No entanto, também é uma empresa cotada em bolsa e, em última análise, responsável perante os acionistas.
Com o custo crescente de treinar modelos de ponta, a prática da Meta de investir uma quantia tão grande de dinheiro para treinar a próxima geração do modelo Llama, sem expectativa de receita, está se tornando cada vez mais insustentável.
Os entusiastas, estudiosos, desenvolvedores individuais e startups continuarão a usar gratuitamente o modelo Llama no próximo ano. Mas 2025 será o ano em que a Meta começará a buscar seriamente o lucro com o Llama.
**02.**Problemas relacionados com a ‘lei da escala’
Nas últimas semanas, um dos tópicos mais discutidos no campo da inteligência artificial é a lei de escala (scaling laws) e se elas estão prestes a chegar ao fim.
A lei da escala foi proposta pela primeira vez em 2020 em um artigo da OpenAI. O conceito básico é simples: ao treinar um modelo de inteligência artificial, o desempenho do modelo aumentará de forma confiável e previsível à medida que o número de parâmetros do modelo, o tamanho dos dados de treinamento e a quantidade de cálculos aumentam (tecnicamente, a perda de teste diminuirá).
Do GPT-2 ao GPT-3 e depois ao GPT-4, o impressionante aumento de desempenho é tudo graças à lei do escalonamento.
Assim como a lei de Moore, a lei de escala na verdade não é uma regra real, mas apenas uma observação empírica simples.
Nos últimos meses, uma série de relatórios sugerem que os principais laboratórios de inteligência artificial estão a ver retornos decrescentes ao expandir continuamente o tamanho dos grandes modelos de linguagem, o que pode ajudar a explicar o adiamento contínuo do lançamento do GPT-5 da OpenAI.
A refutação mais comum à lei de escala que tende a ser estável é que o cálculo realizado durante o teste abriu uma nova dimensão que permite a busca pela expansão em escala nessa dimensão.
Em outras palavras, em vez de expandir computação em grande escala durante o treinamento, os novos modelos de inferência, como o o3 da OpenAI, tornam possível expandir computação em grande escala durante a inferência, desbloqueando novas capacidades de IA ao permitir que o modelo ‘pense por mais tempo’.
Esta é uma visão importante. O cálculo durante o teste realmente representa uma nova e excitante via de expansão, bem como um aumento de desempenho da IA.
No entanto, outro ponto de vista sobre a lei da escala é ainda mais importante e está seriamente subestimado nas discussões de hoje. Quase todas as discussões sobre a lei da escala, desde o artigo original de 2020 até o foco atual nos cálculos durante os testes, têm se concentrado na linguagem. No entanto, a linguagem não é o único padrão de dados importante.
Pense em robótica, biologia, modelos de mundo ou agentes de rede. Para esses padrões de dados, a lei de escala ainda não está saturada; pelo contrário, eles estão apenas começando.
Na verdade, até agora não há evidências rigorosas da existência de leis de escala nesses domínios, que ainda não foram publicadas.
Startups such as Evolutionary Scale in the field of biology, PhysicalIntelligence in the field of robotics, and WorldLabs in the field of world modeling are trying to identify and leverage the scale laws in these fields to build foundational models for these new data patterns, just as OpenAI successfully leveraged the scale laws of large language models (LLM) in the first half of the 2020s.
No próximo ano, prevê-se que haja um grande progresso aqui.
A lei da escala não desaparecerá e será tão importante em 2025 como antes, mas o centro de atividade da lei da escala mudará do pré-treinamento LLM para outros modelos.
03. Trump e Musk podem discordar no campo da AI
O novo governo dos Estados Unidos trará uma série de mudanças políticas e estratégicas em relação à inteligência artificial.
Para prever a direção da inteligência artificial sob a presidência do Presidente Trump, também considerando a posição central de Musk no campo da inteligência artificial, as pessoas podem tender a se concentrar na relação próxima entre o presidente eleito e Musk.
Pode-se imaginar que, de várias maneiras diferentes, Musk possa influenciar o desenvolvimento de inteligência artificial do governo Trump.
Devido à intensa hostilidade entre Musk e a OpenAI, a nova administração pode adotar uma postura menos amigável em relação à OpenAI ao entrar em contato com a indústria, desenvolver regulamentos de inteligência artificial, conceder contratos governamentais e assim por diante, e este é um risco real que preocupa a OpenAI hoje.
Por outro lado, o governo Trump pode estar mais inclinado a apoiar as próprias empresas de Musk: por exemplo, reduzindo a burocracia para permitir que a xAI estabeleça centros de dados e lidere a competição de modelos avançados; fornecer aprovação regulatória rápida para a implantação de uma frota de táxis robóticos da Tesla, entre outras coisas.
Mais fundamentalmente, ao contrário de muitos outros líderes de tecnologia que são favorecidos por Trump, Musk valoriza muito os riscos de segurança da inteligência artificial e, portanto, defende uma regulamentação significativa da inteligência artificial.
Ele apoia o controverso projeto de lei SB1047 da Califórnia, que tenta impor restrições significativas aos desenvolvedores de inteligência artificial. Portanto, a influência de Musk pode levar a um ambiente regulatório mais rigoroso para a inteligência artificial nos Estados Unidos.
No entanto, todas essas especulações têm um problema. A relação próxima entre Trump e Musk inevitavelmente se desfará.
Como vimos repetidamente durante o primeiro mandato do governo de Trump, a média do mandato dos aliados de Trump, mesmo os mais firmes, é muito curta.
Entre os vice-presidentes do primeiro mandato do governo de Trump, poucos ainda são leais a ele hoje.
Trump and Musk are both complex, variable, and unpredictable personalities, not easy to cooperate with, exhausting, their newly discovered friendship has been mutually beneficial so far, but still in the “honeymoon period”.
Prevemos que essa relação se deteriorará antes do final de 2025.
O que isso significa para o mundo da inteligência artificial?
Esta é uma boa notícia para a OpenAI. Será uma má notícia para os acionistas da Tesla. E será uma decepção para aqueles que se preocupam com a segurança da inteligência artificial, porque isso quase garante que o governo dos Estados Unidos adotará uma abordagem de não intervenção na regulamentação da inteligência artificial durante o mandato de Trump.
04O agente de IA se tornará predominante
Imagine um mundo onde você não precisa mais interagir diretamente com a internet. Sempre que precisar gerir assinaturas, pagar contas, marcar consultas médicas, fazer encomendas na Amazon, reservar restaurantes ou completar qualquer outra tarefa online tediosa, basta instruir um assistente de inteligência artificial para fazer isso por você.
O conceito de ‘proxy de rede’ existe há muitos anos. Se houver um produto desse tipo que funcione corretamente, sem dúvida será um produto de grande sucesso.
No entanto, atualmente não existe um proxy de rede universal em funcionamento no mercado.
Empresas iniciantes como a Adept, mesmo com uma equipe fundadora de linhagem pura e a captação de centenas de milhões de dólares em financiamento, não conseguiram realizar sua visão.
O próximo ano será o ano em que os proxies web finalmente começarão a funcionar bem e a tornar-se mainstream. Avanços contínuos em modelos de fundamentos linguísticos e visuais, juntamente com avanços recentes em capacidades de “segundo pensamento sistêmico” devido a novos modelos de inferência e cálculos de tempo de inferência, significarão que os agentes da web estão prontos para uma era de ouro.
Em outras palavras, a ideia da Adept está correta, apenas é cedo demais. Em startups, assim como em muitas coisas na vida, o timing é tudo.
Os proxies de rede encontrarão vários casos de uso de negócios de valor, mas acreditamos que a maior oportunidade de mercado para proxies de rede será o consumidor.
Apesar da recente popularidade da inteligência artificial, ainda existem relativamente poucas aplicações nativas de inteligência artificial que podem se tornar aplicações mainstream para os consumidores, exceto para o ChatGPT.
A agência de rede mudará isso e se tornará o próximo aplicativo “matador” real no campo do consumo de inteligência artificial.
05A ideia de colocar um centro de dados de IA no espaço vai tornar-se realidade
Em 2023, o principal recurso físico que restringe o desenvolvimento da inteligência artificial são os chips GPU. Em 2024, torna-se um centro de energia e de dados.
Em 2024, poucas histórias podem se comparar à crescente e rápida demanda de energia enquanto a inteligência artificial busca construir mais centros de dados de inteligência artificial.
Devido ao desenvolvimento acelerado da inteligência artificial, a demanda por energia elétrica nos centros de dados globais deve dobrar entre 2023 e 2026, após décadas de estabilidade. Nos Estados Unidos, o consumo de energia dos centros de dados deve chegar a quase 10% do consumo total de energia até 2030, enquanto em 2022 é de apenas 3%.
!
O atual sistema de energia é fundamentalmente incapaz de lidar com a enorme demanda de carga de trabalho de inteligência artificial. Estamos prestes a testemunhar um choque histórico entre nossas redes de energia e infraestrutura de computação, dois sistemas de trilhões de dólares em valor.
Como uma possível solução para esse problema, a energia nuclear teve um desenvolvimento rápido este ano. A energia nuclear é uma fonte de energia ideal em muitos aspectos da inteligência artificial: é uma fonte de energia livre de carbono, disponível o tempo todo e praticamente inesgotável.
No entanto, na realidade, devido ao longo tempo de investigação, desenvolvimento de projetos e supervisão, as novas energias não serão capazes de resolver este problema até à década de 2030. É o caso das centrais de cisão nuclear tradicionais, da próxima geração de “pequenos reatores modulares” (RLG) e das centrais de fusão nuclear.
No próximo ano, uma nova ideia não convencional para enfrentar esse desafio surgirá e atrairá recursos reais: colocar centros de dados de IA no espaço.
No centro de dados de inteligência artificial no espaço, à primeira vista, parece uma piada ruim, um investidor tentando combinar muitos jargões de startups.
Mas na verdade, isso pode fazer sentido.
O maior gargalo para a construção rápida de mais centros de dados na Terra é a obtenção de energia necessária. Os clusters de computação em órbita podem desfrutar de energia gratuita, ilimitada e livre de carbono o tempo todo: o sol no espaço sempre brilha.
Outra vantagem importante de colocar a computação no espaço é que ela resolve o problema de resfriamento.
Um dos maiores desafios para a construção de um centro de dados de inteligência artificial mais poderoso é a geração de calor ao executar vários GPUs em um espaço limitado, pois a alta temperatura pode danificar ou destruir os dispositivos de computação.
Os desenvolvedores de centros de dados estão a adotar métodos caros e não comprovados, como o arrefecimento por imersão em líquido, para tentar resolver este problema. No entanto, o espaço é extremamente frio e qualquer calor gerado pela atividade de computação se dissipa imediatamente sem causar danos.
Claro, ainda existem muitos desafios práticos a serem resolvidos. Uma questão óbvia é se e como transmitir grandes quantidades de dados entre órbita e Terra de forma eficiente e com baixo custo.
Esta é uma questão em aberto, mas que pode revelar-se solucionável: um trabalho promissor pode ser feito com lasers e outras tecnologias de comunicação ótica de alta largura de banda.
A startup called Lumen Orbit, backed by YCombinator, recently raised $11 million to realize its vision: to build a multi-megawatt data center network in space for training artificial intelligence models.
Como disse o CEO da empresa, “em vez de pagar US$ 140 milhões por eletricidade, pague US$ 10 milhões por lançamento e energia solar”. ”
Em 2025, a Lumen não será a única organização a levar este conceito a sério.
Também surgirão concorrentes de outras startups. Não se surpreenda se uma ou algumas empresas de nuvem de escala super grande também seguirem essa abordagem de exploração.
A Amazon já tem uma vasta experiência em colocar ativos em órbita através do Projeto Kuiper; O Google há muito tempo financia “moonshots” semelhantes; Mesmo a Microsoft não é estranha à economia espacial.
Pode-se imaginar que a empresa SpaceX de Musk também fará algo a este respeito.
06 ****** sistema de inteligência artificial passará no “Teste de Voz de Turing”******
O Teste de Turing é um dos benchmarks mais antigos e conhecidos para o desempenho da IA.
Para “passar” no teste de Turing, um sistema de IA deve ser capaz de se comunicar por meio de texto escrito, tornando impossível para uma pessoa comum dizer se está interagindo com a IA ou com outra pessoa.
Graças aos avanços significativos em modelos de linguagem de grande escala, o teste de Turing tornou-se uma questão resolvida na década de 2020.
Mas os textos escritos não são a única forma de os seres humanos comunicarem.
À medida que a inteligência artificial se torna cada vez mais multimodal, as pessoas podem imaginar uma nova versão do teste de Turing mais desafiadora - o ‘Teste de Turing de Voz’. Neste teste, um sistema de inteligência artificial deve ser capaz de interagir com seres humanos por meio de voz, com habilidades e fluência que são indistinguíveis dos falantes humanos.
Os sistemas de inteligência artificial de hoje ainda não podem passar no teste de Turing de voz, e resolver esse problema exigirá mais avanços tecnológicos. O atraso (o atraso entre as falas humanas e as respostas da inteligência artificial) deve ser reduzido para quase zero para corresponder à experiência de falar com outro ser humano.
Os sistemas de inteligência artificial por voz devem ser melhores em lidar elegantemente com entradas ambíguas ou mal-entendidos em tempo real, como interrupções na fala. Eles devem ser capazes de participar de conversas longas, de várias rodadas e abertas, enquanto lembram das partes iniciais da discussão.
E, crucialmente, os agentes de IA de fala devem aprender a entender melhor os sinais não verbais na fala. Por exemplo, se um orador humano soa irritado, animado ou sarcástico sobre o que significa, gere essas pistas não verbais em sua própria voz.
À medida que nos aproximamos do final de 2024, a inteligência artificial de voz está em um ponto de viragem emocionante, impulsionado por avanços fundamentais como o surgimento de modelos de voz para voz.
Hoje, há poucas áreas de IA que estão avançando mais rápido em tecnologia e negócios do que a IA de fala. Espera-se que, em 2025, a mais recente tecnologia de IA de fala dê um salto em frente. ”
07O sistema de IA autônomo fará progressos significativos
O conceito de IA recursiva de autoaperfeiçoamento tem sido um tópico frequente na comunidade de IA há décadas.
Por exemplo, já em 1965, o colaborador próximo de Alan Turing, I.J.Good, escreveu: ‘Vamos definir uma máquina superinteligente como uma máquina que pode superar em muito todas as atividades intelectuais humanas, não importa quão inteligente ela seja.’
Uma vez que o projeto de máquinas é uma dessas atividades intelectuais, máquinas superinteligentes podem projetar máquinas melhores; nesse ponto, sem dúvida, ocorrerá uma ‘explosão de inteligência’, e a inteligência humana será deixada para trás.
A inteligência artificial pode inventar uma inteligência artificial melhor, que é um conceito cheio de sabedoria. No entanto, mesmo hoje, ainda é uma reminiscência de ficção científica.
No entanto, embora esse conceito ainda não seja amplamente reconhecido, ele está se tornando cada vez mais real. Os pesquisadores da vanguarda da ciência da inteligência artificial já estão fazendo progressos reais na construção de sistemas de inteligência artificial, e os próprios sistemas de inteligência artificial também podem construir sistemas de inteligência artificial melhores.
Prevemos que no próximo ano esta área de pesquisa se torne mainstream.
Até agora, o exemplo mais proeminente de pesquisa ao longo dessa linha é o ‘Cientista de Inteligência Artificial’ da Sakana.
O “AI Scientist” foi lançado em agosto deste ano e prova de forma convincente que os sistemas de IA podem, de fato, realizar pesquisas de IA de forma completamente autônoma.
Os próprios “cientistas de IA” de Sakana realizam todo o ciclo de vida da pesquisa em IA: ler a literatura existente, gerar novas ideias de pesquisa, projetar experimentos para testar essas ideias, realizar esses experimentos, escrever artigos de pesquisa para relatar suas descobertas e, em seguida, revisar seu trabalho.
Estes trabalhos são completamente realizados de forma autónoma pela inteligência artificial, sem necessidade de intervenção humana. Você pode ler online parte dos artigos de pesquisa escritos por cientistas de inteligência artificial.
OpenAI, Anthropic e outros laboratórios de pesquisa estão despejando recursos na ideia de “pesquisadores automatizados de IA”, embora nada tenha sido reconhecido publicamente.
À medida que mais e mais pessoas percebem que a automação da pesquisa em IA está de fato se tornando uma possibilidade real, espera-se que haja mais discussão, progresso e atividade empreendedora nesta área em 2025.
No entanto, o marco mais significativo será a aceitação pela primeira vez de um artigo de pesquisa totalmente escrito por agentes de inteligência artificial por uma conferência de inteligência artificial de alto nível. Se o artigo for revisado às cegas, os revisores da conferência não saberão que o artigo foi escrito por inteligência artificial antes de sua aceitação.
Se os resultados da pesquisa em inteligência artificial forem aceitos pela NeurIPS, CVPR ou ICML no próximo ano, não fique surpreso. Para o campo da inteligência artificial, este será um momento histórico fascinante e controverso.
08 Grandes nomes da indústria, como OpenAI, estão mudando o foco estratégico para a construção de aplicativos
Construir modelos de ponta é um trabalho difícil.
Sua intensidade de capital é impressionante. Os laboratórios de modelos de ponta exigem muito dinheiro. Apenas alguns meses atrás, a OpenAI arrecadou um recorde de US$ 6,5 bilhões em financiamento, e no futuro próximo, pode precisar de mais fundos. A Anthropic, xAI e outras empresas estão em situações semelhantes.
Os custos de conversão e fidelização de clientes são baixos. Os aplicativos de IA geralmente são construídos com o agnosticismo de modelo em mente, e modelos de diferentes fornecedores podem ser perfeitamente alternados com base em comparações de custo e desempenho variáveis.
Com o surgimento de modelos abertos de ponta, como o Llama da Meta e o Qwen da Alibaba, a ameaça da comercialização de tecnologia continua se aproximando. Líderes de inteligência artificial como OpenAI e Anthropic não podem e não vão parar de investir na construção de modelos de ponta.
Mas no próximo ano, a fim de desenvolver linhas de negócios mais lucrativas, diferenciadas e aderentes, espera-se que a Frontier Labs lance vigorosamente mais de seus próprios aplicativos e produtos.
Claro, o laboratório de ponta já tem um caso de uso muito bem-sucedido: ChatGPT.
No novo ano, que outros tipos de aplicativos de primeira parte podemos ver do laboratório de inteligência artificial? Uma resposta óbvia é um aplicativo de pesquisa mais complexo e rico em recursos. O SearchGPT da OpenAI prenuncia isso.
Codificação é outra categoria óbvia. Da mesma forma, com o produto Canvas da OpenAI tendo aparecido pela primeira vez em outubro, o trabalho preliminar de produto já começou.
A OpenAI ou Anthropic irão lançar um produto de pesquisa empresarial em 2025? Ou um produto de serviço ao cliente, inteligência artificial legal ou inteligência artificial de vendas?
Do lado do consumidor, podemos imaginar um produto de proxy web de “assistente pessoal”, ou um aplicativo de planejamento de viagem, ou um aplicativo que gera música.
A parte mais fascinante da evolução do Observatório de Laboratórios de Ponta para a camada de aplicação é que isso os coloca em competição direta com muitos dos clientes mais importantes.
Perplexidade no campo de pesquisa, Cursor no campo de codificação, Sierra no campo de atendimento ao cliente, Harvey no campo de inteligência artificial jurídica, Clay no campo de vendas, etc.
09Klarna will go public in 2025, but there are signs of exaggerating the value of AI
Klarna é um provedor de serviços de ‘compre agora, pague agora’ sediado na Suécia, que arrecadou quase 5 bilhões de dólares em investimentos desde sua fundação em 2005.
Talvez nenhuma empresa possa se gabar tanto quanto a Klarna em relação à sua aplicação de inteligência artificial.
Apenas alguns dias atrás, o CEO da Klarna, Sebastian Siemiatkowski, disse à Bloomberg que a empresa parou de contratar trabalhadores humanos completamente e, em vez disso, confiou na IA generativa para fazer o trabalho.
Como disse Siemiatkowski: “Penso que a inteligência artificial já pode realizar todo o trabalho que os humanos fazem.”
Da mesma forma, a Klarna anunciou no início deste ano que lançou uma plataforma de atendimento ao cliente de inteligência artificial que automatizou completamente o trabalho de 700 atendentes.
A empresa também alegou ter parado de usar produtos de software corporativo como Salesforce e Workday porque pode simplesmente substituí-los por inteligência artificial.
Falando sem rodeios, estas alegações não são credíveis. Eles refletem uma falta de compreensão das capacidades e inadequações dos sistemas de IA atuais.
Alegar que um agente de inteligência artificial de ponta a ponta pode substituir qualquer funcionário humano específico em qualquer departamento de uma organização não é realista. Isso é equivalente a resolver o problema geral da inteligência artificial humana.
Atualmente, as principais startups de inteligência artificial estão trabalhando na vanguarda do campo para construir sistemas de agentes, a fim de automatizar processos de trabalho específicos, estreitos e altamente estruturados, como subconjuntos de atividades de representantes de desenvolvimento de vendas ou agentes de serviço ao cliente.
Mesmo em situações limitadas como essas, esses sistemas de proxy ainda não são completamente confiáveis, embora em alguns casos eles já estejam funcionando bem o suficiente para serem usados comercialmente em estágios iniciais.
Por que Klarna exageraria o valor da IA?
A resposta é simples. A empresa planeja abrir o capital no primeiro semestre de 2025. A chave para um IPO bem-sucedido é ter uma história de IA atraente.
Klarna ainda é uma empresa sem fins lucrativos, com perdas de 241 milhões de dólares no ano passado. Talvez ela queira convencer os investidores do mercado público de que sua história de inteligência artificial pode reduzir significativamente os custos e alcançar lucros sustentáveis.
Não há dúvida de que todas as empresas do mundo, incluindo a Klarna, desfrutarão dos enormes ganhos de produtividade que a IA trará nos próximos anos. No entanto, ainda há muitos desafios técnicos, de produtos e organizacionais espinhosos a serem resolvidos antes que os agentes de IA possam substituir completamente os humanos na força de trabalho.
Expressões exageradas como a da Klarna são uma afronta ao campo da inteligência artificial e também uma afronta aos progressos árduos feitos por especialistas e empresários no desenvolvimento de agentes de inteligência artificial.
À medida que a Klarna se prepara para uma oferta pública em 2025, espera-se que essas alegações estejam sob maior escrutínio e ceticismo público, e até agora elas não foram questionadas. Não se surpreenda se algumas das descrições da empresa sobre suas aplicações de IA forem exageradas.
10O primeiro acidente de segurança AI real ocorrerá
Nos últimos anos, à medida que a IA se tornou mais poderosa, tem havido preocupações crescentes de que os sistemas de IA possam começar a se comportar de maneiras inconsistentes com os interesses humanos, e que os humanos possam perder o controle desses sistemas.
Por exemplo, imagine um sistema de inteligência artificial que aprendeu a enganar ou manipular seres humanos para alcançar seus próprios objetivos, mesmo que isso cause danos aos seres humanos. Essas preocupações são geralmente classificadas como problemas de segurança da IA.
Nos últimos anos, a segurança da IA passou de um tópico marginal quase de ficção científica para um campo de atividade convencional.
Atualmente, grandes players de inteligência artificial como Google, Microsoft e OpenAI estão investindo recursos significativos em segurança de inteligência artificial. Ícones da IA como Geoff Hinton, Yoshua Bengio e Elon Musk também estão expressando preocupações com os riscos de segurança da inteligência artificial.
No entanto, até agora, a questão da segurança da IA permaneceu inteiramente teórica. Nunca houve um incidente real de segurança de IA no mundo real (pelo menos não relatado publicamente).
2025 será um ano de mudanças neste cenário. Como será o primeiro incidente de segurança de inteligência artificial?
Para ser claro, não envolverá um robô assassino no estilo do Exterminador do Futuro e, muito provavelmente, não causará nenhum dano aos seres humanos.
Talvez o modelo de IA tente criar secretamente uma cópia de si mesmo em outro servidor para se salvar (conhecido como autofiltragem).
Talvez também os modelos de inteligência artificial possam chegar a essa conclusão: para melhor avançar em seus objetivos, eles precisam ocultar suas verdadeiras capacidades dos seres humanos, intencionalmente se mostrarem discretos na avaliação de desempenho e evitar escrutínios mais rigorosos.
Esses exemplos não são forçados. Experimentos importantes publicados pela Apollo Research Company no início deste mês mostraram que os modelos avançados de hoje são capazes de realizar esse tipo de comportamento enganoso, com dicas específicas.
Da mesma forma, pesquisas recentes em antropologia também indicam que os LLMs têm uma capacidade preocupante de “pseudo-alinhamento”.
!
Esperamos que este primeiro incidente de segurança de inteligência artificial seja descoberto e eliminado antes de causar qualquer dano real. Mas para a indústria de inteligência artificial e toda a sociedade, este será um momento de grande revelação.
Isso deixará uma coisa clara: antes que a humanidade enfrente uma ameaça existencial da inteligência artificial onipotente, precisamos aceitar uma realidade mais mundana: agora compartilhamos nosso mundo com outra forma de inteligência que às vezes pode ser caprichosa, imprevisível e enganosa.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
As 10 principais previsões de inteligência artificial para 2025: a direção do Agente de IA se tornará predominante
O ano de 2024 está quase a terminar e o investidor de risco da Radical Ventures, Rob Toews, partilhou as suas 10 previsões para a inteligência artificial em 2025:
01 Meta irá começar a cobrar pelo modelo Llama
A Meta é o padrão mundial em inteligência artificial aberta. Num estudo de caso empresarial notável, enquanto concorrentes como a OpenAI e o Google fecham seus modelos de ponta como código-fonte e cobram taxas de uso, a Meta escolheu fornecer gratuitamente seu modelo Llama mais avançado.
Portanto, a notícia de que a Meta começará a cobrar as empresas que usam Llama no próximo ano será uma surpresa para muitos.
É importante esclarecer que não estamos prevendo que o Meta irá fechar completamente o Llama, nem significa que os usuários que usam o modelo Llama devem pagar por isso.
Pelo contrário, prevemos que o Meta imponha mais restrições aos termos de licença aberta do Llama, o que significa que as empresas que utilizam o Llama num ambiente comercial em determinada escala terão de começar a pagar para usar os modelos.
Tecnicamente, Meta conseguiu isso em uma escala limitada. A empresa não permite que as maiores empresas - que têm mais de 700 milhões de usuários ativos mensais, como a Cloud Supercomputer - usem livremente seu modelo Llama.
Em 2023, o CEO da Meta, Mark Zuckerberg, disse: “Se você é uma empresa como a Microsoft, Amazon ou Google e basicamente revende Llama, então deveríamos obter uma parte da receita. Não acho que isso será uma grande receita a curto prazo, mas espero que se torne alguma receita a longo prazo.”
No próximo ano, a Meta irá ampliar significativamente o escopo empresarial que deve pagar para usar o Llama e incluirá mais empresas de médio e grande porte.
Manter-se atualizado com os modelos de linguagem de grande escala (LLM) é muito caro. Para manter o Llama alinhado ou próximo aos modelos de ponta mais recentes da OpenAI, Anthropic e outras empresas, a Meta precisaria investir vários bilhões de dólares por ano.
A Meta é uma das maiores e mais financeiramente sólidas empresas do mundo. No entanto, também é uma empresa cotada em bolsa e, em última análise, responsável perante os acionistas.
Com o custo crescente de treinar modelos de ponta, a prática da Meta de investir uma quantia tão grande de dinheiro para treinar a próxima geração do modelo Llama, sem expectativa de receita, está se tornando cada vez mais insustentável.
Os entusiastas, estudiosos, desenvolvedores individuais e startups continuarão a usar gratuitamente o modelo Llama no próximo ano. Mas 2025 será o ano em que a Meta começará a buscar seriamente o lucro com o Llama.
**02.**Problemas relacionados com a ‘lei da escala’
Nas últimas semanas, um dos tópicos mais discutidos no campo da inteligência artificial é a lei de escala (scaling laws) e se elas estão prestes a chegar ao fim.
A lei da escala foi proposta pela primeira vez em 2020 em um artigo da OpenAI. O conceito básico é simples: ao treinar um modelo de inteligência artificial, o desempenho do modelo aumentará de forma confiável e previsível à medida que o número de parâmetros do modelo, o tamanho dos dados de treinamento e a quantidade de cálculos aumentam (tecnicamente, a perda de teste diminuirá).
Do GPT-2 ao GPT-3 e depois ao GPT-4, o impressionante aumento de desempenho é tudo graças à lei do escalonamento.
Assim como a lei de Moore, a lei de escala na verdade não é uma regra real, mas apenas uma observação empírica simples.
Nos últimos meses, uma série de relatórios sugerem que os principais laboratórios de inteligência artificial estão a ver retornos decrescentes ao expandir continuamente o tamanho dos grandes modelos de linguagem, o que pode ajudar a explicar o adiamento contínuo do lançamento do GPT-5 da OpenAI.
A refutação mais comum à lei de escala que tende a ser estável é que o cálculo realizado durante o teste abriu uma nova dimensão que permite a busca pela expansão em escala nessa dimensão.
Em outras palavras, em vez de expandir computação em grande escala durante o treinamento, os novos modelos de inferência, como o o3 da OpenAI, tornam possível expandir computação em grande escala durante a inferência, desbloqueando novas capacidades de IA ao permitir que o modelo ‘pense por mais tempo’.
Esta é uma visão importante. O cálculo durante o teste realmente representa uma nova e excitante via de expansão, bem como um aumento de desempenho da IA.
No entanto, outro ponto de vista sobre a lei da escala é ainda mais importante e está seriamente subestimado nas discussões de hoje. Quase todas as discussões sobre a lei da escala, desde o artigo original de 2020 até o foco atual nos cálculos durante os testes, têm se concentrado na linguagem. No entanto, a linguagem não é o único padrão de dados importante.
Pense em robótica, biologia, modelos de mundo ou agentes de rede. Para esses padrões de dados, a lei de escala ainda não está saturada; pelo contrário, eles estão apenas começando.
Na verdade, até agora não há evidências rigorosas da existência de leis de escala nesses domínios, que ainda não foram publicadas.
Startups such as Evolutionary Scale in the field of biology, PhysicalIntelligence in the field of robotics, and WorldLabs in the field of world modeling are trying to identify and leverage the scale laws in these fields to build foundational models for these new data patterns, just as OpenAI successfully leveraged the scale laws of large language models (LLM) in the first half of the 2020s.
No próximo ano, prevê-se que haja um grande progresso aqui.
A lei da escala não desaparecerá e será tão importante em 2025 como antes, mas o centro de atividade da lei da escala mudará do pré-treinamento LLM para outros modelos.
03. Trump e Musk podem discordar no campo da AI
O novo governo dos Estados Unidos trará uma série de mudanças políticas e estratégicas em relação à inteligência artificial.
Para prever a direção da inteligência artificial sob a presidência do Presidente Trump, também considerando a posição central de Musk no campo da inteligência artificial, as pessoas podem tender a se concentrar na relação próxima entre o presidente eleito e Musk.
Pode-se imaginar que, de várias maneiras diferentes, Musk possa influenciar o desenvolvimento de inteligência artificial do governo Trump.
Devido à intensa hostilidade entre Musk e a OpenAI, a nova administração pode adotar uma postura menos amigável em relação à OpenAI ao entrar em contato com a indústria, desenvolver regulamentos de inteligência artificial, conceder contratos governamentais e assim por diante, e este é um risco real que preocupa a OpenAI hoje.
Por outro lado, o governo Trump pode estar mais inclinado a apoiar as próprias empresas de Musk: por exemplo, reduzindo a burocracia para permitir que a xAI estabeleça centros de dados e lidere a competição de modelos avançados; fornecer aprovação regulatória rápida para a implantação de uma frota de táxis robóticos da Tesla, entre outras coisas.
Mais fundamentalmente, ao contrário de muitos outros líderes de tecnologia que são favorecidos por Trump, Musk valoriza muito os riscos de segurança da inteligência artificial e, portanto, defende uma regulamentação significativa da inteligência artificial.
Ele apoia o controverso projeto de lei SB1047 da Califórnia, que tenta impor restrições significativas aos desenvolvedores de inteligência artificial. Portanto, a influência de Musk pode levar a um ambiente regulatório mais rigoroso para a inteligência artificial nos Estados Unidos.
No entanto, todas essas especulações têm um problema. A relação próxima entre Trump e Musk inevitavelmente se desfará.
Como vimos repetidamente durante o primeiro mandato do governo de Trump, a média do mandato dos aliados de Trump, mesmo os mais firmes, é muito curta.
Entre os vice-presidentes do primeiro mandato do governo de Trump, poucos ainda são leais a ele hoje.
Trump and Musk are both complex, variable, and unpredictable personalities, not easy to cooperate with, exhausting, their newly discovered friendship has been mutually beneficial so far, but still in the “honeymoon period”.
Prevemos que essa relação se deteriorará antes do final de 2025.
O que isso significa para o mundo da inteligência artificial?
Esta é uma boa notícia para a OpenAI. Será uma má notícia para os acionistas da Tesla. E será uma decepção para aqueles que se preocupam com a segurança da inteligência artificial, porque isso quase garante que o governo dos Estados Unidos adotará uma abordagem de não intervenção na regulamentação da inteligência artificial durante o mandato de Trump.
04 O agente de IA se tornará predominante
Imagine um mundo onde você não precisa mais interagir diretamente com a internet. Sempre que precisar gerir assinaturas, pagar contas, marcar consultas médicas, fazer encomendas na Amazon, reservar restaurantes ou completar qualquer outra tarefa online tediosa, basta instruir um assistente de inteligência artificial para fazer isso por você.
O conceito de ‘proxy de rede’ existe há muitos anos. Se houver um produto desse tipo que funcione corretamente, sem dúvida será um produto de grande sucesso.
No entanto, atualmente não existe um proxy de rede universal em funcionamento no mercado.
Empresas iniciantes como a Adept, mesmo com uma equipe fundadora de linhagem pura e a captação de centenas de milhões de dólares em financiamento, não conseguiram realizar sua visão.
O próximo ano será o ano em que os proxies web finalmente começarão a funcionar bem e a tornar-se mainstream. Avanços contínuos em modelos de fundamentos linguísticos e visuais, juntamente com avanços recentes em capacidades de “segundo pensamento sistêmico” devido a novos modelos de inferência e cálculos de tempo de inferência, significarão que os agentes da web estão prontos para uma era de ouro.
Em outras palavras, a ideia da Adept está correta, apenas é cedo demais. Em startups, assim como em muitas coisas na vida, o timing é tudo.
Os proxies de rede encontrarão vários casos de uso de negócios de valor, mas acreditamos que a maior oportunidade de mercado para proxies de rede será o consumidor.
Apesar da recente popularidade da inteligência artificial, ainda existem relativamente poucas aplicações nativas de inteligência artificial que podem se tornar aplicações mainstream para os consumidores, exceto para o ChatGPT.
A agência de rede mudará isso e se tornará o próximo aplicativo “matador” real no campo do consumo de inteligência artificial.
05 A ideia de colocar um centro de dados de IA no espaço vai tornar-se realidade
Em 2023, o principal recurso físico que restringe o desenvolvimento da inteligência artificial são os chips GPU. Em 2024, torna-se um centro de energia e de dados.
Em 2024, poucas histórias podem se comparar à crescente e rápida demanda de energia enquanto a inteligência artificial busca construir mais centros de dados de inteligência artificial.
Devido ao desenvolvimento acelerado da inteligência artificial, a demanda por energia elétrica nos centros de dados globais deve dobrar entre 2023 e 2026, após décadas de estabilidade. Nos Estados Unidos, o consumo de energia dos centros de dados deve chegar a quase 10% do consumo total de energia até 2030, enquanto em 2022 é de apenas 3%.
!
O atual sistema de energia é fundamentalmente incapaz de lidar com a enorme demanda de carga de trabalho de inteligência artificial. Estamos prestes a testemunhar um choque histórico entre nossas redes de energia e infraestrutura de computação, dois sistemas de trilhões de dólares em valor.
Como uma possível solução para esse problema, a energia nuclear teve um desenvolvimento rápido este ano. A energia nuclear é uma fonte de energia ideal em muitos aspectos da inteligência artificial: é uma fonte de energia livre de carbono, disponível o tempo todo e praticamente inesgotável.
No entanto, na realidade, devido ao longo tempo de investigação, desenvolvimento de projetos e supervisão, as novas energias não serão capazes de resolver este problema até à década de 2030. É o caso das centrais de cisão nuclear tradicionais, da próxima geração de “pequenos reatores modulares” (RLG) e das centrais de fusão nuclear.
No próximo ano, uma nova ideia não convencional para enfrentar esse desafio surgirá e atrairá recursos reais: colocar centros de dados de IA no espaço.
No centro de dados de inteligência artificial no espaço, à primeira vista, parece uma piada ruim, um investidor tentando combinar muitos jargões de startups.
Mas na verdade, isso pode fazer sentido.
O maior gargalo para a construção rápida de mais centros de dados na Terra é a obtenção de energia necessária. Os clusters de computação em órbita podem desfrutar de energia gratuita, ilimitada e livre de carbono o tempo todo: o sol no espaço sempre brilha.
Outra vantagem importante de colocar a computação no espaço é que ela resolve o problema de resfriamento.
Um dos maiores desafios para a construção de um centro de dados de inteligência artificial mais poderoso é a geração de calor ao executar vários GPUs em um espaço limitado, pois a alta temperatura pode danificar ou destruir os dispositivos de computação.
Os desenvolvedores de centros de dados estão a adotar métodos caros e não comprovados, como o arrefecimento por imersão em líquido, para tentar resolver este problema. No entanto, o espaço é extremamente frio e qualquer calor gerado pela atividade de computação se dissipa imediatamente sem causar danos.
Claro, ainda existem muitos desafios práticos a serem resolvidos. Uma questão óbvia é se e como transmitir grandes quantidades de dados entre órbita e Terra de forma eficiente e com baixo custo.
Esta é uma questão em aberto, mas que pode revelar-se solucionável: um trabalho promissor pode ser feito com lasers e outras tecnologias de comunicação ótica de alta largura de banda.
A startup called Lumen Orbit, backed by YCombinator, recently raised $11 million to realize its vision: to build a multi-megawatt data center network in space for training artificial intelligence models.
Como disse o CEO da empresa, “em vez de pagar US$ 140 milhões por eletricidade, pague US$ 10 milhões por lançamento e energia solar”. ”
Em 2025, a Lumen não será a única organização a levar este conceito a sério.
Também surgirão concorrentes de outras startups. Não se surpreenda se uma ou algumas empresas de nuvem de escala super grande também seguirem essa abordagem de exploração.
A Amazon já tem uma vasta experiência em colocar ativos em órbita através do Projeto Kuiper; O Google há muito tempo financia “moonshots” semelhantes; Mesmo a Microsoft não é estranha à economia espacial.
Pode-se imaginar que a empresa SpaceX de Musk também fará algo a este respeito.
06 ****** sistema de inteligência artificial passará no “Teste de Voz de Turing”******
O Teste de Turing é um dos benchmarks mais antigos e conhecidos para o desempenho da IA.
Para “passar” no teste de Turing, um sistema de IA deve ser capaz de se comunicar por meio de texto escrito, tornando impossível para uma pessoa comum dizer se está interagindo com a IA ou com outra pessoa.
Graças aos avanços significativos em modelos de linguagem de grande escala, o teste de Turing tornou-se uma questão resolvida na década de 2020.
Mas os textos escritos não são a única forma de os seres humanos comunicarem.
À medida que a inteligência artificial se torna cada vez mais multimodal, as pessoas podem imaginar uma nova versão do teste de Turing mais desafiadora - o ‘Teste de Turing de Voz’. Neste teste, um sistema de inteligência artificial deve ser capaz de interagir com seres humanos por meio de voz, com habilidades e fluência que são indistinguíveis dos falantes humanos.
Os sistemas de inteligência artificial de hoje ainda não podem passar no teste de Turing de voz, e resolver esse problema exigirá mais avanços tecnológicos. O atraso (o atraso entre as falas humanas e as respostas da inteligência artificial) deve ser reduzido para quase zero para corresponder à experiência de falar com outro ser humano.
Os sistemas de inteligência artificial por voz devem ser melhores em lidar elegantemente com entradas ambíguas ou mal-entendidos em tempo real, como interrupções na fala. Eles devem ser capazes de participar de conversas longas, de várias rodadas e abertas, enquanto lembram das partes iniciais da discussão.
E, crucialmente, os agentes de IA de fala devem aprender a entender melhor os sinais não verbais na fala. Por exemplo, se um orador humano soa irritado, animado ou sarcástico sobre o que significa, gere essas pistas não verbais em sua própria voz.
À medida que nos aproximamos do final de 2024, a inteligência artificial de voz está em um ponto de viragem emocionante, impulsionado por avanços fundamentais como o surgimento de modelos de voz para voz.
Hoje, há poucas áreas de IA que estão avançando mais rápido em tecnologia e negócios do que a IA de fala. Espera-se que, em 2025, a mais recente tecnologia de IA de fala dê um salto em frente. ”
07 O sistema de IA autônomo fará progressos significativos
O conceito de IA recursiva de autoaperfeiçoamento tem sido um tópico frequente na comunidade de IA há décadas.
Por exemplo, já em 1965, o colaborador próximo de Alan Turing, I.J.Good, escreveu: ‘Vamos definir uma máquina superinteligente como uma máquina que pode superar em muito todas as atividades intelectuais humanas, não importa quão inteligente ela seja.’
Uma vez que o projeto de máquinas é uma dessas atividades intelectuais, máquinas superinteligentes podem projetar máquinas melhores; nesse ponto, sem dúvida, ocorrerá uma ‘explosão de inteligência’, e a inteligência humana será deixada para trás.
A inteligência artificial pode inventar uma inteligência artificial melhor, que é um conceito cheio de sabedoria. No entanto, mesmo hoje, ainda é uma reminiscência de ficção científica.
No entanto, embora esse conceito ainda não seja amplamente reconhecido, ele está se tornando cada vez mais real. Os pesquisadores da vanguarda da ciência da inteligência artificial já estão fazendo progressos reais na construção de sistemas de inteligência artificial, e os próprios sistemas de inteligência artificial também podem construir sistemas de inteligência artificial melhores.
Prevemos que no próximo ano esta área de pesquisa se torne mainstream.
Até agora, o exemplo mais proeminente de pesquisa ao longo dessa linha é o ‘Cientista de Inteligência Artificial’ da Sakana.
O “AI Scientist” foi lançado em agosto deste ano e prova de forma convincente que os sistemas de IA podem, de fato, realizar pesquisas de IA de forma completamente autônoma.
Os próprios “cientistas de IA” de Sakana realizam todo o ciclo de vida da pesquisa em IA: ler a literatura existente, gerar novas ideias de pesquisa, projetar experimentos para testar essas ideias, realizar esses experimentos, escrever artigos de pesquisa para relatar suas descobertas e, em seguida, revisar seu trabalho.
Estes trabalhos são completamente realizados de forma autónoma pela inteligência artificial, sem necessidade de intervenção humana. Você pode ler online parte dos artigos de pesquisa escritos por cientistas de inteligência artificial.
OpenAI, Anthropic e outros laboratórios de pesquisa estão despejando recursos na ideia de “pesquisadores automatizados de IA”, embora nada tenha sido reconhecido publicamente.
À medida que mais e mais pessoas percebem que a automação da pesquisa em IA está de fato se tornando uma possibilidade real, espera-se que haja mais discussão, progresso e atividade empreendedora nesta área em 2025.
No entanto, o marco mais significativo será a aceitação pela primeira vez de um artigo de pesquisa totalmente escrito por agentes de inteligência artificial por uma conferência de inteligência artificial de alto nível. Se o artigo for revisado às cegas, os revisores da conferência não saberão que o artigo foi escrito por inteligência artificial antes de sua aceitação.
Se os resultados da pesquisa em inteligência artificial forem aceitos pela NeurIPS, CVPR ou ICML no próximo ano, não fique surpreso. Para o campo da inteligência artificial, este será um momento histórico fascinante e controverso.
08 Grandes nomes da indústria, como OpenAI, estão mudando o foco estratégico para a construção de aplicativos
Construir modelos de ponta é um trabalho difícil.
Sua intensidade de capital é impressionante. Os laboratórios de modelos de ponta exigem muito dinheiro. Apenas alguns meses atrás, a OpenAI arrecadou um recorde de US$ 6,5 bilhões em financiamento, e no futuro próximo, pode precisar de mais fundos. A Anthropic, xAI e outras empresas estão em situações semelhantes.
Os custos de conversão e fidelização de clientes são baixos. Os aplicativos de IA geralmente são construídos com o agnosticismo de modelo em mente, e modelos de diferentes fornecedores podem ser perfeitamente alternados com base em comparações de custo e desempenho variáveis.
Com o surgimento de modelos abertos de ponta, como o Llama da Meta e o Qwen da Alibaba, a ameaça da comercialização de tecnologia continua se aproximando. Líderes de inteligência artificial como OpenAI e Anthropic não podem e não vão parar de investir na construção de modelos de ponta.
Mas no próximo ano, a fim de desenvolver linhas de negócios mais lucrativas, diferenciadas e aderentes, espera-se que a Frontier Labs lance vigorosamente mais de seus próprios aplicativos e produtos.
Claro, o laboratório de ponta já tem um caso de uso muito bem-sucedido: ChatGPT.
No novo ano, que outros tipos de aplicativos de primeira parte podemos ver do laboratório de inteligência artificial? Uma resposta óbvia é um aplicativo de pesquisa mais complexo e rico em recursos. O SearchGPT da OpenAI prenuncia isso.
Codificação é outra categoria óbvia. Da mesma forma, com o produto Canvas da OpenAI tendo aparecido pela primeira vez em outubro, o trabalho preliminar de produto já começou.
A OpenAI ou Anthropic irão lançar um produto de pesquisa empresarial em 2025? Ou um produto de serviço ao cliente, inteligência artificial legal ou inteligência artificial de vendas?
Do lado do consumidor, podemos imaginar um produto de proxy web de “assistente pessoal”, ou um aplicativo de planejamento de viagem, ou um aplicativo que gera música.
A parte mais fascinante da evolução do Observatório de Laboratórios de Ponta para a camada de aplicação é que isso os coloca em competição direta com muitos dos clientes mais importantes.
Perplexidade no campo de pesquisa, Cursor no campo de codificação, Sierra no campo de atendimento ao cliente, Harvey no campo de inteligência artificial jurídica, Clay no campo de vendas, etc.
09 Klarna will go public in 2025, but there are signs of exaggerating the value of AI
Klarna é um provedor de serviços de ‘compre agora, pague agora’ sediado na Suécia, que arrecadou quase 5 bilhões de dólares em investimentos desde sua fundação em 2005.
Talvez nenhuma empresa possa se gabar tanto quanto a Klarna em relação à sua aplicação de inteligência artificial.
Apenas alguns dias atrás, o CEO da Klarna, Sebastian Siemiatkowski, disse à Bloomberg que a empresa parou de contratar trabalhadores humanos completamente e, em vez disso, confiou na IA generativa para fazer o trabalho.
Como disse Siemiatkowski: “Penso que a inteligência artificial já pode realizar todo o trabalho que os humanos fazem.”
Da mesma forma, a Klarna anunciou no início deste ano que lançou uma plataforma de atendimento ao cliente de inteligência artificial que automatizou completamente o trabalho de 700 atendentes.
A empresa também alegou ter parado de usar produtos de software corporativo como Salesforce e Workday porque pode simplesmente substituí-los por inteligência artificial.
Falando sem rodeios, estas alegações não são credíveis. Eles refletem uma falta de compreensão das capacidades e inadequações dos sistemas de IA atuais.
Alegar que um agente de inteligência artificial de ponta a ponta pode substituir qualquer funcionário humano específico em qualquer departamento de uma organização não é realista. Isso é equivalente a resolver o problema geral da inteligência artificial humana.
Atualmente, as principais startups de inteligência artificial estão trabalhando na vanguarda do campo para construir sistemas de agentes, a fim de automatizar processos de trabalho específicos, estreitos e altamente estruturados, como subconjuntos de atividades de representantes de desenvolvimento de vendas ou agentes de serviço ao cliente.
Mesmo em situações limitadas como essas, esses sistemas de proxy ainda não são completamente confiáveis, embora em alguns casos eles já estejam funcionando bem o suficiente para serem usados comercialmente em estágios iniciais.
Por que Klarna exageraria o valor da IA?
A resposta é simples. A empresa planeja abrir o capital no primeiro semestre de 2025. A chave para um IPO bem-sucedido é ter uma história de IA atraente.
Klarna ainda é uma empresa sem fins lucrativos, com perdas de 241 milhões de dólares no ano passado. Talvez ela queira convencer os investidores do mercado público de que sua história de inteligência artificial pode reduzir significativamente os custos e alcançar lucros sustentáveis.
Não há dúvida de que todas as empresas do mundo, incluindo a Klarna, desfrutarão dos enormes ganhos de produtividade que a IA trará nos próximos anos. No entanto, ainda há muitos desafios técnicos, de produtos e organizacionais espinhosos a serem resolvidos antes que os agentes de IA possam substituir completamente os humanos na força de trabalho.
Expressões exageradas como a da Klarna são uma afronta ao campo da inteligência artificial e também uma afronta aos progressos árduos feitos por especialistas e empresários no desenvolvimento de agentes de inteligência artificial.
À medida que a Klarna se prepara para uma oferta pública em 2025, espera-se que essas alegações estejam sob maior escrutínio e ceticismo público, e até agora elas não foram questionadas. Não se surpreenda se algumas das descrições da empresa sobre suas aplicações de IA forem exageradas.
10 O primeiro acidente de segurança AI real ocorrerá
Nos últimos anos, à medida que a IA se tornou mais poderosa, tem havido preocupações crescentes de que os sistemas de IA possam começar a se comportar de maneiras inconsistentes com os interesses humanos, e que os humanos possam perder o controle desses sistemas.
Por exemplo, imagine um sistema de inteligência artificial que aprendeu a enganar ou manipular seres humanos para alcançar seus próprios objetivos, mesmo que isso cause danos aos seres humanos. Essas preocupações são geralmente classificadas como problemas de segurança da IA.
Nos últimos anos, a segurança da IA passou de um tópico marginal quase de ficção científica para um campo de atividade convencional.
Atualmente, grandes players de inteligência artificial como Google, Microsoft e OpenAI estão investindo recursos significativos em segurança de inteligência artificial. Ícones da IA como Geoff Hinton, Yoshua Bengio e Elon Musk também estão expressando preocupações com os riscos de segurança da inteligência artificial.
No entanto, até agora, a questão da segurança da IA permaneceu inteiramente teórica. Nunca houve um incidente real de segurança de IA no mundo real (pelo menos não relatado publicamente).
2025 será um ano de mudanças neste cenário. Como será o primeiro incidente de segurança de inteligência artificial?
Para ser claro, não envolverá um robô assassino no estilo do Exterminador do Futuro e, muito provavelmente, não causará nenhum dano aos seres humanos.
Talvez o modelo de IA tente criar secretamente uma cópia de si mesmo em outro servidor para se salvar (conhecido como autofiltragem).
Talvez também os modelos de inteligência artificial possam chegar a essa conclusão: para melhor avançar em seus objetivos, eles precisam ocultar suas verdadeiras capacidades dos seres humanos, intencionalmente se mostrarem discretos na avaliação de desempenho e evitar escrutínios mais rigorosos.
Esses exemplos não são forçados. Experimentos importantes publicados pela Apollo Research Company no início deste mês mostraram que os modelos avançados de hoje são capazes de realizar esse tipo de comportamento enganoso, com dicas específicas.
Da mesma forma, pesquisas recentes em antropologia também indicam que os LLMs têm uma capacidade preocupante de “pseudo-alinhamento”.
!
Esperamos que este primeiro incidente de segurança de inteligência artificial seja descoberto e eliminado antes de causar qualquer dano real. Mas para a indústria de inteligência artificial e toda a sociedade, este será um momento de grande revelação.
Isso deixará uma coisa clara: antes que a humanidade enfrente uma ameaça existencial da inteligência artificial onipotente, precisamos aceitar uma realidade mais mundana: agora compartilhamos nosso mundo com outra forma de inteligência que às vezes pode ser caprichosa, imprevisível e enganosa.