Luma AI lança o modelo de raciocínio multimodal UNI-1

robot
Geração do resumo em andamento

ME News Notícias, 3 de abril (UTC+8), a Luma AI anunciou recentemente o lançamento do modelo de raciocínio multimodal UNI-1, cujo conceito central é “menos trabalho manual, mais inteligência”. O modelo é construído com base na inteligência unificada (Unified Intelligence), com o objetivo de entender a intenção do usuário, responder a comandos e colaborar com o usuário para pensar, a fim de gerar conteúdo em pixels. UNI-1 possui várias capacidades específicas, incluindo preenchimento de cenários de conhecimento comum, raciocínio espacial, conversões baseadas em razoabilidade, renderização de texto multilíngue (como caligrafia chinesa cursiva, código Morse), além de realizar conversões razoáveis com base em imagens de referência (como transformar uma maçã em uma torta de maçã, um gato em um leão). Além disso, ele pode gerar imagens contendo informações espaciais complexas, como gráficos informativos e diagramas 3D. O modelo também suporta geração de vídeos, orientação inteligente, avaliação de percepção cultural, entre outros recursos, e oferece testes gratuitos, planos de preços, serviços empresariais e interface de API. Segundo o artigo, isso marca um passo importante para a Luma na área de IA generativa, avançando para uma geração de conteúdo visual que compreende melhor o mundo físico, é mais controlável e mais lógica. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar