A DeepL corta 25% da sua força de trabalho (cerca de 250 funcionários) para reestruturar o negócio de IA

De acordo com a Bloomberg, a empresa de ferramentas de tradução DeepL anunciou hoje, 7 de maio, que vai despedir aproximadamente 25% da sua força de trabalho, cerca de 250 funcionários, para se adaptar a mudanças estruturais impulsionadas pela inteligência artificial. O CEO, Jarek Kutylowski, disse no LinkedIn que a empresa vai reduzir os níveis de gestão e acelerar a tomada de decisões para responder à era da IA. A DeepL, fundada em 2017 e com sede em Colónia, é vista como uma concorrente do Google Translate e angariou 300 milhões de dólares em 2024, avaliando-se em 2 mil milhões de dólares.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A API da B.AI lança quatro novos modelos, incluindo o GPT-5.5 Instant, no espaço de 48 horas após o lançamento da OpenAI

A API da B.AI lançou quatro novos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 e GLM-5.1. O GPT-5.5 Instant concluiu a adaptação subjacente e a integração da interface no prazo de 48 horas após o lançamento da OpenAI, permitindo acesso sem atraso a

GateNews5m atrás

O modelo de IA médica da Tether, no valor de 1,7 mil milhões, supera hoje um concorrente 16 vezes maior

De acordo com a equipa de investigação em IA da Tether, a empresa lançou hoje a série de modelos de linguagem médica QVAC MedPsy, concebida para implementação local em smartphones e dispositivos vestíveis, sem dependência da nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o Google MedGemma-4B

GateNews16m atrás

A avaliação pré-IPO da Anthropic atinge 1,2 biliões de dólares, ultrapassando a OpenAI em 20%

De acordo com a Odaily, a avaliação implícita da Anthropic no mercado de pré-IPO baseado em blockchain atingiu 1,2 biliões de dólares, ultrapassando a OpenAI em cerca de 20%. Se a empresa abrir o capital a esta avaliação, ficaria como a 11.ª maior empresa cotada publicamente a nível mundial por capitalização bolsista, atrás da Apple,

GateNews21m atrás

A subida das Bolsas na Coreia do Sul supera os mercados globais com o boom da IA

O mercado de ações da Coreia do Sul está a registar ganhos sem precedentes impulsionados por ações de semicondutores relacionadas com inteligência artificial, com o índice KOSPI em alta 78% este ano, superando todos os outros mercados importantes a nível mundial, segundo dados da Financial Modeling Prep citados numa análise da Axios. AI

CryptoFrontier29m atrás

A NVIDIA lançou o Nemotron 3 Nano Omni, uma solução de multimodalidade de código aberto

A NVIDIA divulga o Nemotron 3 Nano Omni, um modelo multimodal aberto, integrando visão, voz e linguagem num único modelo, como camada de perceção para agentes de IA. O núcleo é um MoE 30B-A3B, com context 256K e capacidade de processamento 9x, suportando entradas como texto, imagens, áudio e vídeos, com saídas em texto. Em colaboração com os Nemotron 3 Super/Ultra, é aplicável a cenários como operação de computadores, inteligência documental e compreensão de áudio e vídeo, e também disponibiliza pesos e dados de treino, com uma implementação que abrange o local, NIM e plataformas de terceiros.

ChainNewsAbmedia1h atrás

O Cursor revela um método de treino de autoinstalação e melhora o desempenho do Composer 2 em 14 pontos percentuais

De acordo com a divulgação recente da Cursor, a empresa revelou uma técnica de treino chamada autoinstall para a sua série de modelos Composer: usar um modelo da geração anterior para configurar automaticamente ambientes executáveis para o treino de aprendizagem por reforço da geração seguinte. Ao treinar o Composer 2, a Cursor

GateNews1h atrás
Comentar
0/400
Nenhum comentário