¡Impactante! ¡Las tres grandes empresas de IA de EE. UU. colaboran de manera inusual para luchar contra comportamientos de destilación!

robot
Generación de resúmenes en curso

Fuente: Ai y asuntos de chips

Los competidores OpenAI, Anthropic PBC y Google, propiedad de Alphabet, ya han comenzado a colaborar, intentando frenar a los rivales para que no extraigan resultados de modelos avanzados de inteligencia artificial (IA) de Estados Unidos, y así obtener una ventaja en la carrera global de IA.

Según informó Bloomberg, personas familiarizadas con el tema revelaron que comparten información a través del “Frontier Model Forum”.

El “Frontier Model Forum” es una organización no lucrativa del sector creada conjuntamente en 2023 por las tres empresas mencionadas y Microsoft, con el objetivo de identificar la llamada “destilación adversarial” (adversarial distillation) que infringe los términos de servicio.

El informe señala que esta rara colaboración pone de manifiesto el grado de atención que las empresas de IA de Estados Unidos conceden a estos temas. Estas empresas temen que algunos usuarios estén desarrollando versiones imitadoras de sus productos, lo que podría atraer clientes con precios más bajos y, al mismo tiempo, conllevar riesgos para la seguridad nacional.

Una persona con conocimiento del tema que pidió el anonimato afirmó que los funcionarios estadounidenses prevén que las destilaciones no autorizadas causen a los laboratorios de Silicon Valley pérdidas de miles de millones de dólares de beneficio cada año.

La tecnología de destilación recibió por primera vez una atención amplia en enero de 2025. Anteriormente, la startup DeepSeek sorprendió al publicar de forma inesperada su modelo de razonamiento R1, lo que causó revuelo en el sector de la IA. Microsoft y OpenAI iniciaron una investigación poco después para confirmar si DeepSeek había extraído indebidamente grandes cantidades de datos de modelos de empresas estadounidenses, para desarrollar R1.

Anthropic, el 23 de febrero de este año, afirmó en una entrada de blog que DeepSeek, Xiyu Technology y la cara oculta de la luna usaron miles de cuentas falsas para realizar un total de más de 16 millones de interacciones con su modelo Claude, lo que viola los términos de servicio.

Anthropic indicó que, mediante el uso de la destilación, los laboratorios de IA pueden mejorar rápidamente la capacidad de sus propios modelos entrenándolos con resultados de sistemas más potentes.

Gran cantidad de información, análisis preciso, todo en la aplicación de Sina Finance APP

Responsable: Zhang Qiaosong

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado