La disputa entre Anthropic y OpenAI y su conflicto con el Pentágono revelan un problema más profundo con la seguridad de la IA

Bienvenido a Eye on AI, con la reportera de IA Sharon Goldman. En esta edición: Trump enfrenta un problema con su centro de datos de IA antes de las elecciones de medio término… No confíes en la IA para presentar tus impuestos… La herramienta de IA de Anthropic, Claude, es central en la campaña de EE. UU. en Irán, en medio de una amarga disputa.

Video recomendado


El debate sobre la seguridad de la IA a menudo se centra en la tecnología en sí—qué tan poderosos podrían volverse los modelos, o qué riesgos podrían plantear. Pero el conflicto de esta semana entre Anthropic, OpenAI y el Pentágono apunta a un problema más profundo: cuánta autoridad sobre el futuro de la IA está concentrada en manos de unos pocos líderes corporativos y funcionarios gubernamentales que deciden cómo se construyen, despliegan y usan estos sistemas.

Durante años, los críticos de la industria han advertido sobre el riesgo de la “captura industrial”—un futuro en el que el desarrollo de sistemas de IA potentes se concentre en unas pocas empresas que trabajan estrechamente con los gobiernos, dejando la seguridad de esos sistemas dependiente de los incentivos y rivalidades de quienes los manejan. En 2023, por ejemplo, el investigador Yoshua Bengio afirmó que la posibilidad de que el sector de IA sea controlado por unas pocas empresas era el “segundo problema” detrás de los riesgos existenciales que plantea la tecnología.

Por eso, no resulta particularmente tranquilizador leer ayer sobre el desprecio que expresó el CEO de Anthropic, Dario Amodei, hacia el CEO de OpenAI, Sam Altman, en un memo filtrado que Amodei escribió a los empleados el viernes. La misiva de Amodei, que aparentemente fue enviada por Slack a todos los empleados de Anthropic, llegó después de que OpenAI anunciara un acuerdo para proveer IA al Pentágono y el Secretario de Guerra, Pete Hegseth, declarara a Anthropic como un “riesgo en la cadena de suministro” por no haber llegado a un acuerdo similar.

Amodei calificó el mensaje de OpenAI como “mendaz,” “teatro de seguridad,” y “un ejemplo de quiénes son en realidad,” mientras describía muchos de los comentarios de Altman como “mentiras descaradas” y “gaslighting.”

Altman también ha lanzado sus propios ataques públicos contra Anthropic. Recientemente calificó una de las campañas de Super Bowl de la compañía como “claramente deshonesta” y la acusó de “doble lenguaje.” La rivalidad también se ha hecho visible en formas más simbólicas: en una cumbre reciente, Altman y Amodei se volvieron virales por negarse a tomarse de las manos para una foto grupal con el Primer Ministro Narendra Modi.

Con el gobierno de EE. UU. tomando poca acción para regular la IA—y los esfuerzos internacionales en seguridad de IA en gran medida estancados—el mundo ha estado confiando efectivamente en la autorregulación de la industria. Tanto OpenAI como Anthropic han apoyado públicamente ese paradigma y han firmado compromisos voluntarios de seguridad. También han colaborado en ocasiones para realizar evaluaciones independientes de seguridad de los modelos de cada uno antes de su lanzamiento.

Pero cuando los líderes de los dos laboratorios de IA más influyentes parecen no poder llevarse bien, y la competencia entre ellos es tan feroz, surge una pregunta incómoda: ¿cuánto podemos esperar realmente en cooperación en seguridad?

La presión de la competencia ya ha afectado a ambas empresas en cuanto a seguridad de IA. Anthropic recientemente revisó su Política de Escalamiento Responsable para decir que ya no se abstendría unilateralmente de desarrollar un nuevo modelo solo porque aún no sabe cómo hacerlo seguro. Y OpenAI también ha hecho ajustes, eliminando las prohibiciones explícitas sobre usos militares y bélicos en sus políticas en 2024, y cambiando su enfoque de investigación en seguridad a desarrollo de productos, hasta el punto de que el ex líder de superalineamiento, Jan Leike (quien dejó la empresa en 2024 para unirse a Anthropic), escribió en X que en OpenAI “la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos.”

El enfoque actual de seguridad asume que las empresas y los gobiernos actuarán con moderación. Pero el futuro de la seguridad en IA puede depender en última instancia de cómo unos pocos actores poderosos naveguen las presiones de la competencia, la geopolítica y las ocasionales telenovelas de Silicon Valley.

Con eso, aquí más noticias sobre IA.

Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman

FORTUNE SOBRE IA

Por qué el fondo de cobertura de IA de Leopold Aschenbrenner apuesta fuerte por las empresas de energía y mineros de bitcoin para impulsar la carrera por la ‘superinteligencia’ – por Sharon Goldman

OpenAI ve un aumento en usuarios de Codex a 1.6 millones, posicionando la herramienta de codificación como puerta de entrada a agentes de IA para negocios – por Jeremy Kahn

Startup coreana wrtn está en camino de superar los $100 millones en ingresos recurrentes anuales, impulsada por un auge alimentado por la epidemia de soledad en el entretenimiento de IA – por Nicolas Gordon

NOTICIAS SOBRE IA

Trump tiene un problema con su centro de datos de IA antes de las elecciones de medio término. CNBC y otros informaron que el presidente Trump enfrenta un dilema político creciente mientras EE. UU. corre para construir centros de datos de IA que consumen mucha energía antes de las elecciones de 2026. La infraestructura necesaria para impulsar el auge de la IA está generando preocupaciones sobre el aumento de los precios de la electricidad y la tensión en la red eléctrica, provocando reacciones adversas de votantes y comunidades locales. En respuesta, grandes empresas tecnológicas—incluyendo OpenAI, Microsoft, Google, Amazon, Meta y Oracle—han prometido cubrir los costos de energía e infraestructura asociados con sus centros de datos de IA para que los consumidores no vean facturas de servicios públicos más altas. El acuerdo voluntario, promovido por la Casa Blanca como una forma de aliviar las preocupaciones de los votantes, refleja una tensión más amplia: los responsables políticos quieren las ventajas económicas y geopolíticas de una rápida expansión de la IA, pero las enormes demandas eléctricas de la tecnología están creando presiones políticas y ambientales que cada vez son más difíciles de ignorar.

No confíes en la IA para presentar tus impuestos. Como era de esperar, una prueba realizada por The New York Times encontró que la IA no está a la altura del código fiscal de EE. UU., destacando una limitación importante de los chatbots de IA actuales: todavía tienen dificultades con tareas que requieren razonamiento preciso y en múltiples pasos. Para evaluar la capacidad de la tecnología para presentar una declaración de impuestos federal, el periódico probó cuatro chatbots de IA—Gemini de Google, ChatGPT de OpenAI, Claude de Anthropic y Grok de xAI—para ver qué tan bien manejaban ocho situaciones fiscales ficticias. Tuvieron muchas dificultades, calculando mal el reembolso o la cantidad adeudada al IRS en más de $2,000 en promedio. Incluso cuando se les proporcionaron todos los materiales necesarios, incluyendo los formularios que debían completar, los chatbots fallaron en algunos cálculos. El problema refleja una limitación fundamental de los modelos de lenguaje grande: están diseñados para predecir palabras probables, no para seguir con precisión información compleja e interconectada, lo que los hace fuertes en escritura y resumen, pero débiles en tareas procedimentales como la declaración de impuestos. Los expertos dicen que los sistemas podrían mejorar con herramientas adicionales de razonamiento y capas de verificación, pero por ahora funcionan mejor como asistentes que como reemplazos—otro recordatorio de que, incluso cuando la IA transforma industrias desde la programación hasta la medicina, algunas tareas aparentemente más simples siguen siendo sorprendentemente difíciles.

La herramienta de IA de Anthropic, Claude, es central en la campaña de EE. UU. en Irán, en medio de una amarga disputa. Un nuevo informe de The Washington Post destaca cómo la IA ha pasado rápidamente de la experimentación al campo de batalla. Según el periódico, el ejército de EE. UU. utilizó un sistema de orientación habilitado por IA llamado Maven Smart System—desarrollado por Palantir e incorporando el modelo Claude de Anthropic—para ayudar a identificar y priorizar objetivos durante las recientes operaciones estadounidenses en Irán, acelerando lo que antes tomaba semanas de planificación militar a decisiones casi en tiempo real. Sin embargo, el despliegue ocurre en medio de una amarga disputa entre Anthropic y el Pentágono sobre los límites del uso de su tecnología en la guerra, incluyendo preocupaciones sobre armas autónomas y vigilancia masiva. El episodio subraya tanto la creciente importancia estratégica de los sistemas de IA de frontera como la tensión entre la demanda gubernamental de despliegue rápido y los intentos de las empresas de establecer límites de seguridad.

NÚMEROS SOBRE IA

$25 mil millones

Eso es lo que OpenAI estaba generando en ingresos anuales a finales del mes pasado, según reportes de The Information—un aumento del 17% respecto a los $21.4 mil millones en tasa anual que tenía a finales del año pasado, según dos fuentes familiarizadas con las cifras.

OpenAI aún genera más ingresos que su rival más cercano, Anthropic, aunque la diferencia se está reduciendo rápidamente. Los ingresos anuales de Anthropic superaron recientemente los $19 mil millones, casi el triple de lo que era a finales del año pasado y un aumento del 36% en solo las últimas dos semanas.

OpenAI calcula los ingresos anuales multiplicando los ingresos de las últimas cuatro semanas por 12. Una fuente dijo que, si en lugar de eso extrapolara solo a partir de picos de ingresos en la semana más reciente, su tasa anualizada sería más cercana a los $30 mil millones.

El rápido crecimiento de Anthropic ha sido impulsado en parte por la fuerte demanda de sus modelos de IA enfocados en codificación, que han ayudado a la compañía a reducir rápidamente la brecha de ingresos con OpenAI. Hasta 2025, OpenAI generaba aproximadamente tres veces más ingresos que Anthropic.

CALENDARIO DE IA

2-5 de marzo: Congreso Mundial de Móviles, Barcelona, España.

12-18 de marzo: South by Southwest, Austin, Texas.

16-19 de marzo: Nvidia GTC, San José, California.

6-9 de abril: HumanX, San Francisco.

Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado