Detenido un sospechoso después de que se arrojara un cóctel Molotov a la casa de Sam Altman en San Francisco

En resumen

  • La policía de San Francisco arrestó a un sospechoso después de que se lanzara un dispositivo incendiario a la casa del CEO de OpenAI, Sam Altman.
  • Más tarde, los agentes detuvieron a la misma persona cerca de la sede de OpenAI después de que presuntamente amenazara con incendiar el edificio.
  • Nadie resultó herido, y la policía dice que la investigación sigue en curso.

La policía de San Francisco arrestó a un sospechoso el viernes por la madrugada después de que se lanzara un cóctel molotov en la casa del CEO de OpenAI, Sam Altman. Según un informe de NBC News, la policía respondió a la casa de Altman en el vecindario North Beach de San Francisco alrededor de las 4:12 a.m. PT después de recibir un reporte de un incendio. Los investigadores dijeron que un hombre desconocido arrojó un dispositivo incendiario, lo que provocó un incendio en una reja exterior antes de huir del lugar. La policía describió el dispositivo como un cóctel molotov o un dispositivo incendiario similar. Los agentes luego detuvieron al sospechoso cerca de la sede de OpenAI después de que presuntamente amenazara con incendiar el edificio. Cuando los agentes llegaron, reconocieron a la persona como el mismo sospechoso del incidente anterior y lo detuvieron. Según los reportes, la policía no nombró al sospechoso, pero lo describió como un hombre de 20 años. Las autoridades dijeron que los cargos aún están pendientes y que el caso sigue siendo una investigación activa.

 “Esta mañana temprano, alguien arrojó un cóctel molotov a la casa de Sam Altman y también hizo amenazas en nuestra sede de San Francisco”, dijo a Decrypt un portavoz de OpenAI. “Por suerte, no hubo heridos. Agradecemos profundamente qué tan rápido respondió la SFPD y el apoyo de la ciudad para ayudar a mantener a salvo a nuestros empleados.” OpenAI está ayudando a las autoridades con su investigación, añadieron. El ataque se produce en medio de un aumento en las amenazas vinculadas al desarrollo de inteligencia artificial, incluido un caso reciente en Indiana en el que se disparó contra la casa de un miembro del consejo municipal que apoyaba la construcción de un centro de datos, con una nota dejada en el lugar que decía: “No data centers”.

En una publicación de blog el viernes por la tarde, Altman abordó el ataque, compartiendo una foto de su familia y añadiendo que espera que “tal vez disuada a la próxima persona de lanzar un cóctel molotov en nuestra casa”, no importa lo que piensen de él. “La primera persona lo hizo anoche, a las 3:45 am. Por suerte, rebotó en la casa y no hubo heridos”, escribió Altman. En su publicación, Altman también aludió al reciente artículo de investigación en el New Yorker sobre el CEO de OpenAI, al que calificó de incendiario. “Alguien me dijo ayer que creían que venía en un momento de mucha ansiedad sobre la IA y que hacía las cosas más peligrosas para mí”, dijo. “Lo dejé de lado”. El incidente sigue a otro susto de seguridad en noviembre reportado por Wired, en el que OpenAI aseguró sus oficinas en San Francisco después de recibir una amenaza violenta vinculada a un activista anti-IA que había visitado previamente las instalaciones de la empresa y se sospechaba que planeaba hacer daño contra los empleados. Nota del editor: Este artículo se actualizó después de la publicación para incluir comentarios de Sam Altman realizados en una publicación de blog.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Investigación de Microsoft: Solo el 13% de los empleados de empresas cuya recompensa por la IA impulsó fallaron en la innovación del lugar de trabajo

Según el informe anual del Índice de Tendencias de Trabajo de Microsoft, publicado el 5 de mayo, el informe analizó billones de señales de productividad anónimas de Microsoft 365 y encuestó a 20.000 empleados en varios mercados, incluidos Estados Unidos, Reino Unido, India y Japón. Los datos del informe muestran que solo el 13% de los empleados afirma que su empleador ofrece incentivos cuando se intenta mejorar el trabajo con IA y no se obtienen los resultados esperados.

MarketWhisperHace40m

Meta desarrolla un asistente de IA, Hatch, para competir con OpenClaw, y completará la fase de pruebas internas antes de finales de junio

De acuerdo con el Financial Times, el 5 de mayo, Meta está desarrollando un asistente de IA para el público general (Hatch), inspirado en OpenClaw, de OpenAI, con el objetivo de completar las pruebas internas antes de finales de junio; Meta también planea, antes del cuarto trimestre de este año, integrar una herramienta de compras autónoma basada en agentes en los servicios de Instagram de la compañía.

MarketWhisperHace50m

Juicio de OpenAI: Brockman testifica que Musk dijo que si no se hacía seguridad, la participación accionaria correría riesgos

Según el New York Post del 6 de mayo, el 5 de mayo el CEO de OpenAI, Greg Brockman, compareció y declaró ante el Tribunal Federal del Distrito en Oakland, California, revelando que cuando Musk se retiró de la junta directiva de OpenAI en 2018 pronunció un mensaje para todos, en el que decía que al impulsar la IA en Tesla «no gastaría tiempo en seguridad», y que en 2017, junto con los cofundadores de OpenAI, mantuvo negociaciones peligrosas para discutir participaciones accionarias.

MarketWhisperhace1h

Cloudflare: el tráfico no humano ahora es la mayoría, direcciones de la x402 Foundation en la economía web

El director de Estrategia de Cloudflare afirmó que más de la mitad del tráfico de internet ahora es no humano, destacando un cambio en los patrones de uso de la web impulsado por agentes de IA. La empresa señala a la x402 Foundation como una iniciativa clave para construir infraestructura que respalde una economía sostenible de contenidos digitales

CryptoFrontierhace2h

Las empresas indias de ciberseguridad usan IA para reducir las pruebas de vulnerabilidades a horas

Las empresas indias de ciberseguridad, incluyendo Indusface y Astra Security, están adoptando agentes de IA basados en grandes modelos de lenguaje para acelerar las pruebas de vulnerabilidades de software, pasando de días o semanas a horas, según The Economic Times. El cambio refleja la creciente rapidez de los atacantes y la capacidad emergente de las herramientas de IA.

CryptoFrontierhace2h
Comentar
0/400
Sin comentarios