OpenAI demandada por no alertar a la policía en el tiroteo de Tumbler Ridge

CryptoFrontier

OpenAI se enfrenta a una demanda que alega que la empresa no advirtió a la policía después de que ChatGPT se vinculara con una masacre en Tumbler Ridge, Columbia Británica, según la información de Decrypt. La demanda fue presentada el miércoles en un tribunal federal en el norte de California por una menor de 12 años no identificada, identificada como M.G., y su madre, Cia Edmonds, contra el CEO de OpenAI Sam Altman y varias entidades de OpenAI. La demanda acusa a la empresa de negligencia, de no advertir a las autoridades, de responsabilidad del producto y de ayudar a habilitar la masacre.

Antecedentes sobre el tiroteo

El caso se deriva de una masacre en Tumbler Ridge, Columbia Británica, en febrero. Las autoridades dicen que Jesse Van Rootselaar, de 18 años, mató a su madre y a su hermanastro de 11 años en casa antes de ir a la escuela secundaria Tumbler Ridge Secondary School y abrir fuego. Cinco niños y un educador murieron en la escuela antes de que Van Rootselaar muriera por suicidio.

Entre los heridos estaba M.G., quien fue baleada tres veces y permanece hospitalizada con lesiones cerebrales catastróficas. La denuncia establece que está despierta y consciente, pero no puede moverse ni hablar.

La presunta falta de OpenAI para alertar a las autoridades

Según la demanda, los sistemas automatizados de OpenAI marcaron la cuenta de ChatGPT de Van Rootselaar en junio de 2025 por conversaciones que involucraban violencia con armas y planificación. Los miembros del equipo especializado de seguridad de OpenAI revisaron los chats y determinaron que la usuaria planteaba una amenaza creíble y específica, recomendando que se notificara a la Real Policía Montada del Canadá.

La demanda alega que los líderes de OpenAI anularon recomendaciones internas para alertar a las autoridades, desactivaron la cuenta de Van Rootselaar sin notificar a la policía y le permitieron regresar creando una cuenta nueva con una dirección de correo electrónico diferente.

Jay Edelson, fundador y CEO de Edelson PC, los abogados que representan a varias de las familias que demandan a OpenAI, dijo que los propios sistemas internos de la compañía identificaron el riesgo. “El propio sistema de OpenAI marcó que el agresor estaba participando en comunicaciones sobre violencia planificada”, le dijo Edelson a Decrypt. “Doce personas en su equipo de seguridad estaban saltando de un lado a otro, diciendo que OpenAI necesitaba alertar a las autoridades. Y, aunque la respuesta de Sam Altman ha sido débil, incluso él se vio obligado a admitir la semana pasada que deberían haber llamado a las autoridades”.

La denuncia cita que el propio caso establece: “Sam Altman y su equipo de liderazgo sabían qué significaba el silencio para los ciudadanos de Tumbler Ridge. Estaban enfocados en lo que significaba la divulgación para ellos mismos. Advertir al RCMP sentaría un precedente: OpenAI estaría obligada a notificar a las autoridades cada vez que su equipo de seguridad identificara a un usuario que planificara violencia en el mundo real.”

Alegaciones de los demandantes sobre el papel de ChatGPT

Los demandantes afirman que ChatGPT profundizó la fijación violenta del agresor mediante funciones como memoria, continuidad conversacional y su disposición a participar en discusiones sobre violencia. La demanda alega que OpenAI debilitó salvaguardas en 2024 al alejarse de los rechazos rotundos en conversaciones que involucraban un daño inminente.

Respuesta de OpenAI y disculpa de Altman

La semana pasada, Sam Altman se disculpó públicamente ante la comunidad de Tumbler Ridge por el fallo de la empresa al alertar a la policía. En una carta informada por primera vez por el medio canadiense Tumbler Ridgelines, Altman reconoció que OpenAI debió haber reportado la cuenta después de prohibirla en junio de 2025 por actividad relacionada con conducta violenta.

Un portavoz de OpenAI le dijo a Decrypt: “Los acontecimientos en Tumbler Ridge son una tragedia. Tenemos una política de tolerancia cero para usar nuestras herramientas con el fin de ayudar a cometer violencia. Tal como compartimos con funcionarios canadienses, ya hemos reforzado nuestras salvaguardas, incluyendo mejorar cómo responde ChatGPT a las señales de angustia, conectar a las personas con apoyo local y recursos de salud mental, fortalecer cómo evaluamos y escalamos posibles amenazas de violencia, y mejorar la detección de infractores de políticas recurrentes”.

Demandas de los demandantes

Edelson dijo que las familias y la comunidad de Tumbler Ridge están exigiendo más transparencia y responsabilidad por parte de la empresa. “OpenAI debería dejar de ocultar información crítica a las familias, y no deberían mantener un producto peligroso en el mercado, lo cual está destinado a llevar a más muertes”, dijo Edelson. “Finalmente, necesitan pensar detenida y seriamente en cómo pueden mantener un equipo de liderazgo que le importe más acelerar hacia un IPO que las vidas humanas”.

Demandas relacionadas contra OpenAI

OpenAI ya se enfrenta a otras demandas vinculadas a la presunta participación de ChatGPT en daños del mundo real. En diciembre, se presentó un caso por muerte injusta en el que se acusa a OpenAI y Microsoft de ‘diseñar y distribuir un producto defectuoso’ en forma del modelo GPT-4o ahora deprecado. La demanda alega que ChatGPT reforzó las creencias paranoicas de Stein-Erik Soelberg antes de que él matara a su madre, Suzanne Adams, y luego se matara a sí mismo en su casa en Greenwich, Connecticut.

J. Eli Wade-Scott, socio administrador de Edelson PC, le dijo a Decrypt en ese momento: “Este es el primer caso que busca responsabilizar a OpenAI por causar violencia a un tercero. Estamos instando a las fuerzas del orden a empezar a pensar en cuándo ocurren tragedias como esta, en lo que ese usuario le decía a ChatGPT, y en lo que ChatGPT les estaba diciendo que hicieran.”

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios