El Grupo de Trabajo de la NEA sobre Nuevas Tecnologías celebró un taller del 25 al 26 de marzo, centrado en cómo la inteligencia artificial puede aplicarse a la supervisión regulatoria y a las operaciones internas dentro de las autoridades nucleares.
Resumen
Los debates se centraron en la puesta en marcha práctica más que en la teoría, y los participantes analizaron cómo pueden encajar las herramientas existentes en los flujos de trabajo regulatorios.
El evento reunió a reguladores nucleares y especialistas en IA de 15 países miembros de la NEA, junto con representantes de organizaciones internacionales. Los asistentes compartieron estudios de caso en los que se muestran sistemas de IA ya en uso o en desarrollo en distintas entidades regulatorias.
Entre los ejemplos presentados durante las sesiones se incluyeron generar resúmenes y presentaciones mediante IA, mejorar las capacidades de simulación y extraer información relevante de grandes volúmenes de documentos regulatorios.
Estas demostraciones dieron lugar a intercambios detallados sobre desafíos de implementación, lecciones aprendidas y formas de identificar aplicaciones de alto valor.
Los participantes destacaron varias conclusiones clave. Hay una necesidad clara de establecer marcos de IA estructurados dentro de los organismos reguladores, respaldados por procedimientos y orientación definidos.
Se consideró que los proyectos bien delimitados pueden funcionar de manera más efectiva, mientras que los criterios de éxito claros para las herramientas y las iniciativas de IA se consideraron esenciales.
Se identificaron los modelos en las instalaciones como una posible vía para abordar preocupaciones relacionadas con la ciberseguridad, la soberanía de datos y la protección de datos. Al mismo tiempo, la experiencia humana sigue siendo central en la toma de decisiones y en la interpretación de salidas generadas por IA.
El taller fomentó la comparación abierta de los enfoques nacionales, y los reguladores compartieron experiencias de implementación e identificaron preocupaciones comunes. Los intercambios también señalaron áreas en las que una cooperación internacional más estrecha podría ayudar a abordar desafíos compartidos.
El Sr. Eetu Ahonen, Vicepresidente del WGNT, dirigió los debates y subrayó el valor de la colaboración entre jurisdicciones.
“Este taller demostró el valor de la colaboración internacional. Cada regulador está explorando la IA desde un ángulo diferente, pero las experiencias que tenemos con la implementación de herramientas de IA, los desafíos de seguridad de datos y garantizar la supervisión humana son extraordinariamente similares. Al compartir de forma abierta y aprender unos de otros, fortalecemos nuestra capacidad para usar la IA de manera responsable y eficiente para mejorar la seguridad nuclear.”
El WGNT, que organizó el evento, sirve como un espacio para que los reguladores y las organizaciones de apoyo técnico intercambien información sobre la supervisión de tecnologías emergentes a lo largo de todo su ciclo de vida. Su labor apoya el desarrollo de una comprensión compartida y ayuda a identificar vías hacia posturas regulatorias alineadas.
La NEA planea publicar un folleto dedicado que resuma los resultados del taller, incluyendo desafíos clave, lecciones aprendidas y prácticas recomendadas para integrar la IA en los procesos regulatorios.
Artículos relacionados
Elon Musk impulsa los cheques de «ingreso universal alto» como solución definitiva para el desempleo por IA
Se informa que DeepSeek lanza su primera ronda de recaudación externa, apunta a una valoración de más de $10B y $300M+
ChatGPT la publicidad llega a Australia y Nueva Zelanda: Free y usuarios de Go primero, los planes de pago mantienen sin anuncios
Hyundai Motor Group se reorganiza en torno a la IA y la robótica y apunta a 30,000 robots Atlas para 2030
China probará 300+ robots humanoides en el medio maratón de Pekín el 19 de abril
EE. UU. busca aumentar las importaciones de uranio de Namibia para impulsar plantas nucleares impulsadas por IA