Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Activos compatibles con IA, Quantum está «reevaluando»
Escrito por: Zhang Feng
En la actualidad, la inteligencia artificial se está integrando de manera sin precedentes en la producción social y en la vida cotidiana, y su sistema de seguridad y de gobernanza constituye la base del mundo digital. Sin embargo, una revolución de cómputo —la computación cuántica— impulsada por principios físicos, se acerca silenciosamente. Su posible poder disruptivo pone a los marcos actuales de seguridad y gobernanza ante un severo cuestionamiento. ¿La computación cuántica llegará a trastocar los actuales sistemas de seguridad y gobernanza de la IA? Esto no es solo un problema técnico, sino un desafío global que afecta al orden social digital del futuro. Cuando el salto en la capacidad de cómputo se enfrenta a la lentitud de las normas, ¿cómo debemos prepararnos para un «Q-Day»?
I. ¿Cómo puede la computación cuántica amenazar los algoritmos de cifrado asimétrico ampliamente utilizados hoy?
La seguridad de los sistemas de IA actuales, desde la transmisión de modelos, el almacenamiento de datos hasta la autenticación de identidad, depende en gran medida de algoritmos de cifrado asimétrico como RSA y ECC (cifrado de curva elíptica). La seguridad de estos algoritmos se apoya en la «complejidad computacional» de problemas matemáticos difíciles, como la «factorización de grandes números» o el «logaritmo discreto», es decir, que las computadoras clásicas no pueden resolverlos en un tiempo aceptable.
Sin embargo, la computación cuántica introduce un cambio de paradigma fundamental. Algoritmos cuánticos como el de Shor, en teoría, pueden reducir el tiempo de resolución de estos problemas desde un orden exponencial a uno polinómico. Un artículo de revisión señala que, incluidos los algoritmos cuánticos más recientes, como el algoritmo de Regev y sus extensiones, están siendo optimizados de manera continua en cuanto a la eficiencia para romper criptografía asimétrica. Esto significa que, una vez que exista una computadora cuántica de uso general con suficiente escala (normalmente se refiere a millones de qubits estables), las «cerraduras» que protegen actualmente la comunicación de Internet, las firmas digitales y los datos cifrados podrían abrirse en un instante.
Esta amenaza no está lejos. Las investigaciones de la comunidad Ziyuan advierten que es una amenaza «en curso»: los atacantes pueden interceptar y almacenar ya ahora los datos de comunicación cifrados (incluidos los datos de entrenamiento de IA, parámetros del modelo, etc.), y esperar a que en el futuro madure la computación cuántica para descifrarlos. Esta estrategia de «primero interceptar, luego descifrar» expone los datos de alto valor que requieren confidencialidad a largo plazo, incluidas información de nivel nacional, patentes comerciales y datos personales de privacidad, al riesgo futuro. Por lo tanto, la amenaza de la computación cuántica al cifrado asimétrico es fundamental y sistémica, y pone directamente en entredicho la base de los sistemas de seguridad actuales de la IA e incluso del mundo digital en su conjunto.
II. Ante la computación cuántica, ¿qué nuevos desafíos enfrentan el entrenamiento de modelos de IA y la protección de la privacidad de los datos?
El desarrollo de la IA depende de la alimentación de grandes volúmenes de datos y del entrenamiento de modelos complejos; este proceso, por sí mismo, está lleno de desafíos de privacidad y seguridad. La intervención de la computación cuántica hace que estos desafíos se vuelvan más agudos y complejos.
En primer lugar, falla la confidencialidad de larga duración en el ciclo de vida de los datos. Como se mencionó anteriormente, los conjuntos de datos de entrenamiento de IA cifrados que actualmente se almacenan en la nube o durante la transmisión podrían quedar completamente expuestos debido al posible descifrado cuántico en el futuro. El Libro Blanco sobre la Estrategia Global de Migración Postcuántica contra la Computación Cuántica de la Universidad Xi’an Jiaotong-Liverpool afirma de manera explícita que, a escala mundial, los adversarios están implementando de forma organizada esta estrategia de «recolección de datos», esperando con paciencia la llegada de «Q-Day» (el día en que la computación cuántica se vuelva práctica). Esto constituye una amenaza desde el origen para los modelos de IA que dependen del entrenamiento con datos sensibles (como historiales médicos, información financiera y rasgos biométricos).
En segundo lugar, tecnologías de computación privada como el aprendizaje federado enfrentan nuevas pruebas. El aprendizaje federado protege los datos originales mediante el entrenamiento del modelo en el entorno local y, únicamente, intercambiando actualizaciones de parámetros del modelo. Sin embargo, la información de gradientes o actualizaciones de parámetros que se intercambian también viaja cifrada. Si el cifrado subyacente es vulnerado por la computación cuántica, los atacantes podrían deducir de forma inversa características de los datos originales de las partes participantes, haciendo que los mecanismos de protección de la privacidad queden prácticamente sin efecto.
Por último, aumenta de forma drástica la dificultad del robo de modelos y la protección de la propiedad intelectual. Los modelos de IA ya entrenados son el activo central de las empresas. Actualmente, los pesos y las arquitecturas del modelo suelen distribuirse y desplegarse mediante cifrado. La computación cuántica podría volver ineficaces estas medidas, permitiendo que el modelo se copie fácilmente, se someta a ingeniería inversa o se altere, lo que desencadenaría graves infracciones de propiedad intelectual y vulnerabilidades de seguridad. En el «Libro Azul de Gobernanza de la Inteligencia Artificial», el Instituto de Investigación de las Comunicaciones e Información de China destaca que la gobernanza de la inteligencia artificial debe hacer frente a riesgos como el uso indebido tecnológico y la seguridad de los datos, y que la computación cuántica, sin duda, amplifica el poder destructivo de estos riesgos.
III. ¿Cómo influirá el desarrollo del aprendizaje automático cuántico en los marcos de seguridad y revisión ética de la IA?
La combinación de computación cuántica y IA —aprendizaje automático cuántico (QML)— anticipa un nuevo avance en eficacia. Pero al mismo tiempo, también trae problemas nuevos y sin precedentes de seguridad y ética, impactando los marcos de revisión existentes.
En el plano de seguridad, el QML puede generar herramientas de ataque más potentes. Por ejemplo, los algoritmos cuánticos podrían acelerar enormemente la generación de muestras adversarias, creando ataques más sigilosos y con mayor capacidad destructiva, que vuelvan rápidamente obsoletas las actuales defensas de seguridad de IA basadas en computación clásica (como el entrenamiento adversario y la detección de anomalías). Un análisis califica «cuántica + IA» como el próximo campo de batalla decisivo de vida o muerte en ciberseguridad, señalando que es necesario perfeccionar de manera prospectiva los marcos regulatorios correspondientes.
En el plano ético, la característica de «caja negra» del QML podría ser incluso más profunda que la de la IA clásica. Su proceso de decisión se basa en superposición cuántica y estados entrelazados, lo que podría hacerlo más difícil de explicar, auditar y responsabilizar. Las discusiones éticas y los riesgos que trae el QML, como la equidad algorítmica, la delimitación de responsabilidades y la capacidad de control técnico, ya han sido ampliamente explorados. ¿Cómo se materializan en una escala cuántica los actuales principios éticos de la IA (como transparencia, equidad y rendición de cuentas)? ¿Cómo revisan las autoridades regulatorias un modelo de decisión basado en circuitos cuánticos, que podría encontrarse en superposición de múltiples estados? Estos son problemas a los que los marcos actuales de revisión ética aún no están preparados. El modelo de gobernanza necesita pasar de la mera conformidad técnica a una comprensión más profunda de la esencia de las características cuánticas y de su impacto social.
IV. ¿Las normativas actuales de gobernanza de la IA (como el GDPR) pueden hacer frente a los cambios de seguridad que trae la computación cuántica?
Las normativas actuales de gobernanza de la IA y de los datos, representadas por el Reglamento General de Protección de Datos de la Unión Europea (GDPR), con principios centrales como «protección por diseño y protección por defecto», «minimización de datos», «limitación del almacenamiento» e «integridad y confidencialidad», conservan valor de guía a nivel conceptual. Sin embargo, en términos de implementación técnica específica y requisitos de cumplimiento, se enfrentan a la «brecha de cumplimiento» causada por la computación cuántica.
El GDPR exige que los responsables del tratamiento adopten medidas técnicas y organizativas apropiadas para garantizar la seguridad de los datos. Pero en el contexto de amenazas cuánticas, ¿qué es una medida de cifrado «apropiada»? Seguir usando algoritmos que se ha demostrado que no son seguros frente a la computación cuántica puede, muy probablemente, ser considerado en el futuro como un incumplimiento de las obligaciones de salvaguardas de seguridad. En cuanto a los plazos para notificar filtraciones de datos establecidos en la normativa, ¿cómo se pueden cumplir de manera efectiva cuando se enfrenta a ataques avanzados que explotan la computación cuántica y que podrían completarse de forma instantánea y sin dejar rastro?
A escala global, los legisladores ya son conscientes de la necesidad de cambios. El «Informe Anual Global de Gobernanza de la IA 2025» muestra que los países están acelerando la elaboración de leyes específicas de gobernanza de la IA y creando organismos de coordinación de alto nivel. En China, en el «Informe sobre el Desarrollo de China Digital (2024)», se enfatiza la necesidad de «acelerar la mejora del sistema básico para los datos», avanzando de manera continua con la iniciativa «IA+». Estos movimientos indican que el sistema de gobernanza está ajustándose activamente. Sin embargo, hasta ahora, las normativas dirigidas de manera específica al ámbito interseccional de «computación cuántica + IA» siguen casi en blanco. Las leyes existentes carecen de disposiciones concretas sobre el calendario de migración a criptografía postcuántica, los estándares de auditoría de modelos de QML y la clasificación de niveles de seguridad de datos en la era cuántica, por lo que resulta difícil responder de manera efectiva a los cambios de seguridad que se avecinan.
V. ¿Cuál es el panorama de aplicación y las dificultades de implementación de la criptografía postcuántica en los sistemas de IA?
La solución técnica más directa para hacer frente a las amenazas cuánticas es la criptografía postcuántica (PQC). PQC se refiere a algoritmos criptográficos capaces de resistir ataques por parte de computadoras cuánticas; no se basa en principios cuánticos, sino en nuevos problemas matemáticos que se cree que incluso las computadoras cuánticas tendrían dificultad para resolver rápidamente (como retículas, codificación, multivariables, etc.).
El panorama de aplicación en los sistemas de IA es amplio y urgente. PQC puede usarse para proteger cada etapa del flujo de trabajo de la IA: cifrar con algoritmos PQC los datos de entrenamiento y los archivos del modelo; usar firmas digitales PQC para verificar la integridad y autenticidad del origen del modelo; establecer canales de comunicación segura con PQC entre nodos de cómputo de IA distribuidos. Fortinet señala que PQC no es un concepto lejano, sino una solución práctica que responde a una necesidad urgente de proteger los sistemas digitales frente a posibles amenazas cuánticas.
Sin embargo, implementar PQC de manera integral presenta dificultades significativas:
Desafíos de rendimiento y compatibilidad: muchos algoritmos PQC requieren tamaños de clave, longitudes de firma o costos computacionales muy superiores a los de los algoritmos actuales; integrarlos en flujos de entrenamiento e inferencia de IA sensibles a la eficiencia y a la latencia podría generar cuellos de botella de rendimiento. Además, es necesario actualizar todo el hardware, el software y la pila de protocolos relacionados para asegurar la compatibilidad.
Complejidad de estándares y migración: aunque instituciones como el NIST de Estados Unidos están impulsando la estandarización de PQC, determinar el estándar final y lograr una unificación global aún tomará tiempo. Los «Datos dinámicos sobre la frontera de secretos comerciales» publicados por la Oficina Municipal de Gestión de Secretos de Beijing muestran que la industria está implementando activamente código abierto de algoritmos candidatos del NIST para ayudar a distintos sectores a responder a las amenazas. Toda la migración es una enorme y compleja ingeniería de sistema: involucra evaluación de riesgos, selección de algoritmos, despliegue híbrido, pruebas y reemplazo integral. Esto es especialmente cierto para ecosistemas de IA con estructuras complejas.
Nuevos riesgos de seguridad: los algoritmos PQC son un campo de investigación relativamente nuevo, y su seguridad a largo plazo aún no ha sido sometida a pruebas de criptanálisis práctico durante décadas como ocurre con RSA. Implementar de forma apresurada PQC con vulnerabilidades desconocidas en sistemas de IA también constituye un riesgo en sí mismo.
VI. Ante esta transformación, es peligroso esperar pasivamente un «Q-Day»
El impacto disruptivo de la computación cuántica en los sistemas actuales de seguridad y gobernanza de la IA es real y está cerca. No se trata de una destrucción total de los sistemas actuales, sino de forzar una actualización profunda y prospectiva de todo el sistema: descomponiendo sus bases criptográficas, amplificando sus riesgos de datos, complejizando sus problemas éticos y destacando su retraso regulatorio.
Ante esta transformación, esperar pasivamente un «Q-Day» es peligroso. Recomendamos adoptar las siguientes rutas de acción ejecutables:
Iniciar la evaluación de riesgos de seguridad cuántica y la elaboración de un inventario: evaluar de inmediato las amenazas cuánticas sobre los activos centrales de IA (especialmente los modelos y datos que involucran información sensible a largo plazo), identificar las partes más frágiles y establecer un inventario de prioridades para la migración.
Elaborar y aplicar una hoja de ruta de migración hacia PQC: prestar atención al progreso de organismos de estandarización como NIST e iniciar la planificación de la integración de PQC en el desarrollo y la operación de los sistemas de IA. Dar prioridad al diseño de «agilidad criptográfica» en sistemas nuevos y sistemas críticos, para facilitar el reemplazo sin fisuras de algoritmos criptográficos en el futuro. Puede considerarse como transición un modo híbrido de «clásica + PQC» con cifrado.
Impulsar actualizaciones adaptativas del marco de gobernanza: las organizaciones del sector, los organismos de estándares y las autoridades regulatorias deben colaborar para investigar y, a su vez, integrar requisitos de resistencia cuántica en estándares de seguridad de IA, normativas de protección de datos y sistemas de certificación de productos. Establecer con anticipación un marco de investigación y guías para la revisión ética de QML.
Fortalecer la formación de talento e investigación en múltiples disciplinas: desarrollar profesionales de perfil mixto que comprendan tanto IA como computación cuántica y criptografía, promover la inclusión de modelos de amenazas cuánticas en la investigación de seguridad de IA y financiar el desarrollo de tecnologías de seguridad de IA resistentes al cuántico.
Los desafíos que trae la computación cuántica son enormes, pero también nos brinda una oportunidad para reconsiderar y fortalecer la base del mundo digital. Mediante la planificación proactiva, la innovación coordinada y una gobernanza ágil, plenamente podemos construir un futuro de IA más resiliente: capaz de abrazar el beneficio de la capacidad de cómputo cuántica y, al mismo tiempo, resistir sus riesgos de seguridad.