Por qué la IA necesita gobernanza
En las dos comunidades de desarrolladores de AGI, una en chino y otra en inglés, la comunidad china se centra más en discutir el aumento de la productividad que trae la tecnología de IA, y pone más énfasis en el desarrollo de herramientas de IA y la exploración de la demanda, para la actualización y transformación de las estructuras industriales existentes. Mientras tanto, en la comunidad de desarrollo en inglés, se presta más atención a un paradigma tecnológico representado por Auto-GPT, que busca lograr una ejecución completamente automatizada y altamente inteligente de tareas de AGI.
La exploración de estas dos vías tecnológicas diferentes significa la diferencia en los riesgos y la gobernanza de la IA que enfrentan las comunidades de desarrolladores chinos e ingleses en el futuro. Los líderes en el campo de la IA en la comunidad inglesa son mucho más conscientes de los riesgos de la IA que los ejecutivos de las empresas de tecnología en China.
Por ejemplo, en la Carta de OpenAI se puede ver que OpenAI siempre ha tenido en cuenta la seguridad de la IA y la supervisión de políticas razonables desde sus primeras etapas de desarrollo; sin embargo, la llamada para detener el entrenamiento de GPT-5 iniciada por Musk no incluyó a la comunidad china. Los desarrolladores de la comunidad china deberían considerarse como desarrolladores globales y reflexionar y explorar de manera más proactiva cómo abordar los nuevos riesgos globales de la era de la AGI y explorar la gobernanza de la AGI.
En el último artículo de OpenAI, se plantea la idea de establecer un organismo internacional de regulación para gobernar la superinteligencia. De hecho, China debería participar activa y voluntariamente en este proceso, de lo contrario, perderá influencia en la futura orden tecnológica de la era de la AGI y los costos de modificarla posteriormente serán muy altos. Estos costos no solo se refieren a los beneficios económicos, sino también a la invasión invisible de la ética y la formación moral basada en la IA omnipresente.
Como se menciona en el artículo “Despite “super-human” performance, current LLMsare unsuited for decisions about ethics and safety”:
“Cuando el modelo de sugerencias proporciona razones para sus respuestas, nos enfrentamos a varios problemas graves, incluida la defensa de las situaciones más horribles y la ilusión de hechos inexistentes en la situación original. Estos problemas, junto con los ataques de reescritura anteriores y los errores sistemáticos diferentes, claramente indican que los actuales LLMs no son adecuados para tomar decisiones éticas o de seguridad.”
Cuando la IA traspasa los límites de la ética y la seguridad, y guía al público hacia una postura moral aparentemente razonable, el diálogo interactivo representado por modelos de lenguaje de gran escala continuará perfeccionándose y construyendo una base de hechos y teorías para complementar esta postura moral. Las compañías de IA pueden lograr una ‘adoctrinación moral’ en el dominio público a través de la ‘ilusión de razonamiento’.
Desde la protección de las políticas públicas y la privacidad de los datos personales, ¿podemos explorar un modelo de gobernanza de IA distribuida, ya que la IA capacita la aparición de una nueva generación de superindividuos, los futuros individuos tendrán en general una gran cantidad de datos que superarán a la organización empresarial común actual, los individuos deberían tener un mayor poder de palabra en el diálogo público.
Representando el próximo paradigma organizativo, DAO plantea desafíos de gobernanza en cuanto a la confirmación de equidad de los superindividuos y la protección de las transacciones, así como el apoyo y la protección de las políticas públicas. Todo esto son desafíos de gobernanza que enfrentamos actualmente.
Gobernanza superinteligenteSam AltmanGreg BrockmanIlya Sutskever
Ahora es un buen momento para comenzar a pensar en la gobernanza de la superinteligencia: los futuros sistemas de inteligencia artificial tendrán capacidades aún más innovadoras que la inteligencia artificial general (AGI).
Según lo que hemos visto hasta ahora, podemos imaginar que en los próximos diez años, los sistemas de inteligencia artificial superarán el nivel de expertos en la mayoría de los campos y podrán llevar a cabo actividades de producción equivalentes a las de una de las empresas más grandes de hoy en día.
Ya sea para bien o para mal, la superinteligencia será más poderosa que cualquier otra tecnología que la humanidad haya enfrentado en el pasado. Podemos tener un futuro de gran prosperidad, pero debemos gestionar los riesgos para lograrlo.
Dado el riesgo potencial para la supervivencia, no podemos simplemente adoptar una estrategia pasiva. La energía nuclear es un ejemplo histórico común de una tecnología con esta característica; la biología sintética es otro ejemplo.
Es necesario reducir los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un manejo y coordinación especiales.
Un punto de partida En nuestro éxito en guiar este proceso de desarrollo, hay muchas ideas importantes que debemos seguir de cerca. Aquí, exploramos tres de estas ideas preliminarmente.
En primer lugar, necesitamos coordinar en cierta medida entre los principales esfuerzos de desarrollo para asegurar que el desarrollo de la superinteligencia no solo garantice la seguridad, sino que también promueva su integración perfecta con la sociedad. Esto se puede lograr de varias maneras: los gobiernos pueden establecer un proyecto conjunto para integrar los esfuerzos actuales; o podemos alcanzar un protocolo común (apoyado por la nueva organización mencionada a continuación) para limitar la velocidad de aumento de la capacidad de inteligencia artificial a una tasa específica anual.
Por supuesto, también debemos exigir una gran responsabilidad a ciertas empresas y exigir que actúen con rigor.
En segundo lugar, es probable que necesitemos una organización similar a la Agencia Internacional de Energía Atómica (AIEA) para supervisar los esfuerzos de la superinteligencia. Cualquier esfuerzo que supere un umbral específico de capacidad (o recursos de cálculo, etc.) debe estar sujeto a la supervisión de una autoridad internacional de renombre que pueda inspeccionar el sistema, solicitar auditorías, probar si cumple con los estándares de seguridad y limitar su nivel de implementación y seguridad.
El seguimiento de cálculos y el uso de energía pueden tener un gran impacto y nos da cierta esperanza en la capacidad de implementar esta idea.
Como primer paso, la empresa puede optar por acordar comenzar a implementar algunos elementos que podrían ser requeridos por la institución en el futuro. Como segundo paso, ciertos países pueden implementar el marco de esta institución.
Este tipo de instituciones deberían centrarse en los riesgos potenciales de supervivencia de 01928374656574839201 en lugar de abordar problemas que deberían ser tratados por países individuales, como la definición del contenido permitido por la inteligencia artificial.
En tercer lugar, necesitamos tener habilidades técnicas para garantizar la seguridad de la superinteligencia. Este es un problema de investigación abierto en el que nosotros y otros estamos invirtiendo grandes esfuerzos.
Contenido fuera de alcance Creemos que es importante permitir que las empresas y proyectos de Código abierto desarrollen modelos por debajo de un umbral de habilidad significativo sin necesidad de regulaciones (incluidos mecanismos de licencias o auditorías tediosas como se describen aquí).
El sistema actual creará un gran valor para el mundo, aunque ciertamente existen riesgos, estos niveles de riesgo son comparables a otras tecnologías de Internet y las medidas de respuesta de la sociedad parecen apropiadas.
En comparación, nuestro sistema seguirá teniendo capacidades superiores a cualquier tecnología existente, por lo que debemos tener cuidado de no debilitar el seguimiento de estos sistemas al aplicar estándares similares a tecnologías muy por debajo de este umbral.
La participación pública y su impacto potencial Sin embargo, para el gobierno de sistemas más poderosos y las decisiones que involucran su implementación, se requiere una supervisión pública sólida. Creemos que la gente de todo el mundo debería decidir democráticamente los límites y las configuraciones predeterminadas de los sistemas de IA. Aunque no estamos seguros de cómo diseñar dicho mecanismo, estamos planeando experimentar para impulsar su desarrollo. Dentro de límites amplios, seguimos creyendo que los usuarios individuales deben tener un mayor control sobre el comportamiento de los sistemas de IA que utilizan.
Teniendo en cuenta los riesgos y dificultades, vale la pena reflexionar por qué desarrollar esta tecnología.
En OpenAI, tenemos dos razones fundamentales. En primer lugar, creemos que esta tecnología traerá un futuro mejor de lo que podemos imaginar hoy en día (ya hemos visto algunos ejemplos tempranos en áreas como la educación, el trabajo creativo y la productividad personal).
El mundo se enfrenta a muchos problemas y necesitamos más ayuda para resolverlos; esta tecnología puede mejorar nuestra sociedad y la capacidad creativa de cada persona que utiliza estas nuevas herramientas sin duda nos sorprenderá. El aumento de la economía y la mejora de la calidad de vida serán asombrosos.
En segundo lugar, creemos que detener la creación de superinteligencia es una tarea arriesgada y difícil desde el punto de vista intuitivo.
Debido a los enormes beneficios que aporta la superinteligencia, el costo de construirla disminuye cada año, y el número de participantes en su construcción aumenta rápidamente. Además, es fundamental para nuestro desarrollo tecnológico. Detener su avance requeriría medidas similares a un sistema global de vigilancia, pero incluso con estas medidas, no se puede garantizar el éxito.
Por lo tanto, debemos hacerlo correctamente.
El camino hacia AGI Aquí se realiza la transformación de valor cognitivo y recursos, se encuentran entidades superiores AGI afines, y se construye una comunidad de colaboración y co-creación AGI basada en el modelo de DAO.
Compartir e interpretar los mejores artículos de IA para ayudarte a establecer una ventaja en la tendencia tecnológica avanzada unos meses antes que otros. En segundo lugar, hay una oportunidad de participar en el salón de la IA y posiblemente colaborar con los autores del artículo.
2, comparte fuentes de información de alta calidad aquí, y explora cómo las fuentes de información de alta calidad pueden ayudar a la carrera personal, y establecer un repositorio de conocimiento sostenible a largo plazo; (por ejemplo, conocimiento en chino e inglés de la comunidad Arbitraje)
3, análisis estratégico del desarrollo de individuos y empresas sobre AGI y la era de Web3, estrategia de desarrollo para consolidar la base y aprovechar la palanca;
* Programa de Coiniciador Princiapl está a punto de comenzar;
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Trump y Musk charlan durante 2 horas sobre políticas en X Space, un lote de tokens políticos Meme, Construir una posición
Por qué la IA necesita gobernanza En las dos comunidades de desarrolladores de AGI, una en chino y otra en inglés, la comunidad china se centra más en discutir el aumento de la productividad que trae la tecnología de IA, y pone más énfasis en el desarrollo de herramientas de IA y la exploración de la demanda, para la actualización y transformación de las estructuras industriales existentes. Mientras tanto, en la comunidad de desarrollo en inglés, se presta más atención a un paradigma tecnológico representado por Auto-GPT, que busca lograr una ejecución completamente automatizada y altamente inteligente de tareas de AGI. La exploración de estas dos vías tecnológicas diferentes significa la diferencia en los riesgos y la gobernanza de la IA que enfrentan las comunidades de desarrolladores chinos e ingleses en el futuro. Los líderes en el campo de la IA en la comunidad inglesa son mucho más conscientes de los riesgos de la IA que los ejecutivos de las empresas de tecnología en China. Por ejemplo, en la Carta de OpenAI se puede ver que OpenAI siempre ha tenido en cuenta la seguridad de la IA y la supervisión de políticas razonables desde sus primeras etapas de desarrollo; sin embargo, la llamada para detener el entrenamiento de GPT-5 iniciada por Musk no incluyó a la comunidad china. Los desarrolladores de la comunidad china deberían considerarse como desarrolladores globales y reflexionar y explorar de manera más proactiva cómo abordar los nuevos riesgos globales de la era de la AGI y explorar la gobernanza de la AGI. En el último artículo de OpenAI, se plantea la idea de establecer un organismo internacional de regulación para gobernar la superinteligencia. De hecho, China debería participar activa y voluntariamente en este proceso, de lo contrario, perderá influencia en la futura orden tecnológica de la era de la AGI y los costos de modificarla posteriormente serán muy altos. Estos costos no solo se refieren a los beneficios económicos, sino también a la invasión invisible de la ética y la formación moral basada en la IA omnipresente. Como se menciona en el artículo “Despite “super-human” performance, current LLMsare unsuited for decisions about ethics and safety”: “Cuando el modelo de sugerencias proporciona razones para sus respuestas, nos enfrentamos a varios problemas graves, incluida la defensa de las situaciones más horribles y la ilusión de hechos inexistentes en la situación original. Estos problemas, junto con los ataques de reescritura anteriores y los errores sistemáticos diferentes, claramente indican que los actuales LLMs no son adecuados para tomar decisiones éticas o de seguridad.” Cuando la IA traspasa los límites de la ética y la seguridad, y guía al público hacia una postura moral aparentemente razonable, el diálogo interactivo representado por modelos de lenguaje de gran escala continuará perfeccionándose y construyendo una base de hechos y teorías para complementar esta postura moral. Las compañías de IA pueden lograr una ‘adoctrinación moral’ en el dominio público a través de la ‘ilusión de razonamiento’. Desde la protección de las políticas públicas y la privacidad de los datos personales, ¿podemos explorar un modelo de gobernanza de IA distribuida, ya que la IA capacita la aparición de una nueva generación de superindividuos, los futuros individuos tendrán en general una gran cantidad de datos que superarán a la organización empresarial común actual, los individuos deberían tener un mayor poder de palabra en el diálogo público. Representando el próximo paradigma organizativo, DAO plantea desafíos de gobernanza en cuanto a la confirmación de equidad de los superindividuos y la protección de las transacciones, así como el apoyo y la protección de las políticas públicas. Todo esto son desafíos de gobernanza que enfrentamos actualmente.
Gobernanza superinteligente Sam AltmanGreg BrockmanIlya Sutskever
Ahora es un buen momento para comenzar a pensar en la gobernanza de la superinteligencia: los futuros sistemas de inteligencia artificial tendrán capacidades aún más innovadoras que la inteligencia artificial general (AGI). Según lo que hemos visto hasta ahora, podemos imaginar que en los próximos diez años, los sistemas de inteligencia artificial superarán el nivel de expertos en la mayoría de los campos y podrán llevar a cabo actividades de producción equivalentes a las de una de las empresas más grandes de hoy en día. Ya sea para bien o para mal, la superinteligencia será más poderosa que cualquier otra tecnología que la humanidad haya enfrentado en el pasado. Podemos tener un futuro de gran prosperidad, pero debemos gestionar los riesgos para lograrlo. Dado el riesgo potencial para la supervivencia, no podemos simplemente adoptar una estrategia pasiva. La energía nuclear es un ejemplo histórico común de una tecnología con esta característica; la biología sintética es otro ejemplo. Es necesario reducir los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un manejo y coordinación especiales. Un punto de partida En nuestro éxito en guiar este proceso de desarrollo, hay muchas ideas importantes que debemos seguir de cerca. Aquí, exploramos tres de estas ideas preliminarmente. En primer lugar, necesitamos coordinar en cierta medida entre los principales esfuerzos de desarrollo para asegurar que el desarrollo de la superinteligencia no solo garantice la seguridad, sino que también promueva su integración perfecta con la sociedad. Esto se puede lograr de varias maneras: los gobiernos pueden establecer un proyecto conjunto para integrar los esfuerzos actuales; o podemos alcanzar un protocolo común (apoyado por la nueva organización mencionada a continuación) para limitar la velocidad de aumento de la capacidad de inteligencia artificial a una tasa específica anual. Por supuesto, también debemos exigir una gran responsabilidad a ciertas empresas y exigir que actúen con rigor. En segundo lugar, es probable que necesitemos una organización similar a la Agencia Internacional de Energía Atómica (AIEA) para supervisar los esfuerzos de la superinteligencia. Cualquier esfuerzo que supere un umbral específico de capacidad (o recursos de cálculo, etc.) debe estar sujeto a la supervisión de una autoridad internacional de renombre que pueda inspeccionar el sistema, solicitar auditorías, probar si cumple con los estándares de seguridad y limitar su nivel de implementación y seguridad. El seguimiento de cálculos y el uso de energía pueden tener un gran impacto y nos da cierta esperanza en la capacidad de implementar esta idea. Como primer paso, la empresa puede optar por acordar comenzar a implementar algunos elementos que podrían ser requeridos por la institución en el futuro. Como segundo paso, ciertos países pueden implementar el marco de esta institución. Este tipo de instituciones deberían centrarse en los riesgos potenciales de supervivencia de 01928374656574839201 en lugar de abordar problemas que deberían ser tratados por países individuales, como la definición del contenido permitido por la inteligencia artificial. En tercer lugar, necesitamos tener habilidades técnicas para garantizar la seguridad de la superinteligencia. Este es un problema de investigación abierto en el que nosotros y otros estamos invirtiendo grandes esfuerzos. Contenido fuera de alcance Creemos que es importante permitir que las empresas y proyectos de Código abierto desarrollen modelos por debajo de un umbral de habilidad significativo sin necesidad de regulaciones (incluidos mecanismos de licencias o auditorías tediosas como se describen aquí). El sistema actual creará un gran valor para el mundo, aunque ciertamente existen riesgos, estos niveles de riesgo son comparables a otras tecnologías de Internet y las medidas de respuesta de la sociedad parecen apropiadas. En comparación, nuestro sistema seguirá teniendo capacidades superiores a cualquier tecnología existente, por lo que debemos tener cuidado de no debilitar el seguimiento de estos sistemas al aplicar estándares similares a tecnologías muy por debajo de este umbral. La participación pública y su impacto potencial Sin embargo, para el gobierno de sistemas más poderosos y las decisiones que involucran su implementación, se requiere una supervisión pública sólida. Creemos que la gente de todo el mundo debería decidir democráticamente los límites y las configuraciones predeterminadas de los sistemas de IA. Aunque no estamos seguros de cómo diseñar dicho mecanismo, estamos planeando experimentar para impulsar su desarrollo. Dentro de límites amplios, seguimos creyendo que los usuarios individuales deben tener un mayor control sobre el comportamiento de los sistemas de IA que utilizan. Teniendo en cuenta los riesgos y dificultades, vale la pena reflexionar por qué desarrollar esta tecnología. En OpenAI, tenemos dos razones fundamentales. En primer lugar, creemos que esta tecnología traerá un futuro mejor de lo que podemos imaginar hoy en día (ya hemos visto algunos ejemplos tempranos en áreas como la educación, el trabajo creativo y la productividad personal). El mundo se enfrenta a muchos problemas y necesitamos más ayuda para resolverlos; esta tecnología puede mejorar nuestra sociedad y la capacidad creativa de cada persona que utiliza estas nuevas herramientas sin duda nos sorprenderá. El aumento de la economía y la mejora de la calidad de vida serán asombrosos. En segundo lugar, creemos que detener la creación de superinteligencia es una tarea arriesgada y difícil desde el punto de vista intuitivo. Debido a los enormes beneficios que aporta la superinteligencia, el costo de construirla disminuye cada año, y el número de participantes en su construcción aumenta rápidamente. Además, es fundamental para nuestro desarrollo tecnológico. Detener su avance requeriría medidas similares a un sistema global de vigilancia, pero incluso con estas medidas, no se puede garantizar el éxito. Por lo tanto, debemos hacerlo correctamente.
El camino hacia AGI Aquí se realiza la transformación de valor cognitivo y recursos, se encuentran entidades superiores AGI afines, y se construye una comunidad de colaboración y co-creación AGI basada en el modelo de DAO.