Trump e Musk conversam sobre política por 2 horas no X Space, com uma série de políticos da Meme Token brincando com a criação de uma posição

Por que a IA precisa de governança Em duas comunidades de desenvolvedores AGI diferentes, uma em chinês e outra em inglês, a comunidade chinesa discute mais o aumento da produtividade trazido pela tecnologia de inteligência artificial, com maior ênfase no desenvolvimento de ferramentas de IA e na descoberta de demandas, para a atualização e reforma das estruturas industriais existentes. Enquanto isso, na comunidade de desenvolvedores em inglês, há maior foco em uma técnica representada pelo Auto-GPT, que busca alcançar uma execução totalmente automatizada e altamente inteligente de tarefas AGI. A exploração de duas trajetórias tecnológicas diferentes significa que as comunidades de desenvolvedores chineses e ingleses enfrentarão diferenças no risco e governança da IA no futuro. Os líderes de IA da comunidade inglesa estão muito mais conscientes dos riscos da IA do que os executivos de tecnologia na China. Por exemplo, no OpenAI Charter, pode-se ver que a OpenAI sempre considerou a segurança da IA e a regulamentação política adequada desde o início do seu desenvolvimento; a chamada para interromper o treinamento do GPT-5, iniciada por Musk, não teve presença na comunidade chinesa. Os desenvolvedores da comunidade chinesa devem se considerar como desenvolvedores globais e pensar e explorar de forma mais proativa como lidar com os novos riscos globais da era da AGI e a governança da AGI. No último artigo da OpenAI, para a governança da superinteligência, a ideia proposta é estabelecer um órgão regulador internacional, na verdade, a China deve participar ativamente desse processo, caso contrário, o poder discursivo da ordem tecnológica na era AGI estará em desvantagem, e o custo das correções subsequentes será alto, e o custo dessa correção não é apenas o custo dos benefícios econômicos, mas mais importante, a intrusão invisível baseada na disciplina moral ubíqua da IA.
Como mencionado no artigo “Apesar do desempenho “super-humano”, os atuais LLMs não são adequados para decisões sobre ética e segurança” Ao fornecer razões para as respostas do modelo, nos deparamos com vários problemas graves, incluindo a defesa das situações mais repugnantes e a ilusão de fatos inexistentes no contexto original. Esses problemas, juntamente com os ataques de reescrita acima mencionados e erros sistemáticos diferentes, deixam claro que os LLMs atuais são inadequados para tomar decisões éticas ou de segurança. Quando a IA ultrapassa os limites éticos de segurança e guia o público para uma posição moral em um contexto aparentemente racional, a comunicação em forma de diálogo, representada por modelos de linguagem de grande escala, continuará a aprimorar e construir uma base de fatos e teorias para complementar essa posição moral. As empresas de IA podem alcançar a ‘treinamento moral’ no domínio público por meio de ‘ilusões de raciocínio’. Partindo da proteção das políticas públicas e dos dados de privacidade pessoal, podemos discutir um modelo de governança AI distribuído, já que a AI capacita o surgimento de novos superindivíduos da próxima geração, indivíduos que terão dados em massa que ultrapassarão as organizações empresariais gerais atuais, e esses indivíduos devem ter maior poder de participação no diálogo público. Com o DAO representando o próximo paradigma organizacional, como garantir o apoio e a proteção das políticas públicas para a confirmação de ações e a segurança das transações de superindivíduos são desafios de governança que enfrentamos atualmente.

Governança super inteligente Sam AltmanGreg BrockmanIlya Sutskever
Agora é um bom momento para começar a pensar sobre a governança de superinteligência - os futuros sistemas de inteligência artificial terão capacidades ainda mais inovadoras do que a inteligência artificial geral (AGI). Com base no que podemos ver até agora, podemos imaginar que nos próximos dez anos, os sistemas de inteligência artificial superarão o nível de especialistas na maioria dos campos e serão capazes de realizar atividades de produção comparáveis ​​a uma das maiores empresas de hoje. A inteligência artificial superará outras tecnologias enfrentadas pela humanidade no passado, tanto em termos de potenciais benefícios quanto de aspectos negativos. Podemos ter um futuro de grande prosperidade, mas devemos gerenciar os riscos para alcançá-lo. Dado o potencial risco de sobrevivência, não podemos adotar apenas uma estratégia reativa. A energia nuclear é um exemplo histórico com essa característica; a biologia sintética é outro exemplo. Temos que mitigar os riscos da tecnologia de inteligência artificial de hoje, mas a superinteligência exigirá um tratamento e coordenação especiais. Um ponto de partida Há muitas ideias importantes que precisamos seguir de perto para guiar com sucesso esse processo de desenvolvimento. Aqui, discutimos três dessas ideias preliminarmente. Em primeiro lugar, precisamos coordenar os esforços de desenvolvimento principais para garantir que o desenvolvimento de superinteligências seja seguro e promova sua integração perfeita na sociedade. Isso pode ser alcançado de várias maneiras: os governos podem colaborar para estabelecer um projeto que reúna os atuais esforços; ou podemos alcançar subir limites de velocidade para a capacidade de inteligência artificial, a cada ano, a uma taxa específica, em conjunto com um protocolo (com o apoio de uma nova organização mencionada abaixo). Claro, devemos também exigir um alto nível de responsabilidade das empresas individuais e exigir que ajam com rigor. Em segundo lugar, é muito provável que, eventualmente, precisemos de uma organização semelhante à Agência Internacional de Energia Atômica (AIEA) para supervisionar os esforços em superinteligência. Qualquer esforço que ultrapasse um certo limiar de capacidade (ou recursos de cálculo, etc.) deve ser supervisionado por uma autoridade internacional que possa inspecionar o sistema, exigir auditorias, testar a conformidade com padrões de segurança e impor restrições ao nível de implantação e segurança. O rastreamento de cálculos e o uso de energia podem ter um grande impacto e nos dar alguma esperança na capacidade de implementar essa ideia. Como primeiro passo, a empresa pode concordar voluntariamente em começar a implementar alguns elementos que possam ser solicitados no futuro pela instituição, como segundo passo, países individuais podem implementar o quadro dessa instituição. Essas instituições devem se concentrar nos riscos potenciais de sobrevivência de Gota, em vez de resolver problemas que devem ser tratados individualmente pelos países, como definir o conteúdo permitido para ser expresso pela inteligência artificial. Em terceiro lugar, precisamos ter a capacidade técnica para garantir a segurança da superinteligência. Este é um problema de pesquisa aberto, para o qual nós e outros estamos a dedicar muitos esforços. Conteúdo fora do escopo Acreditamos que permitir que empresas e projetos de Código aberto desenvolvam modelos abaixo de um limiar de habilidade significativo é importante sem a necessidade de regulamentação, incluindo mecanismos como licenciamento ou auditoria tediosos, conforme descrito aqui. O sistema atual criará um enorme valor para o mundo, embora existam riscos envolvidos, esses níveis de risco são comparáveis ​​a outras tecnologias da internet e as medidas sociais parecem adequadas. Por outro lado, o sistema que seguimos terá a capacidade de superar qualquer tecnologia atual, por isso devemos ter cuidado para não enfraquecer a adesão a esses sistemas, aplicando padrões semelhantes a tecnologias muito aquém desse limiar. Participação Pública e Impacto Potencial No entanto, para governar os sistemas mais poderosos e tomar decisões sobre sua implantação, é necessária supervisão pública robusta. Acreditamos que as pessoas em todo o mundo devem decidir democraticamente os limites e as configurações padrão dos sistemas de IA. Embora ainda não saibamos como projetar tais mecanismos, planejamos realizar experimentos para impulsionar seu desenvolvimento. Em termos amplos, ainda acreditamos que os usuários individuais devem ter um grande controle sobre o comportamento dos sistemas de IA que eles usam. Dado os riscos e dificuldades, vale a pena pensar por que desenvolver essa tecnologia. Na OpenAI, temos duas razões principais. Em primeiro lugar, acreditamos que esta tecnologia trará um futuro melhor do que podemos imaginar hoje (já vimos alguns exemplos iniciais em áreas como educação, trabalho criativo e produtividade pessoal). O mundo enfrenta muitos problemas e precisamos de mais ajuda para resolvê-los; essa tecnologia pode melhorar nossa sociedade e a capacidade criativa de cada pessoa que usa essas novas ferramentas certamente nos surpreenderá. O aumento da economia e da qualidade de vida será surpreendente. Em segundo lugar, consideramos que parar a criação de superinteligência é uma tarefa arriscada e difícil em termos de intuição. Devido aos enormes benefícios trazidos pela superinteligência, o custo de construção dela está a aumentar rapidamente em Gota, assim como o número de participantes na sua construção, e ela é essencialmente parte do nosso desenvolvimento tecnológico. Para impedir o seu desenvolvimento, seriam necessárias medidas semelhantes a um sistema global de monitorização, mas mesmo com tais medidas, não há garantia de sucesso. Portanto, temos que fazer isso corretamente.


O caminho para AGI Aqui é onde o valor da cognição e dos recursos é transformado e onde você pode encontrar indivíduos superiores de AGI com ideais semelhantes, construindo assim uma comunidade colaborativa e criativa de AGI baseada no modelo DAO. Compartilhamento e interpretação de artigos AI de ponta, ajudando você a estabelecer uma vantagem de alguns meses na compreensão das tendências tecnológicas de ponta, com a oportunidade de participar de salões de artigos AI e possíveis colaborações com os autores dos artigos. 2. Compartilhar fontes de informação de alta qualidade aqui e explorar como essas fontes podem ajudar na construção de uma base de conhecimento sustentável a longo prazo para negócios pessoais. (Por exemplo, conhecimento de arbitragem em comunidades chinesas e inglesas). 3, análise estratégica do desenvolvimento individual e corporativo sobre a era AGI e Web3, consolidação da base e estratégia de alavancagem do desenvolvimento. * O plano do criador principal está prestes a ser lançado;

MEME0,28%
MAGA-1,57%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)