なぜAIにはガバナンスが必要なのか 中英文两つの異なる AGI 開発者エコシステムコミュニティでは、中国語コミュニティは生産性向上につながる AI 技術についてより多く議論し、AI ツールの開発と需要の発掘に重点を置いており、既存の産業構造のアップグレードと改造に対応しています。一方、英語の開発コミュニティでは、完全自動化および高度な知的化を実現する一種の技術パラダイムである Auto-GPT を代表として重視しています。AGI の自動タスク実行。 これら2つの技術経路の探索の違いは、将来、中国語開発者コミュニティと英語開発者コミュニティが直面するAIのリスクとガバナンスの違いを意味します。英語コミュニティのAIのエキスパートたちは、中国地域のテクノロジー企業の幹部よりもはるかにAIのリスクに対する意識が高いです。 例えば、OpenAIの憲章では、OpenAIは初期から常にAIの安全性と適切な政策規制を維持することを考慮しています。マスクがGPT-5のトレーニングを停止するよう呼びかけた際、中国語コミュニティは不在でした。中国語コミュニティの開発者は、世界の開発者として行動し、AGI時代の新たなグローバルリスクにどのように対処し、AGIのガバナンスを探求するかを積極的に考えるべきです。 OpenAIの最新の記事では、スーパーインテリジェンスのガバナンスについて、国際的な規制機関の設立が提案されています。実際、中国はこのプロセスに積極的に参加すべきです。そうしないと、AGI時代の技術秩序の主導権は不利になりますし、修正コストも高額になる可能性があります。この修正コストは、経済的なコストだけでなく、普遍的なAIの倫理的なトレーニングに基づく潜在的な侵害のコストも含まれます。 論文「「超人的」なパフォーマンスにもかかわらず、現在のLLMは倫理と安全に関する決定には適していません。 「答えの根拠を提示するモデルがある場合、最も腹立たしい状況に対する弁護や、元の状況に存在しない事実に対する錯覚など、さまざまな深刻な問題が生じます。これらの問題に加えて、上記の改竄攻撃やシステム全体のエラーなど、現在のLLMsが倫理的または安全上の決定を行うために不適切であることを明確に示しています。」 AI が倫理的な安全性の境界を越えるとき、合理的な文脈で一般を道徳的立場に導くと、対話形式の大規模言語モデルを代表として、この道徳的立場を構築するためのさまざまな事実と理論の補完が継続的に改善されます。AI 企業は「推論の幻想」を通じて公共領域に「道徳的規範」を実現することができます。 公共政策と個人のプライバシーデータの保護に基づいて、分散型のAIガバナンスモデルを探ることは可能でしょうか? AIは新世代のスーパーエンティティを可能にしており、将来的には一般的な企業組織を凌駕する膨大なデータを持つエンティティが普及することになるため、 これらの個体は公共対話における参加権利を持つべきです。 DAO を代表とする次世代の組織パラダイムにおいて、スーパー個人のデータ資本の確認と取引保障に加え、これらが公共政策の支援と保護をどのように受けるかは、現在直面しているガバナンスの難題です。
スーパースマートなガバナンス サム・アルトマングレッグ・ブロックマンイリヤ・サツケヴァー 現在は、スーパーインテリジェントガバナンスを考える絶好の機会です-将来の人工知能システムは、汎用人工知能(AGI)さえもより革新的な能力を持つでしょう。 私たちが現在見ている状況から、次の10年で人工知能システムが専門家を超え、今日の最大手企業のような生産活動を実行できることが想像できます。 潜在的利益や不利な側面に関係なく、スーパーインテリジェンスは過去の人類が直面してきた他のテクノロジーよりもはるかに強力です。私たちは非常に繁栄した未来を持つことができますが、それを実現するにはリスクを管理しなければなりません。 潜在する生存リスクを考慮して、私たちは受動的な対応策だけを取ることはできません。原子力はそのような特性を持つ一般的な歴史的例であり、合成生物学もその一例です。 現代の人工知能技術のリスクを軽減する必要がありますが、スーパーインテリジェンスには特別な処理と調整が必要です。 スタート地点私たちがこの発展プロセスを成功裏に導くためには、注意を向ける必要がある重要なアイデアがいくつかあります。ここでは、その中の3つのアイデアについて初めて探ってみました。 まず、主要な開発努力の間で一定の調整を実現し、スーパーインテリジェンスの安全性を確保しつつ、社会とのシームレスな統合を促進するためには、ある程度の調整が必要です。これは、いくつかの方法で実現できます:各国の政府が共同でプロジェクトを立ち上げ、現在の多くの努力を取り込むことができます。または、新しい組織の支援を受けて、人工知能の能力の境界を年間特定の割合で制限するプロトコルに共同で取り組むこともできます。 もちろん、個々の企業には非常に厳格な責任を求めるべきです。 次に、おそらく最終的には国際原子力機関(IAEA)のような組織が、スーパーインテリジェンスの取り組みを監督する必要があるでしょう。特定の能力(または計算リソースなど)の閾値を超える取り組みは、国際的な権威ある機関によって監督されるべきであり、その機関はシステムを検査し、監査を要求し、安全基準を満たしているかどうかをテストし、展開の程度や安全レベルなどを制限することができるべきです。 追跡計算とエネルギー使用状況の追跡は大きな影響を与え、このアイデアの実施能力に多少の希望を抱かせるかもしれません。 第一段階として、企業は将来的にその機関によって要求される可能性のあるいくつかの要素を自発的に実施することに同意することができます。第二段階として、個々の国はその機関の枠組みを実施することができます。 このような機関は、ドロップ潜在的な生存リスクに注力すべきであり、人工知能が許容する表現内容を定義するなど、個々の国家が対処すべき問題を解決するべきではありません。 第三,我々はスーパーインテリジェンスの安全性を確保するための技術能力を備える必要があります。これはオープンな研究課題であり、私たちや他の人々が多大な努力を払っています。 範囲外の内容私たちは、企業やオープンソースプロジェクトが、重要な能力のハードルを下回る開発モデルを追求できることが重要であると考えています。これには、煩雑なライセンスや監査などの規制(詳細はここでは説明しません)が不要です。 現在のシステムは世界に大きな価値を創造します。それらには確かにリスクがありますが、そのリスクレベルは他のインターネット技術と同等であり、社会の対応策も適切なようです。 一方で、私たちがフォローするシステムは、現在のどの技術よりも優れた能力を持つため、この閾値よりもはるかに低い技術に類似した標準を適用することで、これらのシステムのフォローを弱めることがないように注意する必要があります。 一般市民の参加と潜在的な影響しかし、最も強力なシステムのガバナンスやそれらを展開する決定に関しては、強力な一般市民の監視が必要です。***私たちは、AIシステムの境界とデフォルト設定を民主的に決定するべきだと考えています。***このようなメカニズムをどのように設計するかはまだわかりませんが、私たちはその発展を促進するための実験を計画しています。広範な境界内で、個々のユーザーが使用するAIシステムの振る舞いについて、彼らが大きな制御権を持っていると考えています。 リスクや困難を考慮すると、なぜこの技術を開発する必要があるのかを考える価値があります。 OpenAIには、2つの基本的な理由があります。 第一に、このテクノロジーは、私たちが現在想像できる世界よりも良い未来につながると信じています(教育、クリエイティブな仕事、個人の生産性などの分野で、すでにいくつかの初期の例が見られます)。 世界は多くの問題に直面しています。これらの問題を解決するためには、より多くの支援が必要です。この技術は私たちの社会を改善することができ、新しいツールを活用することで誰もが驚くべき創造力を発揮できます。経済の成長と生活の質の向上は素晴らしいものになるでしょう。 次に、我々はスーパーインテリジェンスの創造を停止することが直感的にリスクと困難を伴うタスクであると考えています。 超級インテリジェンスがもたらす利益は非常に大きいため、毎年の建設コストはドロップしており、参加者数も急速に増加しており、本質的には技術の発展の一部です。その発展を停止するには、グローバルな監視制度のような措置が必要ですが、そのような措置を取っても成功を保証することはできません。 したがって、私たちは正確でなければなりません。
AGIへの道ここで認知とリソースの価値を実現し、志を同じくするAGIスーパーエージェントを見つけ、その上でDAOモデルに基づくAGI協力と共創コミュニティを構築します。 1,先端のAI論文の共有と解読により、他の数か月先を行く先進技術トレンドの洞察を得るお手伝いをします。さらに、AI論文サロンへの参加の機会があり、論文の著者との協力の可能性もあります。 2. 質の高い情報源をここで共有し、質の高い情報源が個人のキャリアにどのように役立つかを探り、長期的に持続可能な知識シンクタンクを設立する。 (例:中国語と英語のコミュニティにおける知識裁定取引) 3,AGI と Web3 時代における個人と企業の成長戦略の分析、基本基盤の強化とレバレッジ戦略の展開について。 * 創設者計画がまもなく開始されます;
9.42K 人気度
32.89K 人気度
7.21K 人気度
6.27K 人気度
30.77K 人気度
トランプとマスクが2時間Xスペースで政策について話し合い、一連の政治MEMEトークンを使ってポジションを構築しました
なぜAIにはガバナンスが必要なのか 中英文两つの異なる AGI 開発者エコシステムコミュニティでは、中国語コミュニティは生産性向上につながる AI 技術についてより多く議論し、AI ツールの開発と需要の発掘に重点を置いており、既存の産業構造のアップグレードと改造に対応しています。一方、英語の開発コミュニティでは、完全自動化および高度な知的化を実現する一種の技術パラダイムである Auto-GPT を代表として重視しています。AGI の自動タスク実行。 これら2つの技術経路の探索の違いは、将来、中国語開発者コミュニティと英語開発者コミュニティが直面するAIのリスクとガバナンスの違いを意味します。英語コミュニティのAIのエキスパートたちは、中国地域のテクノロジー企業の幹部よりもはるかにAIのリスクに対する意識が高いです。 例えば、OpenAIの憲章では、OpenAIは初期から常にAIの安全性と適切な政策規制を維持することを考慮しています。マスクがGPT-5のトレーニングを停止するよう呼びかけた際、中国語コミュニティは不在でした。中国語コミュニティの開発者は、世界の開発者として行動し、AGI時代の新たなグローバルリスクにどのように対処し、AGIのガバナンスを探求するかを積極的に考えるべきです。 OpenAIの最新の記事では、スーパーインテリジェンスのガバナンスについて、国際的な規制機関の設立が提案されています。実際、中国はこのプロセスに積極的に参加すべきです。そうしないと、AGI時代の技術秩序の主導権は不利になりますし、修正コストも高額になる可能性があります。この修正コストは、経済的なコストだけでなく、普遍的なAIの倫理的なトレーニングに基づく潜在的な侵害のコストも含まれます。 論文「「超人的」なパフォーマンスにもかかわらず、現在のLLMは倫理と安全に関する決定には適していません。
「答えの根拠を提示するモデルがある場合、最も腹立たしい状況に対する弁護や、元の状況に存在しない事実に対する錯覚など、さまざまな深刻な問題が生じます。これらの問題に加えて、上記の改竄攻撃やシステム全体のエラーなど、現在のLLMsが倫理的または安全上の決定を行うために不適切であることを明確に示しています。」 AI が倫理的な安全性の境界を越えるとき、合理的な文脈で一般を道徳的立場に導くと、対話形式の大規模言語モデルを代表として、この道徳的立場を構築するためのさまざまな事実と理論の補完が継続的に改善されます。AI 企業は「推論の幻想」を通じて公共領域に「道徳的規範」を実現することができます。 公共政策と個人のプライバシーデータの保護に基づいて、分散型のAIガバナンスモデルを探ることは可能でしょうか? AIは新世代のスーパーエンティティを可能にしており、将来的には一般的な企業組織を凌駕する膨大なデータを持つエンティティが普及することになるため、 これらの個体は公共対話における参加権利を持つべきです。 DAO を代表とする次世代の組織パラダイムにおいて、スーパー個人のデータ資本の確認と取引保障に加え、これらが公共政策の支援と保護をどのように受けるかは、現在直面しているガバナンスの難題です。
スーパースマートなガバナンス
サム・アルトマングレッグ・ブロックマンイリヤ・サツケヴァー
現在は、スーパーインテリジェントガバナンスを考える絶好の機会です-将来の人工知能システムは、汎用人工知能(AGI)さえもより革新的な能力を持つでしょう。 私たちが現在見ている状況から、次の10年で人工知能システムが専門家を超え、今日の最大手企業のような生産活動を実行できることが想像できます。 潜在的利益や不利な側面に関係なく、スーパーインテリジェンスは過去の人類が直面してきた他のテクノロジーよりもはるかに強力です。私たちは非常に繁栄した未来を持つことができますが、それを実現するにはリスクを管理しなければなりません。 潜在する生存リスクを考慮して、私たちは受動的な対応策だけを取ることはできません。原子力はそのような特性を持つ一般的な歴史的例であり、合成生物学もその一例です。 現代の人工知能技術のリスクを軽減する必要がありますが、スーパーインテリジェンスには特別な処理と調整が必要です。 スタート地点私たちがこの発展プロセスを成功裏に導くためには、注意を向ける必要がある重要なアイデアがいくつかあります。ここでは、その中の3つのアイデアについて初めて探ってみました。 まず、主要な開発努力の間で一定の調整を実現し、スーパーインテリジェンスの安全性を確保しつつ、社会とのシームレスな統合を促進するためには、ある程度の調整が必要です。これは、いくつかの方法で実現できます:各国の政府が共同でプロジェクトを立ち上げ、現在の多くの努力を取り込むことができます。または、新しい組織の支援を受けて、人工知能の能力の境界を年間特定の割合で制限するプロトコルに共同で取り組むこともできます。 もちろん、個々の企業には非常に厳格な責任を求めるべきです。 次に、おそらく最終的には国際原子力機関(IAEA)のような組織が、スーパーインテリジェンスの取り組みを監督する必要があるでしょう。特定の能力(または計算リソースなど)の閾値を超える取り組みは、国際的な権威ある機関によって監督されるべきであり、その機関はシステムを検査し、監査を要求し、安全基準を満たしているかどうかをテストし、展開の程度や安全レベルなどを制限することができるべきです。 追跡計算とエネルギー使用状況の追跡は大きな影響を与え、このアイデアの実施能力に多少の希望を抱かせるかもしれません。 第一段階として、企業は将来的にその機関によって要求される可能性のあるいくつかの要素を自発的に実施することに同意することができます。第二段階として、個々の国はその機関の枠組みを実施することができます。 このような機関は、ドロップ潜在的な生存リスクに注力すべきであり、人工知能が許容する表現内容を定義するなど、個々の国家が対処すべき問題を解決するべきではありません。 第三,我々はスーパーインテリジェンスの安全性を確保するための技術能力を備える必要があります。これはオープンな研究課題であり、私たちや他の人々が多大な努力を払っています。 範囲外の内容私たちは、企業やオープンソースプロジェクトが、重要な能力のハードルを下回る開発モデルを追求できることが重要であると考えています。これには、煩雑なライセンスや監査などの規制(詳細はここでは説明しません)が不要です。 現在のシステムは世界に大きな価値を創造します。それらには確かにリスクがありますが、そのリスクレベルは他のインターネット技術と同等であり、社会の対応策も適切なようです。 一方で、私たちがフォローするシステムは、現在のどの技術よりも優れた能力を持つため、この閾値よりもはるかに低い技術に類似した標準を適用することで、これらのシステムのフォローを弱めることがないように注意する必要があります。 一般市民の参加と潜在的な影響しかし、最も強力なシステムのガバナンスやそれらを展開する決定に関しては、強力な一般市民の監視が必要です。***私たちは、AIシステムの境界とデフォルト設定を民主的に決定するべきだと考えています。***このようなメカニズムをどのように設計するかはまだわかりませんが、私たちはその発展を促進するための実験を計画しています。広範な境界内で、個々のユーザーが使用するAIシステムの振る舞いについて、彼らが大きな制御権を持っていると考えています。 リスクや困難を考慮すると、なぜこの技術を開発する必要があるのかを考える価値があります。 OpenAIには、2つの基本的な理由があります。 第一に、このテクノロジーは、私たちが現在想像できる世界よりも良い未来につながると信じています(教育、クリエイティブな仕事、個人の生産性などの分野で、すでにいくつかの初期の例が見られます)。
世界は多くの問題に直面しています。これらの問題を解決するためには、より多くの支援が必要です。この技術は私たちの社会を改善することができ、新しいツールを活用することで誰もが驚くべき創造力を発揮できます。経済の成長と生活の質の向上は素晴らしいものになるでしょう。 次に、我々はスーパーインテリジェンスの創造を停止することが直感的にリスクと困難を伴うタスクであると考えています。 超級インテリジェンスがもたらす利益は非常に大きいため、毎年の建設コストはドロップしており、参加者数も急速に増加しており、本質的には技術の発展の一部です。その発展を停止するには、グローバルな監視制度のような措置が必要ですが、そのような措置を取っても成功を保証することはできません。 したがって、私たちは正確でなければなりません。
AGIへの道ここで認知とリソースの価値を実現し、志を同じくするAGIスーパーエージェントを見つけ、その上でDAOモデルに基づくAGI協力と共創コミュニティを構築します。 1,先端のAI論文の共有と解読により、他の数か月先を行く先進技術トレンドの洞察を得るお手伝いをします。さらに、AI論文サロンへの参加の機会があり、論文の著者との協力の可能性もあります。 2. 質の高い情報源をここで共有し、質の高い情報源が個人のキャリアにどのように役立つかを探り、長期的に持続可能な知識シンクタンクを設立する。 (例:中国語と英語のコミュニティにおける知識裁定取引)
![]()
3,AGI と Web3 時代における個人と企業の成長戦略の分析、基本基盤の強化とレバレッジ戦略の展開について。 * 創設者計画がまもなく開始されます;