分散化AI研究:分散化AIの概念、アーキテクチャー、および業界の整理

金色财经_

紹介

デジタル時代において、人工知能(AI)は技術革新と社会進歩を推進する鍵となる力となりました。AIの発展は技術の進歩だけでなく、人間の知恵の延長でもあります。AIは過去の一定期間、ベンチャーキャピタル業界や資本市場で最も注目されているトピックの1つでした。

ブロックチェーン技術の発展とともに、分散型AI(Decentralized AI)が登場し、本文では分散型AIの定義、アーキテクチャ、そして人工知能産業との連携方法について解説します。

分散型AIの定義とアーキテクチャ

!

分散化AIは、分散化された計算リソースとデータストレージを利用して、AIモデルを分散的にトレーニングおよび使用し、プライバシーとセキュリティを強化します。その主な4つのレイヤー構造には、

モデル層: 分散型のAIモデルの開発、共有、取引をサポートし、世界中での協力とイノベーションを促進します**。**このレイヤーの代表的なプロジェクトには、Bittensorがあり、ブロックチェーン技術を利用して、世界規模のAIモデル共有および協力プラットフォームを作成しています。

• トレーニングレイヤー:スマートコントラクトと分散型テクノロジーを使用して、AIモデルのトレーニングのコストを削減し、プロセスを簡素化し、トレーニングの効率を向上させます。 このレベルでの課題は、分散コンピューティングリソースを効果的に使用して効率的なモデルトレーニングを行う方法です。

• **データ層:**ブロックチェーン技術を利用してデータを保存し管理し、データの安全性と改ざん不可性を確保し、同時にユーザーに完全なデータコントロール権を与える。このレベルの応用例としては、分散型データマーケットなどがあり、ブロックチェーン技術によってデータの透明な取引と所有権確認が実現されています。

• **ハッシュレート層:**分散型GPUハッシュレートプラットフォームと帯域幅サポートを通じて、分散コンピューティングリソースを提供し、AIモデルの効率的なトレーニングと推論をサポートします。エッジコンピューティングや分散GPUネットワークなどの技術進歩は、AIモデルのトレーニングと推論に新たなソリューションを提供しています。

分散型AIの代表的なプロジェクト

!

分散型AI産業コーミング:モデルレイヤー

モデル層:大規模なモデルパラメータの指数関数的な増加により、モデルのパフォーマンスが著しく向上していますが、モデルのスケールをさらに拡張することによる利益は徐々に減少しています。この傾向は、パフォーマンスを維持しながらコストとリソース消費を削減する方法を再考する必要があります。

!

AIの大きなモデルの開発は、「スケールの法則」と呼ばれるものに従います。つまり、モデルの性能は、パラメータの規模、データセットのサイズ、計算量と関係があります。

!

モデルが特定のサイズにスケーリングされると、特定のタスクでのパフォーマンスが突然大幅に向上します。 大規模モデルのパラメータ数が増えると、モデル性能の向上は徐々に低下し、パラメータスケールとモデル性能のバランスをどう取るかが今後の開発のカギとなります。

!

私たちは、AIの大規模モデルのAPI価格競争が激化し、多くのベンダーが市場シェアを拡大するために価格を引き下げていることを見ています。しかし、大規模モデルの性能が同質化するにつれて、API収入の持続性も疑問視されています。将来的な課題として、高いユーザーの粘着性を維持し、収益を向上させる方法が求められるでしょう。

!

!

サイドエンドモデルの適用により、データの精度を低下させ、ハイブリッドエキスパートモデル(MoE)アーキテクチャを採用することにより、データの圧縮とモデルのサイズの軽減が実現されます。モデルの量子化技術により、32ビット浮動小数点データを8ビットに圧縮することができ、モデルのサイズとメモリ消費を大幅に削減することができます。これにより、モデルはエンドデバイス上で効率的に実行され、AI技術の普及が推進されます。

!

まとめ:ブロックチェーンは、モデル層の透明性、協調性、およびユーザー参加度を向上させるのに役立ちます。

!

中心化AI産業の整理:トレーニングレイヤー

**トレーニングレイヤー:**大規模モデルのトレーニングには、高帯域幅と低遅延の通信が必要であり、分散型の計算力ネットワークを使用して大規模モデルのトレーニングを試みる可能性があります。このレベルの課題は、通信と計算リソースの割り当てを最適化して、より効率的なモデルトレーニングを実現する方法です。

!

**分散型の計算力ネットワークは大規模モデルのトレーニングにおいて一定の潜在能力を持っています。**通信コストが高すぎるという課題がありますが、スケジューリングアルゴリズムの最適化やデータ転送量の圧縮により、トレーニング効率を大幅に向上させることができます。しかし、実環境でのネットワーク遅延やデータ転送のボトルネックを克服する方法は、分散型トレーニングが直面する主要な課題です

!

分散型の計算力ネットワークでの大規模モデルトレーニングの制約事項を解決するために、データの圧縮、スケジュールの最適化、ローカルな更新と同期などの技術を採用することができます。これらの手法は通信コストを削減し、トレーニング効率を向上させ、分散型の計算力ネットワークが大規模モデルトレーニングにおいて実行可能な選択肢となります。

!

ゼロ知識機械学習(zkML)は、ゼロ知識証明と機械学習技術を組み合わせ、トレーニングデータとモデルの詳細を公開せずにモデルの検証と推論を行うことを可能にします。この技術は、医療や金融などのデータの機密性が高い業界に特に適しており、データのプライバシーを保護しながらAIモデルの正確性と信頼性を検証することができます。

!

分散型AI業界の連携:データレイヤー

データのプライバシーとセキュリティはAIの発展における重要な問題となっています。分散データストレージおよび処理技術はこれらの問題の解決策を提供しています。

データの保存、データのインデックス、およびデータの使用は、分散型AIシステムの正常な動作を確保するための重要な要素です。** FilecoinやArweaveなどの分散型ストレージプラットフォームは、データのセキュリティとプライバシー保護の新しい解決策を提供し、ストレージコストを削減します****。**

!

!

分散型ストレージのケース:

!

!

  • 2020年以来、Arweaveのデータストレージの規模は急速に成長しており、それは主にNFT市場とWeb3アプリケーションの需要によるものです。Arweaveを通じて、ユーザーは分散型の永続的なデータストレージを実現し、長期的なデータストレージの問題を解決することができます。
  • AO项目はArweaveエコシステムをさらに強化し、ユーザーにより強力な計算能力とより広範なアプリケーションシナリオを提供します。

!

このページでは、ArweaveとFilecoinという2つの分散型ストレージプロジェクトを比較します。 Arweaveは1回限りの支払いで永久ストレージを可能にしますが、Filecoinは柔軟なストレージサービスの提供に重点を置いた月払いモデルを使用しています。 どちらも技術アーキテクチャ、ビジネス規模、市場ポジショニングの点で独自の利点があり、ユーザーは特定のニーズに応じて適切なソリューションを選択できます。

分散型AI業界の整理:パワーレイヤー

コンピューティングパワーレイヤー:AIモデルの複雑さが増すにつれて、コンピューティングリソースの需要も高まります。 **分散型コンピューティングパワーネットワークの出現は、AIモデルのトレーニングと推論のためのリソース割り当ての新しい方法を提供します。 **

!

!

分散型の計算ネットワーク(およびトレーニングおよび推論に使用される専用の計算ネットワーク)は、DeAI競技場で最も活発で最も急速に発展している分野です。これは、現実世界のインフラストラクチャプロバイダーがAI産業チェーンの豊富な果実を刈り取ったことに一致します。GPUなどの計算リソースが不足する状態が続く中、計算リソースハードウェア機器を持つメーカーがこの分野に進出しています。

!

Aethir ケース:

!

ビジネスモデル:算力レンタルの二辺市場

  • 分散化された計算力市場は、本質的にはWeb3テクノロジーを利用してグリッドコンピューティングの概念を経済的なインセンティブと信頼の必要性がない環境で拡張しています。CPUやGPUなどのリソースプロバイダーがアイドル状態の計算力を分散化ネットワークに貢献することで、一定規模の分散化された計算力サービス市場が形成されます。また、計算力リソースの需要者(モデルプロバイダーなど)とより低コストで柔軟な方法で計算力サービスリソースを提供します。分散化された計算力市場は、中央集権的なクラウドサービスプロバイダーに対する挑戦でもあります。 *分散型のクラウドのように動作し、さまざまなアプリケーションに計算リソースを提供する一般型と、特定の用途のためにカスタマイズされた計算ネットワークの専用型に、分散型の計算力市場は、そのサービスのタイプに基づいてさらに分類されます。たとえば、Render Networkは、レンダリングワークロードに特化した専用型計算ネットワークであり、GensynはMLモデルトレーニングに特化した専用型計算ネットワークであり、io.netは一般型計算ネットワークの例です。
  • 分散型インフラストラクチャでモデルをトレーニングする際のDeAIの大きな課題は、膨大な計算能力、帯域幅の制約、および世界中のさまざまなベンダーの異種ハードウェアの使用によって引き起こされる高遅延です。 その結果、専用の AI コンピューティング ネットワークは、汎用コンピューティング ネットワークよりも多くの AI 固有の機能を提供できます。 現在、MLモデルの集中トレーニングは依然として最も効率的で安定したプロジェクトですが、プロジェクト当事者の資本力に対する非常に高い要件を提唱しています。

エピローグ

**分散型AIは、データのプライバシー、セキュリティ、費用対効果の面で徐々に優位性を発揮している新しいテクノロジートレンドです。 次の記事では、分散型AIのリスクと課題、そして今後の方向性を探ります。 **

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
志在方圆vip
· 2024-12-11 14:59
牛が戻ってきてスピードが戻る 🐂
原文表示返信0