紹介
デジタル時代において、人工知能(AI)は技術革新と社会進歩を推進する鍵となる力となりました。AIの発展は技術の進歩だけでなく、人間の知恵の延長でもあります。AIは過去の一定期間、ベンチャーキャピタル業界や資本市場で最も注目されているトピックの1つでした。
ブロックチェーン技術の発展とともに、分散型AI(Decentralized AI)が登場し、本文では分散型AIの定義、アーキテクチャ、そして人工知能産業との連携方法について解説します。
分散型AIの定義とアーキテクチャ
分散化AIは、分散化された計算リソースとデータストレージを利用して、AIモデルを分散的にトレーニングおよび使用し、プライバシーとセキュリティを強化します。その主な4つのレイヤー構造には、
• モデル層: 分散型のAIモデルの開発、共有、取引をサポートし、世界中での協力とイノベーションを促進します**。**このレイヤーの代表的なプロジェクトには、Bittensorがあり、ブロックチェーン技術を利用して、世界規模のAIモデル共有および協力プラットフォームを作成しています。
• トレーニングレイヤー:スマートコントラクトと分散型テクノロジーを使用して、AIモデルのトレーニングのコストを削減し、プロセスを簡素化し、トレーニングの効率を向上させます。 このレベルでの課題は、分散コンピューティングリソースを効果的に使用して効率的なモデルトレーニングを行う方法です。
• **データ層:**ブロックチェーン技術を利用してデータを保存し管理し、データの安全性と改ざん不可性を確保し、同時にユーザーに完全なデータコントロール権を与える。このレベルの応用例としては、分散型データマーケットなどがあり、ブロックチェーン技術によってデータの透明な取引と所有権確認が実現されています。
• **ハッシュレート層:**分散型GPUハッシュレートプラットフォームと帯域幅サポートを通じて、分散コンピューティングリソースを提供し、AIモデルの効率的なトレーニングと推論をサポートします。エッジコンピューティングや分散GPUネットワークなどの技術進歩は、AIモデルのトレーニングと推論に新たなソリューションを提供しています。
分散型AIの代表的なプロジェクト
分散型AI産業コーミング:モデルレイヤー
モデル層:大規模なモデルパラメータの指数関数的な増加により、モデルのパフォーマンスが著しく向上していますが、モデルのスケールをさらに拡張することによる利益は徐々に減少しています。この傾向は、パフォーマンスを維持しながらコストとリソース消費を削減する方法を再考する必要があります。
AIの大きなモデルの開発は、「スケールの法則」と呼ばれるものに従います。つまり、モデルの性能は、パラメータの規模、データセットのサイズ、計算量と関係があります。
モデルが特定のサイズにスケーリングされると、特定のタスクでのパフォーマンスが突然大幅に向上します。 大規模モデルのパラメータ数が増えると、モデル性能の向上は徐々に低下し、パラメータスケールとモデル性能のバランスをどう取るかが今後の開発のカギとなります。
私たちは、AIの大規模モデルのAPI価格競争が激化し、多くのベンダーが市場シェアを拡大するために価格を引き下げていることを見ています。しかし、大規模モデルの性能が同質化するにつれて、API収入の持続性も疑問視されています。将来的な課題として、高いユーザーの粘着性を維持し、収益を向上させる方法が求められるでしょう。
サイドエンドモデルの適用により、データの精度を低下させ、ハイブリッドエキスパートモデル(MoE)アーキテクチャを採用することにより、データの圧縮とモデルのサイズの軽減が実現されます。モデルの量子化技術により、32ビット浮動小数点データを8ビットに圧縮することができ、モデルのサイズとメモリ消費を大幅に削減することができます。これにより、モデルはエンドデバイス上で効率的に実行され、AI技術の普及が推進されます。
まとめ:ブロックチェーンは、モデル層の透明性、協調性、およびユーザー参加度を向上させるのに役立ちます。
中心化AI産業の整理:トレーニングレイヤー
**トレーニングレイヤー:**大規模モデルのトレーニングには、高帯域幅と低遅延の通信が必要であり、分散型の計算力ネットワークを使用して大規模モデルのトレーニングを試みる可能性があります。このレベルの課題は、通信と計算リソースの割り当てを最適化して、より効率的なモデルトレーニングを実現する方法です。
**分散型の計算力ネットワークは大規模モデルのトレーニングにおいて一定の潜在能力を持っています。**通信コストが高すぎるという課題がありますが、スケジューリングアルゴリズムの最適化やデータ転送量の圧縮により、トレーニング効率を大幅に向上させることができます。しかし、実環境でのネットワーク遅延やデータ転送のボトルネックを克服する方法は、分散型トレーニングが直面する主要な課題です。
分散型の計算力ネットワークでの大規模モデルトレーニングの制約事項を解決するために、データの圧縮、スケジュールの最適化、ローカルな更新と同期などの技術を採用することができます。これらの手法は通信コストを削減し、トレーニング効率を向上させ、分散型の計算力ネットワークが大規模モデルトレーニングにおいて実行可能な選択肢となります。
ゼロ知識機械学習(zkML)は、ゼロ知識証明と機械学習技術を組み合わせ、トレーニングデータとモデルの詳細を公開せずにモデルの検証と推論を行うことを可能にします。この技術は、医療や金融などのデータの機密性が高い業界に特に適しており、データのプライバシーを保護しながらAIモデルの正確性と信頼性を検証することができます。
分散型AI業界の連携:データレイヤー
データのプライバシーとセキュリティはAIの発展における重要な問題となっています。分散データストレージおよび処理技術はこれらの問題の解決策を提供しています。
データの保存、データのインデックス、およびデータの使用は、分散型AIシステムの正常な動作を確保するための重要な要素です。** FilecoinやArweaveなどの分散型ストレージプラットフォームは、データのセキュリティとプライバシー保護の新しい解決策を提供し、ストレージコストを削減します****。**
分散型ストレージのケース:
このページでは、ArweaveとFilecoinという2つの分散型ストレージプロジェクトを比較します。 Arweaveは1回限りの支払いで永久ストレージを可能にしますが、Filecoinは柔軟なストレージサービスの提供に重点を置いた月払いモデルを使用しています。 どちらも技術アーキテクチャ、ビジネス規模、市場ポジショニングの点で独自の利点があり、ユーザーは特定のニーズに応じて適切なソリューションを選択できます。
分散型AI業界の整理:パワーレイヤー
コンピューティングパワーレイヤー:AIモデルの複雑さが増すにつれて、コンピューティングリソースの需要も高まります。 **分散型コンピューティングパワーネットワークの出現は、AIモデルのトレーニングと推論のためのリソース割り当ての新しい方法を提供します。 **
分散型の計算ネットワーク(およびトレーニングおよび推論に使用される専用の計算ネットワーク)は、DeAI競技場で最も活発で最も急速に発展している分野です。これは、現実世界のインフラストラクチャプロバイダーがAI産業チェーンの豊富な果実を刈り取ったことに一致します。GPUなどの計算リソースが不足する状態が続く中、計算リソースハードウェア機器を持つメーカーがこの分野に進出しています。
Aethir ケース:
ビジネスモデル:算力レンタルの二辺市場
エピローグ
**分散型AIは、データのプライバシー、セキュリティ、費用対効果の面で徐々に優位性を発揮している新しいテクノロジートレンドです。 次の記事では、分散型AIのリスクと課題、そして今後の方向性を探ります。 **