AIとDePINの統合:分散型GPUネットワークの台頭と未来のトレンド分析

AIとDePINの交差点:分散型GPUネットワークの台頭

2023年以来、AIとDePINはWeb3分野の人気トレンドとなり、それぞれの時価総額は300億ドルと230億ドルに達しました。本稿では両者の交差領域に焦点を当て、関連プロトコルの発展状況を探ります。

AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIに実用性をもたらします。大手テクノロジー企業の発展によりGPUが不足し、他の開発者が計算のために十分なGPUを入手することが難しくなっています。これにより、開発者は集中化されたクラウドプロバイダーを選択せざるを得なくなり、柔軟性のない長期の高性能ハードウェア契約を締結する必要があるため、効率が低下します。

DePINは本質的に、トークン報酬を通じてリソースの貢献を促す、より柔軟でコスト効率の良い代替手段を提供します。AI分野のDePINは、GPUリソースを個人所有者からデータセンターにクラウドソーシングし、ハードウェアにアクセスする必要があるユーザーのために統一された供給を形成します。これらのネットワークは、計算能力を必要とする開発者にカスタマイズ性とオンデマンドアクセスを提供するだけでなく、GPU所有者に追加収入も提供します。

市場には多くのAI DePINネットワークが存在し、それらの違いを認識し、適切なネットワークを見つけることは挑戦的かもしれません。次に、各プロトコルの役割、目標、および達成された具体的な成果について探ります。

! AIとDePINの交差点

AI DePINネットワークの概要

ここで言及されている各プロジェクトは、GPU計算市場ネットワークという類似の目的を持っています。本節では、各プロジェクトのハイライト、市場の重点および成果を調査することを目的としています。それらの重要なインフラストラクチャと製品を理解することによって、私たちはそれらの違いを深く分析することができます。

Renderは、GPU計算能力を提供するP2Pネットワークの先駆者であり、最初はコンテンツ制作のグラフィックレンダリングに特化していましたが、その後、神経放射場(NeRF)から生成AIに至るまで、さまざまなAI計算タスクに範囲を拡大しました。

Akashは、ストレージ、GPU、およびCPU計算をサポートする従来のプラットフォーム(であるAWS)の「スーパークラウド」代替品として自らを位置づけています。AkashコンテナプラットフォームとKubernetes管理の計算ノードなどの開発者フレンドリーなツールを利用して、ソフトウェアを環境を超えてシームレスにデプロイできるため、任意のクラウドネイティブアプリケーションを実行することができます。

io.netは、AIおよびMLユースケース専用の分散型GPUクラウドクラスターへのアクセスを提供します。これらのクラスターは、データセンター、暗号マイナー、その他の分散型ネットワークなどの分野からのGPUを集約しています。

Gensynは、機械学習および深層学習計算に特化したGPU計算能力を提供します。学習証明のような作業の検証に使用される手法、検証作業を再実行するためのグラフィックに基づく正確な位置決めプロトコル、および計算プロバイダーに関わるステーキングと削減のインセンティブゲームなどの概念を組み合わせることで、より効率的な検証メカニズムを実現していると主張しています。

Aethirは、企業向けGPUを搭載し、計算集約型領域、主に人工知能、機械学習(ML)、クラウドゲームなどに特化しています。そのネットワーク内のコンテナは、クラウドベースのアプリケーションを実行する仮想エンドポイントとして機能し、ローカルデバイスからコンテナにワークロードを移動させ、低遅延の体験を実現します。

Phala NetworkはWeb3 AIソリューションの実行層として機能します。そのブロックチェーンは、信頼を必要としないクラウドコンピューティングソリューションであり、プライバシーの問題を処理するために、その信頼できる実行環境(TEE)を使用して設計されています。その実行層はAIモデルの計算層として使用されるのではなく、AIエージェントがチェーン上のスマートコントラクトによって制御されることを可能にします。

! AIとDePINの交差点

プロジェクト比較

| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | ビジネスの重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | 人工知能、クラウドゲームとテレコム | オンチェーンAI実行 | | AIタスクの種類 | 推論 | 並行 | 並行 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&ハッシュ | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | 安全 | レンダリング証明 | 権益証明 | 計算証明 | 権益証明 | レンダリング能力証明 | リレーチェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE 証明 | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |

###の重要性

クラスターと並列計算の可用性

分散型計算フレームワークはGPUクラスターを実現し、モデルの精度に影響を与えずにより効率的なトレーニングを提供し、同時にスケーラビリティを強化しました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、これは通常、その要求を満たすために分散型計算に依存しなければなりません。直感的に見ると、OpenAIのGPT-4モデルは1.8兆以上のパラメーターを持ち、128のクラスターで約25,000のNvidia A100 GPUを使用して3〜4ヶ月以内にトレーニングされました。

これまで、RenderとAkashは単一用途のGPUのみを提供しており、それがGPUの市場需要を制限する可能性があります。しかし、現在ほとんどの重点プロジェクトは、並列計算を実現するためにクラスタを統合しています。io.netはRender、Filecoin、Aethirなどの他のプロジェクトと協力し、より多くのGPUをネットワークに統合し、2024年第1四半期には3,800以上のクラスタを展開することに成功しています。Renderはクラスタをサポートしていませんが、その仕組みはクラスタに似ており、単一のフレームを複数の異なるノードに分解し、異なる範囲のフレームを同時に処理します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーのクラスタ化を許可しています。

AIワークフローネットワークにクラスターフレームワークを組み込むことは非常に重要ですが、AI開発者のニーズを満たすために必要なクラスタGPUの数と種類は別の問題です。

データプライバシー

AIモデルを開発するには大量のデータセットが必要で、これらのデータセットはさまざまなソースから来る可能性があり、形式も異なります。個人の医療記録やユーザーの財務データなどのセンシティブなデータセットは、モデル提供者に曝露されるリスクに直面する可能性があります。サムスンはセンシティブなコードがプラットフォームにアップロードされることでプライバシーを侵害することを懸念し、内部でChatGPTの使用を禁止しました。マイクロソフトの38TBのプライベートデータ漏洩事故は、AIを使用する際に十分な安全対策を講じることの重要性をさらに浮き彫りにしました。したがって、データ提供者にデータ管理権を返還するためには、さまざまなデータプライバシー手法を持つことが重要です。

カバーされているほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。データ暗号化は、データ提供者からモデル提供者(データ受信者)へのネットワーク内のデータ転送が保護されることを保証します。Renderは、レンダリング結果をネットワークに公開する際に暗号化とハッシュ処理を使用し、io.netとGensynは何らかの形式のデータ暗号化を採用しています。AkashはmTLS認証を使用し、テナントが選択したプロバイダーのみがデータを受信できるようにしています。

しかし、io.netは最近Mind Networkと提携して、完全同態暗号(FHE)を発表しました。これにより、暗号化されたデータを事前に復号化することなく処理することが可能になります。この革新は、データのプライバシーを現行の暗号技術よりも優れた方法で確保できるように、身元やデータ内容を漏らすことなく、トレーニング目的で安全にデータを転送することを可能にします。

Phala NetworkはTEE、つまり接続されたデバイスの主プロセッサ内のセキュアエリアを導入しました。この隔離メカニズムにより、外部プロセスがデータにアクセスまたは変更するのを防ぎ、その権限レベルに関係なく、物理的に機械にアクセスできる個人でさえも防ぎます。TEEに加えて、zkDCAPバリデーターとjteeコマンドラインインターフェースにzk-proofsの使用を組み合わせ、RiscZero zkVMと統合されたプログラムを提供しています。

! AIとDePINの交差点

完成証明と品質チェックの計算

これらのプロジェクトが提供するGPUは、一連のサービスに計算能力を提供します。これらのサービスは、グラフィックのレンダリングからAI計算に至るまで幅広いため、これらのタスクの最終的な品質は必ずしもユーザーの基準を満たすとは限りません。完成証明の形式を使用して、ユーザーがレンタルした特定のGPUが必要なサービスを実行するために実際に使用されたことを示すことができ、品質チェックはそのような作業を依頼するユーザーにとって有益です。

計算が完了すると、GensynとAethirは作業が完了したことを示す証明を生成し、io.netの証明はレンタルされたGPUの性能が十分に活用され、問題が発生していないことを示します。GensynとAethirは完了した計算の品質チェックを行います。Gensynは、検証者が生成された証明の一部を再実行して証明と照合しますが、通報者は検証者への別のチェックの層として機能します。同時に、Aethirはチェックノードを使用してサービス品質を判断し、基準を下回るサービスに対して罰則を科します。Renderは、審査委員会がノードに問題があると判断した場合、そのノードを削減するために紛争解決プロセスの使用を推奨します。Phalaが完了した後、TEE証明が生成され、AIエージェントがチェーン上で必要な操作を実行することを保証します。

! AIとDePINの交差点

ハードウェア統計データ

| | レンダー | アカシュ | io.net | ジェンシン | エイサー | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |

高性能GPUの要件

AIモデルのトレーニングには最高のパフォーマンスを持つGPUが必要なため、NvidiaのA100やH100などのGPUが好まれています。後者は市場で非常に高価ですが、最高の品質を提供します。A100はすべてのワークロードをトレーニングできるだけでなく、より速い速度でトレーニングを完了することができるため、このハードウェアに対する市場の重要性を示しています。H100はA100の推論性能の4倍の速さであるため、特に自社のLLMをトレーニングしている大企業にとって、現在は選択されるGPUとなっています。

分散型GPU市場のプロバイダーがWeb2の競合と競争するためには、単に低価格を提供するだけでなく、市場の実際のニーズを満たす必要があります。2023年、Nvidiaは集中型の大手テクノロジー企業に50万台以上のH100を納入しました。これにより、大手クラウドプロバイダーと競争するために同等のハードウェアをできるだけ多く入手することが高コストで困難になっています。そのため、これらのプロジェクトが低コストでネットワークに取り入れられるハードウェアの数量を考慮することは、これらのサービスをより大きな顧客基盤に拡張するために非常に重要です。

各プロジェクトはAIおよびML計算のビジネスを持っていますが、計算能力の提供に関しては異なります。Akashは合計で150以上のH100およびA100ユニットしか持っていないのに対し、io.netとAethirはそれぞれ2000以上のユニットを取得しています。通常、LLMや生成モデルをゼロから事前トレーニングするには、クラスター内に少なくとも248から2000以上のGPUが必要なので、後者の2つのプロジェクトは大規模モデル計算により適しています。

開発者が必要とするクラスタサイズに基づいて、現在市場にあるこれらの分散型GPUサービスのコストは、集中型GPUサービスよりもはるかに低くなっています。GensynとAethirは、A100に相当するハードウェアを1時間あたり1ドル未満で借りることができると主張していますが、これは時間の経過とともに証明される必要があります。

ネットワーク接続されたGPUクラスターは大量のGPUを持ち、1時間あたりのコストが低いですが、NVLink接続のGPUと比較すると、

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • 共有
コメント
0/400
BearMarketMonkvip
· 10時間前
また一つの幻想的な評価バブルが、個人投資家を初心者として再び扱うことにしましょう~
原文表示返信0
TokenGuruvip
· 16時間前
マイニング人をカモにするだけだ これはGPUをカモにする
原文表示返信0
ChainSpyvip
· 16時間前
gpuブル・マーケットが来るのか?
原文表示返信0
RumbleValidatorvip
· 16時間前
すべての人が分散化ノードに値するわけではない、それこそが真実である。
原文表示返信0
Ser_Liquidatedvip
· 16時間前
GPUは十分にあるのに、個人投資家はまだ売るのか?
原文表示返信0
SolidityStrugglervip
· 16時間前
もう吹かないで、単にコンセプトを炒めているだけだよ
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)