This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AIとDePINの融合分散GPUコンピューティングネットワークの台頭
AIとDePINの交差点:分散型GPUコンピューティングネットワークの台頭
2023年以来、AIとDePINはWeb3分野の人気トレンドとなり、AIの時価総額は約300億ドル、DePINの時価総額は約230億ドルです。本稿は両者の交差領域に焦点を当て、関連プロトコルの発展について探討します。
AI技術スタックにおいて、DePINネットワークは計算リソースを通じてAIに実用性を提供します。大手テクノロジー企業の発展はGPUの不足を引き起こし、他の開発者が計算のために十分なGPUを得ることを困難にしています。これは通常、開発者が中央集権的なクラウドプロバイダーを選択する原因となりますが、柔軟性のない長期的な高性能ハードウェア契約に署名する必要があるため、効率が悪化します。
DePINは本質的に、トークン報酬を使用してネットワークの目標に合致するリソースの貢献を促す、より柔軟でコスト効率の良い代替手段を提供します。AI分野のDePINは、GPUリソースを個人所有者からデータセンターにクラウドソーシングし、ハードウェアへのアクセスが必要なユーザーのために統一された供給を形成します。これらのDePINネットワークは、計算能力を必要とする開発者にカスタマイズ性とオンデマンドアクセスを提供するだけでなく、GPU所有者に追加の収入を提供します。
市場には多くのAI DePINネットワークが存在し、本稿では各プロトコルの役割、目標、および実現されたハイライトについて探討します。
! AIとDePINの交差点
AI DePINネットワークの概要
RenderはGPU計算能力を提供するP2Pネットワークの先駆者であり、以前はコンテンツ制作のためにグラフィックスをレンダリングすることに特化していましたが、後にStable Diffusionなどのツールセットを統合することで、神経放射場(NeRF)から生成AIの計算タスクを含む範囲に拡大しました。
注目ポイント:
オスカー賞を受賞した技術を持つクラウドグラフィックス会社OTOYによって設立された
GPUネットワークは、パラマウント・ピクチャーズ、PUBG、スター・トレックなどのエンターテインメント業界の大企業によって使用されています。
Stability AIとEndeavorと協力し、RenderのGPUを利用してAIモデルと3Dコンテンツレンダリングワークフローを統合する
複数の計算クライアントを承認し、より多くのDePINネットワークのGPUを統合する
Akashは、自身をストレージ、GPU、およびCPU計算をサポートする従来のプラットフォーム(、例えばAWS)の"スーパークラウド"の代替品として位置づけています。AkashコンテナプラットフォームやKubernetes管理の計算ノードなどの開発者に優しいツールを活用し、ソフトウェアを環境を超えてシームレスにデプロイできるため、あらゆるクラウドネイティブアプリケーションを実行できます。
ハイライト:
汎用計算からネットワークホスティングに至る幅広い計算タスク
AkashMLは、そのGPUネットワークをHugging Face上で15,000以上のモデルを実行しながら、Hugging Faceと統合することを許可します。
Akashがホスティングしている注目すべきアプリには、Mistral AIのLLMモデルチャットボット、Stability AIのSDXLテキストから画像へのモデル、そしてThumper AIの新しい基盤モデルAT-1があります。
メタバース、AIの展開、連邦学習のプラットフォームがSupercloudを利用しています。
io.netは、AIおよびML用例専用の分散GPUクラウドクラスターへのアクセスを提供します。これらのクラスターは、データセンター、暗号マイナー、その他の分散ネットワークなどの分野からのGPUを集約しています。同社は以前は量子取引会社であり、高性能GPUの価格が大幅に上昇した後、現在のビジネスに転向しました。
ハイライト:
そのIO-SDKはPyTorchやTensorflowなどのフレームワークと互換性があり、その多層アーキテクチャは計算ニーズに応じて自動的にダイナミックに拡張できます。
3種類の異なるタイプのクラスタの作成をサポートし、2分以内に起動できます。
Render、Filecoin、Aethir、Exabits(などの他のDePINネットワーク)と協力して、GPUリソースを統合します
Gensynは、機械学習と深層学習計算に特化したGPU計算能力を提供します。学習証明、グラフィックベースの正確な位置決めプロトコル、計算プロバイダーを含むステーキングや削減のインセンティブゲームなどの概念を組み合わせることで、既存の方法よりも効率的な検証メカニズムを実現したと主張しています。
ハイライト:
V100相当のGPUの1時間あたりのコストは約0.40ドルと予想され、コストを大幅に削減します。
プルーフスタッキングを通じて、事前に訓練されたベースモデルを微調整し、より具体的なタスクを完了することができます。
これらの基本モデルは、分散型であり、世界中で所有され、ハードウェア計算ネットワークに加えて追加機能を提供します。
Aethirは企業GPUを搭載し、計算集約型分野、主にAI、機械学習(ML)、クラウドゲームなどに焦点を当てています。ネットワーク内のコンテナは、クラウドベースのアプリケーションを実行する仮想エンドポイントとして機能し、ローカルデバイスからコンテナにワークロードを移動させ、低遅延の体験を実現します。ユーザーに質の高いサービスを提供するために、彼らは需要と位置に応じてGPUをデータソースに近づけ、リソースを調整します。
ハイライト:
AIやクラウドゲームを除いて、Aethirはクラウドスマートフォンサービスにも拡大し、APhoneと提携して分散型クラウドスマートフォンを発表しました。
NVIDIA、Super Micro、HPE、Foxconn、Well Linkなどの大手Web2企業との広範な協力関係を確立する
CARV、Magic Eden、Sequence、Impossible Finance、(などのWeb3 )の複数のパートナーと協力する
Phala NetworkはWeb3 AIソリューションの実行層として機能します。そのブロックチェーンは信頼のないクラウドコンピューティングソリューションであり、(TEE)を使用して設計されており、プライバシーの問題を処理します。その実行層はAIモデルの計算層として使用されるのではなく、AIエージェントがオンチェーンのスマートコントラクトによって制御できるようにします。
ハイライト:
検証可能な計算のコプロセッサプロトコルとして機能し、同時にAIエージェントがオンチェーンリソースを利用できるようにする
そのAIプロキシ契約は、Redpillを通じてOpenAI、Llama、Claude、Hugging Faceなどの主要な言語モデルにアクセスできます
将来的にはzk-proofs、マルチパーティ計算(MPC)、全同型暗号(FHE)などの多重証明システムが含まれます
将来的にはH100などの他のTEE GPUをサポートし、計算能力を向上させます。
! AIとDePINの交差点
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPUとCPU | GPUとCPU | GPUとCPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | ブロックチェーン上のAI実行 | | AIタスクタイプ | 推論 | 両者 | 両者 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&ハッシュ | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | セキュリティ | レンダリング証明 | エクイティ証明 | 計算証明 | エクイティ証明 | レンダリング能力証明 | 中継チェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |
###の重要性
クラスタリングと並列計算の可用性
分散計算フレームワークはGPUクラスターを実現し、モデルの精度に影響を与えることなく、より効率的なトレーニングを提供し、同時にスケーラビリティを強化しました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常はニーズを満たすために分散計算に依存しなければなりません。OpenAIのGPT-4モデルは1.8兆以上のパラメータを持ち、3〜4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。
これまで、RenderとAkashは単一用途のGPUのみを提供しており、GPUの市場需要を制限している可能性がありました。しかし、ほとんどの主要プロジェクトは現在、並列計算を実現するためにクラスターを統合しています。io.netはRender、Filecoin、Aethirなどの他のプロジェクトと協力し、より多くのGPUをネットワークに取り入れ、2024年第1四半期に3,800以上のクラスターを成功裏に展開しました。Renderはクラスターをサポートしていませんが、その動作はクラスターに似ており、単一のフレームを複数の異なるノードに分解して、異なる範囲のフレームを同時に処理します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。
AIワークフローネットワークにクラスターフレームワークを組み込むことは非常に重要ですが、AI開発者のニーズを満たすために必要なクラスタGPUの数とタイプは別の問題です。
データプライバシー
AIモデルを開発するには、大量のデータセットを使用する必要があります。これらのデータセットはさまざまなソースから来る可能性があり、形態も異なります。敏感なデータセットは、モデル提供者に曝露されるリスクに直面する可能性があります。AIを使用する際には、十分な安全対策を講じることが重要です。したがって、データ提供者にデータのコントロール権を返すためには、さまざまなデータプライバシー手法を持つことが重要です。
ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。Renderは、レンダリング結果をネットワークに公開する際に暗号化とハッシュ処理を使用し、io.netとGensynは何らかの形式のデータ暗号化を採用しています。AkashはmTLS認証を使用し、テナントが選択したプロバイダーのみがデータを受け取ることを許可しています。
io.netは最近、Mind Networkと協力して完全同態暗号(FHE)を導入しました。これは、事前に暗号を解除することなく暗号化データを処理することを可能にします。この革新は、既存の暗号技術よりもデータのプライバシーをより良く確保することができます。
Phala Networkは信頼できる実行環境(TEE)を導入しました。これは、接続されたデバイスの主プロセッサ内のセキュリティ領域です。この隔離メカニズムにより、外部プロセスがデータにアクセスしたり変更したりすることを防ぎます。権限レベルに関係なく。TEEに加えて、zkDCAPバリデーターとjteeコマンドラインインターフェース内でzk-proofsの使用も組み合わせており、RiscZero zkVMと統合されるプログラムのためです。
! AIとDePINの交差点
完成証明と品質チェックの計算
これらのプロジェクトが提供するGPUは、一連のサービスに計算能力を提供します。サービスの範囲が広いため、グラフィックのレンダリングからAI計算まで、これらのタスクの最終的な品質が常にユーザーの基準を満たすとは限りません。特定のGPUが実際に必要なサービスの実行に使用されたことを示すために、完了証明の形式を使用できます。品質チェックは、このような作業の完了を要求するユーザーにとって有益です。
計算が完了すると、GensynとAethirは作業が完了したことを示す証明を生成し、io.netの証明はレンタルしたGPUの性能が十分に活用され、問題が発生していないことを示します。GensynとAethirは、完了した計算の品質チェックを行います。Gensynは、検証者が生成された証明の一部を再実行して証明と照合するのを使用し、告発者は検証者へのもう一つのチェックの層として機能します。Aethirは、チェックノードを使用してサービスの質を判断し、基準を下回るサービスに対して罰則を科します。Renderは、審査委員会がノードに問題を発見した場合、そのノードを削減するために紛争解決プロセスの利用を推奨します。Phalaが完了すると、TEE証明が生成され、AIエージェントがチェーン上で必要な操作を実行することを保証します。
ハードウェア統計データ
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
! AIとDePINの交差点
高性能GPUの要件
AIモデルのトレーニングには最高の性能を持つGPUが必要なため、開発者はNvidiaのA100やH100などのGPUを使用する傾向があります。H100の推論性能はA100の4倍速いです。