# AI+Web3: タワーとプラザ## TL; 博士1. AIコンセプトのWeb3プロジェクトが一級市場と二級市場で資金を吸収するターゲットとなっている。2. Web3におけるAI産業の機会は、長尾の潜在的な供給を調整するために分散型インセンティブを使用することに現れています------データ、ストレージ、計算を横断して。同時に、オープンソースモデルとAIエージェントの分散型マーケットを構築します。3. AI の Web3 業界における主な活用分野は、オンチェーンファイナンス(暗号支払い、取引、データ分析)および開発支援です。4. AI+Web3の有用性は、両者の相互補完に現れます:Web3はAIの集中化に対抗することが期待され、AIはWeb3が壁を破るのを助けることが期待されています。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)## はじめにここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptによって引き起こされた蝶の翼は、生成型人工知能の新しい世界を開くだけでなく、対岸のWeb3でも潮流を巻き起こしています。AIの概念の影響の下で、減速している暗号市場の資金調達は明らかに活性化しています。メディアの統計によれば、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了し、人工知能ベースのオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。二次市場はより繁栄しており、あるデータサイトの情報によれば、わずか一年余りの間に、AIレースの総時価総額は485億ドルに達し、24時間取引量は86億ドルに近づいている;主流のAI技術の進展による好材料は明らかであり、ある会社のSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇した;AI効果は暗号通貨の資金調達セクターの一つであるMemeにも影響を与えた:初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価額を獲得し、AI Memeブームを成功裏に引き起こした。AI+Web3に関する研究や話題も同様に熱気を帯びており、AI+DepinからAI Memecoin、さらには現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しい物語の切り替えの速さについていけなくなっています。AI+Web3、この熱い資金やトレンド、未来の幻想に満ちた用語の組み合わせは、資本によって仲介された結婚として見なされることが避けられません。この華やかな衣装の下で、投機家の舞台なのか、それとも夜明けの爆発の前夜なのかを見分けるのは難しいようです。この質問に答えるために、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから恩恵を受けることができるのか?この記事では、私たちも先人の肩に立ってこの構造を検討しようとしています:Web3 は AI 技術スタックの各段階でどのように機能できるのか、そして AI は Web3 に何の新しい活力をもたらすことができるのか?## パート1 AIスタック下のWeb3にはどんな機会があるのか?この話題を展開する前に、AI大モデルの技術スタックを理解する必要があります:より分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳はまさに人間界に降り立ったばかりの赤ちゃんのものであり、周囲の膨大な情報を観察し取り入れてこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持たないため、訓練の前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解でき、利用可能な情報形式に変換される必要があります。データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんの学習過程で調整される言語能力のようなものです。学習内容が分野ごとに分かれたり、人と交流してフィードバックを得て修正が行われると、大きなモデルの「ファインチューニング」段階に入ります。子供は成長し、話すことを学ぶと、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測や分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えて使用に投入された後、推論段階で特定のタスクに応用されることにも似ています。たとえば、画像分類や音声認識などです。AIエージェントは、次の大規模モデルの形態に近づいています------独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶や計画を行い、ツールを使って世界と相互作用することができます。現在、AIのさまざまなスタックにおける課題に対処するために、Web3は現在、多層的で相互接続されたエコシステムを初歩的に形成しており、AIモデルプロセスの各段階をカバーしています。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)### 1. 基本レイヤー: Airbnb (計算能力とデータ)#### ハッシュレート現在、AIの最高コストの1つは、モデルのトレーニングと推論モデルに必要な計算力とエネルギーです。一例として、ある会社のあるモデルには、ある会社が製造した特定の型のGPUが16000個必要で(これは人工知能および高性能計算の作業負荷に特化した最高のグラフィックプロセッサユニットです)、訓練を完了するのに30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間で、4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要です。一方、毎月の訓練には16億キロワット時の消費が必要で、エネルギー支出は毎月約2000万ドルです。AIの計算能力の解放は、Web3が最初にAIと交差した分野でもあります------DePin(分散型物理インフラストラクチャネットワーク)現時点で、あるデータサイトには1400以上のプロジェクトが一覧表示されており、その中にはGPU計算能力の共有を代表するプロジェクトとしてio.net、Aethir、Akash、Render Networkなどがあります。その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が、許可なしに分散型の方法で計算能力を提供できることを許可することにあります。UberやAirbnbのような買い手と売り手のオンラインマーケットを通じて、未活用のGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したり、ネットワークが中断された場合には、リソース提供者に相応の罰則があることを保証します。その特徴は次の通りです:* 余剰GPUリソースの集約:供給側は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算力リソースで、合意形成メカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabがMacBook、iPhone、iPadなどのローカルデバイスを利用して、大規模モデル推論の計算ネットワークを構築するための、より低い参入障壁のデバイスを立ち上げるプロジェクトもあります。* AI計算力のロングテール市場に直面する:a.「技術的な観点から見ると」分散型計算力市場は推論プロセスにより適しています。トレーニングは超大規模なクラスターのGPUによるデータ処理能力に依存していますが、推論はGPUの計算性能に対する依存度が相対的に低いです。Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。b.「需要側において」中小の計算力需要者は自分自身の大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルを中心に最適化や微調整を行うだけであり、これらのシナリオは分散型の余剰計算力リソースに自然に適しています。* 非中央集権的所有権:ブロックチェーンの技術的意義は、リソースの所有者が常にそのリソースに対するコントロールを保持し、需要に応じて柔軟に調整し、同時に利益を得ることができる点です。#### データデータはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ガベージイン、ガベージアウト」という俗語のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしい表現を決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:* データ飢渇:AIモデルの訓練は大量のデータ入力に依存しています。公開された資料によると、ある会社があるモデルのパラメータ量を兆単位に達した。* データ品質:AIと各業界の統合が進む中で、データのタイムリーさ、データの多様性、特化型データの専門性、ソーシャルメディアの感情などの新興データソースの取り込みは、その品質に新たな要求を提出しています。* プライバシーとコンプライアンスの問題:現在、各国や企業は質の高いデータセットの重要性に徐々に気づき、データセットのクローリングに制限をかけています。* データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使用されています。現在、web3のソリューションは以下の4つの側面に現れています:1、データ収集:無料で収集できる現実のデータが急速に枯渇しており、AI企業のデータに対する支出は年々増加しています。しかし、その一方で、この支出はデータの実際の貢献者に還元されておらず、プラットフォームはデータによる価値創造をすっかり享受しています。例えば、あるプラットフォームはAI企業とのデータライセンス契約を通じて合計2.03億ドルの収入を実現しました。真に貢献するユーザーがデータによる価値創造に参加できるようにし、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。* Grassは、ユーザーがGrassノードを実行することにより、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチしてトークン報酬を得ることができる分散型データ層およびネットワークです;* Vanaは独自のデータ流動性プール(DLP)概念を導入しており、ユーザーは自分のプライベートデータ(ショッピング履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用する権限を与えるかどうかを柔軟に選択できます;* PublicAIでは、ユーザーはあるプラットフォーム上で#AI 或#Web3を分類タグとして使用し、@PublicAIを付けることでデータ収集を実現できます。2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常雑音を含み、誤りがあるため、モデルのトレーニングの前にクリーンアップし、利用可能な形式に変換する必要があります。これは標準化、フィルタリング、および欠損値の処理に関連する繰り返しの作業を含みます。この段階はAI業界で数少ない手作業の部分であり、データラベリング専門家という業界が派生しています。モデルのデータ品質に対する要求が高まるにつれて、データラベリング専門家のハードルも上がっていますが、この作業はWeb3の分散型インセンティブメカニズムに自然に適しています。* 現在、Grass と OpenLayer はデータラベリングという重要なプロセスを追加することを検討しています。* Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、ラベル付けデータ、注釈、またはその他の形式の入力を提供することで報酬を得ることができます。* データラベリングプロジェクトSapienは、ラベリングタスクをゲーム化し、ユーザーがポイントをステーキングしてより多くのポイントを獲得できるようにします。3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは二つの側面に現れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者が原データを共有することなく、AIトレーニングに共同で参加できます。現在のWeb3で一般的なプライバシー技術には、* Trusted Execution Environment (TEE) (例: Super Protocol);* BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。* ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、身分データをインポートできるようにし、敏感な情報を公開することなく行える。しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次の通りです:* zkMLフレームワークEZKLは約80分必要です
Web3技術とAIの協調発展:コンピューティングパワー資源とデータ価値の新たな機会を解放する
AI+Web3: タワーとプラザ
TL; 博士
AIコンセプトのWeb3プロジェクトが一級市場と二級市場で資金を吸収するターゲットとなっている。
Web3におけるAI産業の機会は、長尾の潜在的な供給を調整するために分散型インセンティブを使用することに現れています------データ、ストレージ、計算を横断して。同時に、オープンソースモデルとAIエージェントの分散型マーケットを構築します。
AI の Web3 業界における主な活用分野は、オンチェーンファイナンス(暗号支払い、取引、データ分析)および開発支援です。
AI+Web3の有用性は、両者の相互補完に現れます:Web3はAIの集中化に対抗することが期待され、AIはWeb3が壁を破るのを助けることが期待されています。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptによって引き起こされた蝶の翼は、生成型人工知能の新しい世界を開くだけでなく、対岸のWeb3でも潮流を巻き起こしています。
AIの概念の影響の下で、減速している暗号市場の資金調達は明らかに活性化しています。メディアの統計によれば、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了し、人工知能ベースのオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。
二次市場はより繁栄しており、あるデータサイトの情報によれば、わずか一年余りの間に、AIレースの総時価総額は485億ドルに達し、24時間取引量は86億ドルに近づいている;主流のAI技術の進展による好材料は明らかであり、ある会社のSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇した;AI効果は暗号通貨の資金調達セクターの一つであるMemeにも影響を与えた:初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価額を獲得し、AI Memeブームを成功裏に引き起こした。
AI+Web3に関する研究や話題も同様に熱気を帯びており、AI+DepinからAI Memecoin、さらには現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しい物語の切り替えの速さについていけなくなっています。
AI+Web3、この熱い資金やトレンド、未来の幻想に満ちた用語の組み合わせは、資本によって仲介された結婚として見なされることが避けられません。この華やかな衣装の下で、投機家の舞台なのか、それとも夜明けの爆発の前夜なのかを見分けるのは難しいようです。
この質問に答えるために、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから恩恵を受けることができるのか?この記事では、私たちも先人の肩に立ってこの構造を検討しようとしています:Web3 は AI 技術スタックの各段階でどのように機能できるのか、そして AI は Web3 に何の新しい活力をもたらすことができるのか?
パート1 AIスタック下のWeb3にはどんな機会があるのか?
この話題を展開する前に、AI大モデルの技術スタックを理解する必要があります:
より分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳はまさに人間界に降り立ったばかりの赤ちゃんのものであり、周囲の膨大な情報を観察し取り入れてこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持たないため、訓練の前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解でき、利用可能な情報形式に変換される必要があります。
データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんの学習過程で調整される言語能力のようなものです。学習内容が分野ごとに分かれたり、人と交流してフィードバックを得て修正が行われると、大きなモデルの「ファインチューニング」段階に入ります。
子供は成長し、話すことを学ぶと、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測や分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えて使用に投入された後、推論段階で特定のタスクに応用されることにも似ています。たとえば、画像分類や音声認識などです。
AIエージェントは、次の大規模モデルの形態に近づいています------独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶や計画を行い、ツールを使って世界と相互作用することができます。
現在、AIのさまざまなスタックにおける課題に対処するために、Web3は現在、多層的で相互接続されたエコシステムを初歩的に形成しており、AIモデルプロセスの各段階をカバーしています。
! AI+Web3:タワー&スクエア
1. 基本レイヤー: Airbnb (計算能力とデータ)
ハッシュレート
現在、AIの最高コストの1つは、モデルのトレーニングと推論モデルに必要な計算力とエネルギーです。
一例として、ある会社のあるモデルには、ある会社が製造した特定の型のGPUが16000個必要で(これは人工知能および高性能計算の作業負荷に特化した最高のグラフィックプロセッサユニットです)、訓練を完了するのに30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間で、4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要です。一方、毎月の訓練には16億キロワット時の消費が必要で、エネルギー支出は毎月約2000万ドルです。
AIの計算能力の解放は、Web3が最初にAIと交差した分野でもあります------DePin(分散型物理インフラストラクチャネットワーク)現時点で、あるデータサイトには1400以上のプロジェクトが一覧表示されており、その中にはGPU計算能力の共有を代表するプロジェクトとしてio.net、Aethir、Akash、Render Networkなどがあります。
その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が、許可なしに分散型の方法で計算能力を提供できることを許可することにあります。UberやAirbnbのような買い手と売り手のオンラインマーケットを通じて、未活用のGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したり、ネットワークが中断された場合には、リソース提供者に相応の罰則があることを保証します。
その特徴は次の通りです:
余剰GPUリソースの集約:供給側は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算力リソースで、合意形成メカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabがMacBook、iPhone、iPadなどのローカルデバイスを利用して、大規模モデル推論の計算ネットワークを構築するための、より低い参入障壁のデバイスを立ち上げるプロジェクトもあります。
AI計算力のロングテール市場に直面する:
a.「技術的な観点から見ると」分散型計算力市場は推論プロセスにより適しています。トレーニングは超大規模なクラスターのGPUによるデータ処理能力に依存していますが、推論はGPUの計算性能に対する依存度が相対的に低いです。Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。
b.「需要側において」中小の計算力需要者は自分自身の大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルを中心に最適化や微調整を行うだけであり、これらのシナリオは分散型の余剰計算力リソースに自然に適しています。
データ
データはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ガベージイン、ガベージアウト」という俗語のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしい表現を決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:
データ飢渇:AIモデルの訓練は大量のデータ入力に依存しています。公開された資料によると、ある会社があるモデルのパラメータ量を兆単位に達した。
データ品質:AIと各業界の統合が進む中で、データのタイムリーさ、データの多様性、特化型データの専門性、ソーシャルメディアの感情などの新興データソースの取り込みは、その品質に新たな要求を提出しています。
プライバシーとコンプライアンスの問題:現在、各国や企業は質の高いデータセットの重要性に徐々に気づき、データセットのクローリングに制限をかけています。
データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使用されています。
現在、web3のソリューションは以下の4つの側面に現れています:
1、データ収集:無料で収集できる現実のデータが急速に枯渇しており、AI企業のデータに対する支出は年々増加しています。しかし、その一方で、この支出はデータの実際の貢献者に還元されておらず、プラットフォームはデータによる価値創造をすっかり享受しています。例えば、あるプラットフォームはAI企業とのデータライセンス契約を通じて合計2.03億ドルの収入を実現しました。
真に貢献するユーザーがデータによる価値創造に参加できるようにし、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。
Grassは、ユーザーがGrassノードを実行することにより、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチしてトークン報酬を得ることができる分散型データ層およびネットワークです;
Vanaは独自のデータ流動性プール(DLP)概念を導入しており、ユーザーは自分のプライベートデータ(ショッピング履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用する権限を与えるかどうかを柔軟に選択できます;
PublicAIでは、ユーザーはあるプラットフォーム上で#AI 或#Web3を分類タグとして使用し、@PublicAIを付けることでデータ収集を実現できます。
2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常雑音を含み、誤りがあるため、モデルのトレーニングの前にクリーンアップし、利用可能な形式に変換する必要があります。これは標準化、フィルタリング、および欠損値の処理に関連する繰り返しの作業を含みます。この段階はAI業界で数少ない手作業の部分であり、データラベリング専門家という業界が派生しています。モデルのデータ品質に対する要求が高まるにつれて、データラベリング専門家のハードルも上がっていますが、この作業はWeb3の分散型インセンティブメカニズムに自然に適しています。
現在、Grass と OpenLayer はデータラベリングという重要なプロセスを追加することを検討しています。
Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、ラベル付けデータ、注釈、またはその他の形式の入力を提供することで報酬を得ることができます。
データラベリングプロジェクトSapienは、ラベリングタスクをゲーム化し、ユーザーがポイントをステーキングしてより多くのポイントを獲得できるようにします。
3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは二つの側面に現れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者が原データを共有することなく、AIトレーニングに共同で参加できます。
現在のWeb3で一般的なプライバシー技術には、
Trusted Execution Environment (TEE) (例: Super Protocol);
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。
ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、身分データをインポートできるようにし、敏感な情報を公開することなく行える。
しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次の通りです: