著者: Biteye コア コントリビューター @anci\_hu49074「私たちは、最高の基本モデルを構築するためのグローバルな競争の時代にいます。計算能力とモデルアーキテクチャは重要ですが、本当の堀はトレーニングデータです。」 —サンディープ・チンチャリ、最高AI責任者、ストーリー### スケールAIの観点からAIデータトラックの潜在能力について話しましょう今月のAI界の最大の噂は、Metaがその資金力を示したことです。ザッカーバーグはあらゆる場所で才能を募集し、中国の科学研究者を主体とした豪華なMeta AIチームを結成しました。チームリーダーは**アレクサンダー・ワン**で、彼はわずか28歳で、Scale AIを設立しました。彼はScale AIを設立し、現在の評価額は290億米ドルです。サービスの対象には米軍のほか、OpenAI、Anthropic、Metaなどの競合AI大手が含まれ、すべてScale AIが提供するデータサービスに依存しています。Scale AIのコアビジネスは、大量の正確にラベル付けされたデータを提供することです。#### **なぜScale AIはユニコーンの群れから際立っているのか?**その理由は、AI業界におけるデータの重要性を早期に発見したからです。AIモデルの3つの柱は、計算能力、モデル、データです。大きなモデルを人に例えるなら、モデルは体、計算能力は食べ物、データは知識/情報です。LLMの台頭以来、業界の発展の焦点はモデルから計算能力へと移行しました。今日では、ほとんどのモデルがモデルフレームワークとしてトランスフォーマーを確立しており、時折MoEやMoReのような革新が見られます。主要な巨大企業は、計算能力の大壁を完成させるために独自のスーパークラスタを構築するか、AWSのような強力なクラウドサービスと長期契約を結んでいます。基本的な計算能力が満たされると、データの重要性が徐々に顕著になってきました。! [データは資産です:DataFiは新しいブルーオーシャンを切り開いています](https://img-cdn.gateio.im/social/moments-833187943a7b99d3f3b1aa6c4281e397)従来のPalantirやScale AIなどの二次市場で著名なTo Bビッグデータ企業とは異なり、Scale AIはその名の通り、AIモデルのための堅固なデータ基盤の構築に注力しています。そのビジネスは既存のデータのマイニングに限らず、より長期的なデータ生成ビジネスにも焦点を当てています。また、さまざまな分野の人工専門家を通じてAIトレーナーチームの形成を試みており、AIモデルのトレーニングのためにより質の高いトレーニングデータを提供しています。#### **このビジネスに同意しない場合、モデルのトレーニング方法を見てみましょう。**モデルのトレーニングは、プレトレーニングとファインチューニングの2つの部分に分かれています。前訓練部分は、人間の赤ちゃんが徐々に話し方を学ぶプロセスに少し似ています。私たちが通常必要とするのは、AIモデルにオンラインクローラーから取得した大量のテキスト、コード、その他の情報を供給することです。モデルはこれらの内容を自分で学び、人間の言語(、学術的には自然言語)を話すことを学び、基本的なコミュニケーションスキルを持っています。微調整の部分は、通常、明確な正解と不正解、答えと方向性がある学校に行くのに似ています。学校は、それぞれの位置付けに基づいて学生を異なる才能に育てます。私たちも、モデルが期待する能力を持つように、いくつかの事前処理されたターゲットデータセットを使用してトレーニングします。! [データは資産です:DataFiは新しい青い海を切り開いています](https://img-cdn.gateio.im/social/moments-3b7474fe7d6a646b19d553dc21b7d42d)この時点で、必要なデータが2つの部分に分かれていることに気づいたかもしれません。* 一部のデータはあまり処理する必要がなく、必要なだけで十分です。通常、Reddit、Twitter、Github、大規模UGCプラットフォームのクローラーデータや、公共文献データベース、企業のプライベートデータベースなどから取得されます。* 他の部分、専門的な教科書のように、モデルの特定の優れた特性を育成できるように、慎重な設計と選別が必要です。これには、データのクリーンアップ、選別、ラベリング、手動フィードバックなどの必要な作業を行うことが求められます。これらの2つのデータセットは、AIデータトラックの主要部分を構成しています。これらの一見低技術なデータセットを過小評価しないでください。現在の主流の見解は、スケーリング法則における計算能力の利点が徐々に効果を失うにつれて、データが異なる大規模モデルメーカーが競争優位性を維持するための最も重要な柱になるということです。モデルの能力が向上し続けるにつれて、より洗練された専門的なトレーニングデータがモデルの能力に影響を与える重要な要素となります。モデルのトレーニングを武道の達人の育成に例えるならば、高品質のデータセットがこの比喩を完成させるための最高の武道の秘訣であり、計算能力は万能薬であり、モデル自体が資格であると言えるでしょう(。縦の視点から見ると、AIデータはスノーボールの能力を持つ長期的なトラックでもあります。これまでの作業の蓄積により、データ資産は複利の能力を持つようになり、年を重ねるにつれてより人気を集めるようになります。) Web3 DataFi: AIデータのための選ばれた肥沃な地フィリピン、ベネズエラなどの数十万人の人々からなるScale AIのリモート手動ラベリングチームと比較して、Web3はAIデータの分野で自然な優位性を持っており、新しい用語DataFiが誕生しました。 理想的には、Web3 DataFiの利点は次のとおりです。1. スマートコントラクトによって保証されたデータ主権、セキュリティ、プライバシー既存の公開データが開発され尽くそうとしている段階で、未開示データ、さらにはプライベートデータをさらに掘り下げる方法は、データソースを取得し拡大するための重要な方向性です。これは重要な信頼の選択問題に直面しています - あなたは中央集権的大企業の契約買収システムを選び、データを売却しますか?それともブロックチェーンの方法を選び、データのIPを手に保持し、スマートコントラクトを通じて誰があなたのデータを、いつ、何の目的で使用するのかを明確に理解しますか。同時に、機密情報については、zk、TEEなどの手法を使用して、あなたのプライベートデータが口を閉ざして漏洩しない機械によってのみ処理されることを保証できます。2. 自然地理的なアービトラージの利点:最も適した労働力を引き付ける自由な分散アーキテクチャおそらく、従来の労働生産関係に挑戦する時が来たのかもしれません。Scale AIのように世界中で安価な労働力を探すのではなく、ブロックチェーンの分散特性を利用し、世界中に散らばっている労働力がスマートコントラクトによって保証されたオープンで透明なインセンティブを通じてデータ寄与に参加できるようにする方が良いでしょう。データラベリングやモデル評価などの労働集約型タスクにおいて、Web3 DataFiの利用は、データファクトリーを設立する中央集権的アプローチよりも参加者の多様性を促進します。これはデータバイアスを回避するための長期的な意義も持っています。3. ブロックチェーンの明確なインセンティブと決済の利点「江南皮革厂」の悲劇を避けるにはどうすればよいのでしょうか?当然、私たちは人間の本質の闇を置き換えるために、スマートコントラクトに明確な価格タグを持つインセンティブシステムを使用すべきです。避けられない脱グローバリゼーションの文脈において、どのようにして低コストの地理的アービトラージを達成し続けることができますか?世界中に企業を開設することは明らかにより困難になっていますので、古い世界の障壁を回避し、オンチェーン決済方法を受け入れない理由はありません。4. より効率的でオープンな「ワンストップ」データ市場を構築するのに寄与します"価格差から利益を得る仲介者"は、供給側と需要側の両方にとって永遠の痛みです。中央集権型のデータ会社が仲介者として機能するのではなく、オープンマーケットのようなプラットフォームをチェーン上に作る方が良いので、データの供給側と需要側がより透明かつ効率的に接続できるようになります。オンチェーンAIエコシステムの発展に伴い、オンチェーンデータの需要はより活発で、セグメント化され、多様化していくでしょう。この需要を効率的に消化し、エコロジカルな繁栄に変えることができるのは、分散型市場だけです。#### **小口投資家にとって、DataFiは一般の小口投資家の参加を最も促進する、最も分散化されたAIプロジェクトでもあります。**AIツールの登場により、学習の敷居がある程度下がったものの、分散型AIの本来の意図は、巨人によるAIビジネスの現在の独占を打破することです。しかし、技術的なバックグラウンドを持たない小売投資家にとって、現在の多くのプロジェクトがあまりアクセスしやすくないことは認めざるを得ません。分散型コンピューティングネットワークのマイニングに参加するには、高額な初期ハードウェア投資が伴うことが多く、モデル市場の技術的な敷居は普通の参加者を簡単に挫折させることができます。対照的に、これは一般のユーザーがAI革命で掴むことができる数少ない機会の一つです。Web3は、データ提供、モデルのラベリングや評価を人間の脳の直感や本能に基づいて行ったり、AIツールを使って簡単な創作を行ったり、データ取引に参加したりすることで、あなたがその参加を可能にします。毛党の古いドライバーにとって、難易度は基本的にゼロです。### Web3 DataFiの潜在的なプロジェクトお金が流れるところに、方向があります。Scale AIがMetaから143億ドルの投資を受け、Palantirの株価がWeb2の世界で1年で5倍以上急騰したことに加えて、DataFiもWeb3の資金調達で非常に良い成果を上げました。ここでは、これらのプロジェクトについて簡単に紹介します。! [データは資産です:DataFiは新しいブルーオーシャンを切り開いています]###https://img-cdn.gateio.im/social/moments-c629c990916b7e1fbd4699663c3cbcff()# **Sahara AI、@SaharaLabsAI、4,900万ドルを調達**サハラAIの究極の目標は、分散型AIスーパインフラストラクチャーと取引市場を構築することです。最初にテストされる分野はAIデータです。そのDSP ###データサービスプラットフォーム(のパブリックベータ版は7月22日に発売されます。ユーザーはデータの提供、データラベリング、その他のタスクに参加することによってトークン報酬を得ることができます。 リンク: app.saharaai.com)# **はい、@yupp\_aiが3300万ドルを調達しました**Yuppは、モデル出力に関するユーザーのフィードバックを収集するAIモデルフィードバックプラットフォームです。現在の主なタスクは、ユーザーが同じプロンプトに対して異なるモデルの出力を比較し、より良いと思うものを選択できることです。このタスクを完了することでYuppポイントを獲得でき、さらにUSDCなどの法定ステーブルコインと交換できます。 リンク: #### **バナ、@vana、2300万ドルを調達**Vanaは、ユーザーの個人データ###をソーシャルメディア活動や閲覧履歴などから、収益化可能なデジタル資産に変換することに重点を置いています。ユーザーは、自分の個人データを対応するデータ流動性プール(DLP)にアップロードすることを承認できます。これらのデータはプールされ、AIモデルのトレーニングなどのタスクに参加するために使用され、ユーザーは対応するトークン報酬も受け取ります。リンク: (# **Chainbase、@ChainbaseHQ、1,650万ドルを調達**Chainbaseのビジネスはオンチェーンデータに焦点を当てており、現在200以上のブロックチェーンをカバーして、オンチェーン活動を構造化された、検証可能で、マネタイズ可能なデータ資産に変換してdApp開発に利用しています。Chainbaseのビジネスは主にマルチチェインインデックスとその他の方法を通じて得られ、データはそのManuscriptシステムとTheia AIモデルを通じて処理されます。一般のユーザーは現在あまり関与していません。)# **サピエンス、@JoinSapien、1550万ドルを調達**Sapienは、人間の知識を大規模に高品質なAIトレーニングデータに変換することを目指しています。誰でもプラットフォーム上でデータアノテーションを行い、ピア検証を通じてデータの品質を確保することができます。同時に、ユーザーは長期的な評判を築いたり、ステーキングを通じてコミットメントを行うことが奨励され、より多くの報酬を得ることができます。 リンク: #### **Prisma X、@PrismaXai、1100万ドルを調達**Prisma Xは、物理データ収集が鍵となるロボットのためのオープンな調整層を目指しています。このプロジェクトは現在初期段階にあります。最近発表されたホワイトペーパーによると、参加にはデータ収集のためにロボットに投資することや、ロボットデータを遠隔操作することなどが含まれる可能性があります。現在、ホワイトペーパーに基づいたクイズがオープンしており、参加することでポイントを獲得できます。 リンク: #### **マサ、@getmasafi、890万ドルを調達**MasaはBittensorエコシステムにおける主要なサブネットプロジェクトの一つであり、現在はデータサブネットNo.42とエージェントサブネットNo.59を運営しています。データサブネットはリアルタイムデータへのアクセスを提供することに専念しています。現在、マイナーは主にTEEハードウェアを通じてX/Twitterのリアルタイムデータをクロールしています。一般ユーザーにとって、参加の難易度とコストは比較的高いです。#### **Irys, @irys\_xyz,が870万ドルを調達しました**Irysはプログラム可能なデータストレージとコンピューティングに重点を置き、AI、分散型アプリケーション###dApps###、その他のデータ集約型アプリケーションに対して効率的で低コストのソリューションを提供することを目指しています。データ貢献の面では、一般のユーザーは現時点ではあまり参加できませんが、現在のテストネット段階では参加できる複数の活動があります。 リンク: (# **ORO、@getoro\_xyz、600万ドルを調達**OROが目指しているのは、一般の人々がAIへの貢献に参加できるようにすることです。サポート方法には以下が含まれます:1. 個人アカウントをリンクして、ソーシャルアカウント、健康データ、eコマースおよび金融アカウントなどの個人データを提供する。2. データタスクを完了する。テストネットワークは現在オンラインで、参加できます。 リンク: app.getoro.xyz)# **Gata, @Gata\_xyz, は400万ドルを調達しました**分散型データレイヤーとして位置付けられているGataは、現在参加できる3つの主要な製品を持っています:1. データエージェント:ユーザーがウェブページを開いている限り、自動的にデータを実行し処理できるAIエージェントのシリーズ;2. AII-in-oneチャット:報酬を得るためのYuppのモデル評価に似たメカニズム;3. GPT-to-Earn:ユーザーのChatGPTでの会話データを収集するブラウザプラグイン。 リンク: #### **これらの現在のプロジェクトについてどう思いますか?**現在、これらのプロジェクトの参入障壁は一般的に高くありませんが、ユーザーとエコシステムの粘着性が蓄積されると、プラットフォームの利点が急速に蓄積されることは認めざるを得ません。したがって、初期段階ではインセンティブとユーザー体験に焦点を当てるべきです。十分なユーザーを引き付けることで、ビッグデータビジネスを構築することができます。しかし、労働集約型プロジェクトとして、これらのデータプラットフォームは、労働を管理し、データ出力の質を確保しながら労働を引き付ける方法を考慮する必要があります。結局のところ、多くのWeb3プロジェクトの共通の問題は、プラットフォーム上のほとんどのユーザーが無慈悲な利益追求者であることです。彼らはしばしば短期的な利益のために質を犠牲にします。彼らがプラットフォームの主要なユーザーになることを許可されると、悪貨が良貨を駆逐することは避けられず、最終的にデータの質は保証されず、買い手を引き付けることができません。現在、私たちは、サハラやサピエンなどのプロジェクトがデータの質を強調し、プラットフォーム上の労働者との長期的で健全な協力関係を確立するために努力していることを目にしています。さらに、透明性の欠如は現在のオンチェーンプロジェクトのもう一つの問題です。実際、ブロックチェーンの不可能な三角形は、多くのプロジェクトに「中央集権が分散化を促進する」という道を選ばせました。しかし、今ではますます多くのオンチェーンプロジェクトが「Web3の皮を被った古いWeb2プロジェクト」の印象を人々に与えています - チェーン上で追跡可能な公開データは非常に少なく、ロードマップでさえもオープン性と透明性の長期的な確固たる決意を見るのが難しいです。これは間違いなくWeb3 DataFiの長期的な健全な発展にとって有毒であり、私たちはより多くのプロジェクトが常に元の意図を保ち、オープン性と透明性のペースを加速することを望んでいます。最終的に、DataFiの大規模普及の道は2つの部分に分けるべきです:1つは、十分なtoC参加者をネットワークに引き寄せ、データ収集/生成エンジニアリングの新しい力とAI経済の消費者を形成し、生態系のクローズドループを形成することです;もう1つは、現在の主流のtoB企業からの認識を得ることです。結局のところ、短期的には彼らが深い懐具合で大データの注文の主要な供給源です。この点において、Sahara AI、Vanaなどが良い進展を遂げていることも確認しています。### まとめより宿命論的に言えば、DataFiは人間の知能を活用して長期的に機械の知能を育成することであり、スマートコントラクトを契約として使用して人間の知能労働が利益を得ることを保証し、最終的には機械の知能からのフィードバックを享受することです。AI時代の不確実性に不安を感じているなら、そして暗号通貨の世界の浮き沈みの中でブロックチェーンの理想を持ち続けているなら、資本の巨人たちの足跡を追い、DataFiに参加することはトレンドに乗るための良い選択です。
データは資産です:DataFiは新しいブルーオーシャンを開拓しています
著者: Biteye コア コントリビューター @anci_hu49074
「私たちは、最高の基本モデルを構築するためのグローバルな競争の時代にいます。計算能力とモデルアーキテクチャは重要ですが、本当の堀はトレーニングデータです。」
—サンディープ・チンチャリ、最高AI責任者、ストーリー
スケールAIの観点からAIデータトラックの潜在能力について話しましょう
今月のAI界の最大の噂は、Metaがその資金力を示したことです。ザッカーバーグはあらゆる場所で才能を募集し、中国の科学研究者を主体とした豪華なMeta AIチームを結成しました。チームリーダーはアレクサンダー・ワンで、彼はわずか28歳で、Scale AIを設立しました。彼はScale AIを設立し、現在の評価額は290億米ドルです。サービスの対象には米軍のほか、OpenAI、Anthropic、Metaなどの競合AI大手が含まれ、すべてScale AIが提供するデータサービスに依存しています。Scale AIのコアビジネスは、大量の正確にラベル付けされたデータを提供することです。
なぜScale AIはユニコーンの群れから際立っているのか?
その理由は、AI業界におけるデータの重要性を早期に発見したからです。
AIモデルの3つの柱は、計算能力、モデル、データです。大きなモデルを人に例えるなら、モデルは体、計算能力は食べ物、データは知識/情報です。
LLMの台頭以来、業界の発展の焦点はモデルから計算能力へと移行しました。今日では、ほとんどのモデルがモデルフレームワークとしてトランスフォーマーを確立しており、時折MoEやMoReのような革新が見られます。主要な巨大企業は、計算能力の大壁を完成させるために独自のスーパークラスタを構築するか、AWSのような強力なクラウドサービスと長期契約を結んでいます。基本的な計算能力が満たされると、データの重要性が徐々に顕著になってきました。
! データは資産です:DataFiは新しいブルーオーシャンを切り開いています
従来のPalantirやScale AIなどの二次市場で著名なTo Bビッグデータ企業とは異なり、Scale AIはその名の通り、AIモデルのための堅固なデータ基盤の構築に注力しています。そのビジネスは既存のデータのマイニングに限らず、より長期的なデータ生成ビジネスにも焦点を当てています。また、さまざまな分野の人工専門家を通じてAIトレーナーチームの形成を試みており、AIモデルのトレーニングのためにより質の高いトレーニングデータを提供しています。
このビジネスに同意しない場合、モデルのトレーニング方法を見てみましょう。
モデルのトレーニングは、プレトレーニングとファインチューニングの2つの部分に分かれています。
前訓練部分は、人間の赤ちゃんが徐々に話し方を学ぶプロセスに少し似ています。私たちが通常必要とするのは、AIモデルにオンラインクローラーから取得した大量のテキスト、コード、その他の情報を供給することです。モデルはこれらの内容を自分で学び、人間の言語(、学術的には自然言語)を話すことを学び、基本的なコミュニケーションスキルを持っています。
微調整の部分は、通常、明確な正解と不正解、答えと方向性がある学校に行くのに似ています。学校は、それぞれの位置付けに基づいて学生を異なる才能に育てます。私たちも、モデルが期待する能力を持つように、いくつかの事前処理されたターゲットデータセットを使用してトレーニングします。
! データは資産です:DataFiは新しい青い海を切り開いています
この時点で、必要なデータが2つの部分に分かれていることに気づいたかもしれません。
これらの2つのデータセットは、AIデータトラックの主要部分を構成しています。これらの一見低技術なデータセットを過小評価しないでください。現在の主流の見解は、スケーリング法則における計算能力の利点が徐々に効果を失うにつれて、データが異なる大規模モデルメーカーが競争優位性を維持するための最も重要な柱になるということです。
モデルの能力が向上し続けるにつれて、より洗練された専門的なトレーニングデータがモデルの能力に影響を与える重要な要素となります。モデルのトレーニングを武道の達人の育成に例えるならば、高品質のデータセットがこの比喩を完成させるための最高の武道の秘訣であり、計算能力は万能薬であり、モデル自体が資格であると言えるでしょう(。
縦の視点から見ると、AIデータはスノーボールの能力を持つ長期的なトラックでもあります。これまでの作業の蓄積により、データ資産は複利の能力を持つようになり、年を重ねるにつれてより人気を集めるようになります。
) Web3 DataFi: AIデータのための選ばれた肥沃な地
フィリピン、ベネズエラなどの数十万人の人々からなるScale AIのリモート手動ラベリングチームと比較して、Web3はAIデータの分野で自然な優位性を持っており、新しい用語DataFiが誕生しました。
理想的には、Web3 DataFiの利点は次のとおりです。
既存の公開データが開発され尽くそうとしている段階で、未開示データ、さらにはプライベートデータをさらに掘り下げる方法は、データソースを取得し拡大するための重要な方向性です。これは重要な信頼の選択問題に直面しています - あなたは中央集権的大企業の契約買収システムを選び、データを売却しますか?それともブロックチェーンの方法を選び、データのIPを手に保持し、スマートコントラクトを通じて誰があなたのデータを、いつ、何の目的で使用するのかを明確に理解しますか。
同時に、機密情報については、zk、TEEなどの手法を使用して、あなたのプライベートデータが口を閉ざして漏洩しない機械によってのみ処理されることを保証できます。
おそらく、従来の労働生産関係に挑戦する時が来たのかもしれません。Scale AIのように世界中で安価な労働力を探すのではなく、ブロックチェーンの分散特性を利用し、世界中に散らばっている労働力がスマートコントラクトによって保証されたオープンで透明なインセンティブを通じてデータ寄与に参加できるようにする方が良いでしょう。
データラベリングやモデル評価などの労働集約型タスクにおいて、Web3 DataFiの利用は、データファクトリーを設立する中央集権的アプローチよりも参加者の多様性を促進します。これはデータバイアスを回避するための長期的な意義も持っています。
「江南皮革厂」の悲劇を避けるにはどうすればよいのでしょうか?当然、私たちは人間の本質の闇を置き換えるために、スマートコントラクトに明確な価格タグを持つインセンティブシステムを使用すべきです。
避けられない脱グローバリゼーションの文脈において、どのようにして低コストの地理的アービトラージを達成し続けることができますか?世界中に企業を開設することは明らかにより困難になっていますので、古い世界の障壁を回避し、オンチェーン決済方法を受け入れない理由はありません。
"価格差から利益を得る仲介者"は、供給側と需要側の両方にとって永遠の痛みです。中央集権型のデータ会社が仲介者として機能するのではなく、オープンマーケットのようなプラットフォームをチェーン上に作る方が良いので、データの供給側と需要側がより透明かつ効率的に接続できるようになります。
オンチェーンAIエコシステムの発展に伴い、オンチェーンデータの需要はより活発で、セグメント化され、多様化していくでしょう。この需要を効率的に消化し、エコロジカルな繁栄に変えることができるのは、分散型市場だけです。
小口投資家にとって、DataFiは一般の小口投資家の参加を最も促進する、最も分散化されたAIプロジェクトでもあります。
AIツールの登場により、学習の敷居がある程度下がったものの、分散型AIの本来の意図は、巨人によるAIビジネスの現在の独占を打破することです。しかし、技術的なバックグラウンドを持たない小売投資家にとって、現在の多くのプロジェクトがあまりアクセスしやすくないことは認めざるを得ません。分散型コンピューティングネットワークのマイニングに参加するには、高額な初期ハードウェア投資が伴うことが多く、モデル市場の技術的な敷居は普通の参加者を簡単に挫折させることができます。
対照的に、これは一般のユーザーがAI革命で掴むことができる数少ない機会の一つです。Web3は、データ提供、モデルのラベリングや評価を人間の脳の直感や本能に基づいて行ったり、AIツールを使って簡単な創作を行ったり、データ取引に参加したりすることで、あなたがその参加を可能にします。毛党の古いドライバーにとって、難易度は基本的にゼロです。
Web3 DataFiの潜在的なプロジェクト
お金が流れるところに、方向があります。Scale AIがMetaから143億ドルの投資を受け、Palantirの株価がWeb2の世界で1年で5倍以上急騰したことに加えて、DataFiもWeb3の資金調達で非常に良い成果を上げました。ここでは、これらのプロジェクトについて簡単に紹介します。
! [データは資産です:DataFiは新しいブルーオーシャンを切り開いています]###https://img-cdn.gateio.im/webp-social/moments-c629c990916b7e1fbd4699663c3cbcff.webp(
)# Sahara AI、@SaharaLabsAI、4,900万ドルを調達
サハラAIの究極の目標は、分散型AIスーパインフラストラクチャーと取引市場を構築することです。最初にテストされる分野はAIデータです。そのDSP ###データサービスプラットフォーム(のパブリックベータ版は7月22日に発売されます。ユーザーはデータの提供、データラベリング、その他のタスクに参加することによってトークン報酬を得ることができます。
リンク: app.saharaai.com
)# はい、@yupp_aiが3300万ドルを調達しました
Yuppは、モデル出力に関するユーザーのフィードバックを収集するAIモデルフィードバックプラットフォームです。現在の主なタスクは、ユーザーが同じプロンプトに対して異なるモデルの出力を比較し、より良いと思うものを選択できることです。このタスクを完了することでYuppポイントを獲得でき、さらにUSDCなどの法定ステーブルコインと交換できます。
リンク:
バナ、@vana、2300万ドルを調達
Vanaは、ユーザーの個人データ###をソーシャルメディア活動や閲覧履歴などから、収益化可能なデジタル資産に変換することに重点を置いています。ユーザーは、自分の個人データを対応するデータ流動性プール(DLP)にアップロードすることを承認できます。これらのデータはプールされ、AIモデルのトレーニングなどのタスクに参加するために使用され、ユーザーは対応するトークン報酬も受け取ります。
リンク:
(# Chainbase、@ChainbaseHQ、1,650万ドルを調達
Chainbaseのビジネスはオンチェーンデータに焦点を当てており、現在200以上のブロックチェーンをカバーして、オンチェーン活動を構造化された、検証可能で、マネタイズ可能なデータ資産に変換してdApp開発に利用しています。Chainbaseのビジネスは主にマルチチェインインデックスとその他の方法を通じて得られ、データはそのManuscriptシステムとTheia AIモデルを通じて処理されます。一般のユーザーは現在あまり関与していません。
)# サピエンス、@JoinSapien、1550万ドルを調達
Sapienは、人間の知識を大規模に高品質なAIトレーニングデータに変換することを目指しています。誰でもプラットフォーム上でデータアノテーションを行い、ピア検証を通じてデータの品質を確保することができます。同時に、ユーザーは長期的な評判を築いたり、ステーキングを通じてコミットメントを行うことが奨励され、より多くの報酬を得ることができます。
リンク:
Prisma X、@PrismaXai、1100万ドルを調達
Prisma Xは、物理データ収集が鍵となるロボットのためのオープンな調整層を目指しています。このプロジェクトは現在初期段階にあります。最近発表されたホワイトペーパーによると、参加にはデータ収集のためにロボットに投資することや、ロボットデータを遠隔操作することなどが含まれる可能性があります。現在、ホワイトペーパーに基づいたクイズがオープンしており、参加することでポイントを獲得できます。
リンク:
マサ、@getmasafi、890万ドルを調達
MasaはBittensorエコシステムにおける主要なサブネットプロジェクトの一つであり、現在はデータサブネットNo.42とエージェントサブネットNo.59を運営しています。データサブネットはリアルタイムデータへのアクセスを提供することに専念しています。現在、マイナーは主にTEEハードウェアを通じてX/Twitterのリアルタイムデータをクロールしています。一般ユーザーにとって、参加の難易度とコストは比較的高いです。
Irys, @irys_xyz,が870万ドルを調達しました
Irysはプログラム可能なデータストレージとコンピューティングに重点を置き、AI、分散型アプリケーション###dApps###、その他のデータ集約型アプリケーションに対して効率的で低コストのソリューションを提供することを目指しています。データ貢献の面では、一般のユーザーは現時点ではあまり参加できませんが、現在のテストネット段階では参加できる複数の活動があります。
リンク:
(# ORO、@getoro_xyz、600万ドルを調達
OROが目指しているのは、一般の人々がAIへの貢献に参加できるようにすることです。サポート方法には以下が含まれます:1. 個人アカウントをリンクして、ソーシャルアカウント、健康データ、eコマースおよび金融アカウントなどの個人データを提供する。2. データタスクを完了する。テストネットワークは現在オンラインで、参加できます。
リンク: app.getoro.xyz
)# Gata, @Gata_xyz, は400万ドルを調達しました
分散型データレイヤーとして位置付けられているGataは、現在参加できる3つの主要な製品を持っています:1. データエージェント:ユーザーがウェブページを開いている限り、自動的にデータを実行し処理できるAIエージェントのシリーズ;2. AII-in-oneチャット:報酬を得るためのYuppのモデル評価に似たメカニズム;3. GPT-to-Earn:ユーザーのChatGPTでの会話データを収集するブラウザプラグイン。
リンク:
これらの現在のプロジェクトについてどう思いますか?
現在、これらのプロジェクトの参入障壁は一般的に高くありませんが、ユーザーとエコシステムの粘着性が蓄積されると、プラットフォームの利点が急速に蓄積されることは認めざるを得ません。したがって、初期段階ではインセンティブとユーザー体験に焦点を当てるべきです。十分なユーザーを引き付けることで、ビッグデータビジネスを構築することができます。
しかし、労働集約型プロジェクトとして、これらのデータプラットフォームは、労働を管理し、データ出力の質を確保しながら労働を引き付ける方法を考慮する必要があります。結局のところ、多くのWeb3プロジェクトの共通の問題は、プラットフォーム上のほとんどのユーザーが無慈悲な利益追求者であることです。彼らはしばしば短期的な利益のために質を犠牲にします。彼らがプラットフォームの主要なユーザーになることを許可されると、悪貨が良貨を駆逐することは避けられず、最終的にデータの質は保証されず、買い手を引き付けることができません。現在、私たちは、サハラやサピエンなどのプロジェクトがデータの質を強調し、プラットフォーム上の労働者との長期的で健全な協力関係を確立するために努力していることを目にしています。
さらに、透明性の欠如は現在のオンチェーンプロジェクトのもう一つの問題です。実際、ブロックチェーンの不可能な三角形は、多くのプロジェクトに「中央集権が分散化を促進する」という道を選ばせました。しかし、今ではますます多くのオンチェーンプロジェクトが「Web3の皮を被った古いWeb2プロジェクト」の印象を人々に与えています - チェーン上で追跡可能な公開データは非常に少なく、ロードマップでさえもオープン性と透明性の長期的な確固たる決意を見るのが難しいです。これは間違いなくWeb3 DataFiの長期的な健全な発展にとって有毒であり、私たちはより多くのプロジェクトが常に元の意図を保ち、オープン性と透明性のペースを加速することを望んでいます。
最終的に、DataFiの大規模普及の道は2つの部分に分けるべきです:1つは、十分なtoC参加者をネットワークに引き寄せ、データ収集/生成エンジニアリングの新しい力とAI経済の消費者を形成し、生態系のクローズドループを形成することです;もう1つは、現在の主流のtoB企業からの認識を得ることです。結局のところ、短期的には彼らが深い懐具合で大データの注文の主要な供給源です。この点において、Sahara AI、Vanaなどが良い進展を遂げていることも確認しています。
まとめ
より宿命論的に言えば、DataFiは人間の知能を活用して長期的に機械の知能を育成することであり、スマートコントラクトを契約として使用して人間の知能労働が利益を得ることを保証し、最終的には機械の知能からのフィードバックを享受することです。
AI時代の不確実性に不安を感じているなら、そして暗号通貨の世界の浮き沈みの中でブロックチェーンの理想を持ち続けているなら、資本の巨人たちの足跡を追い、DataFiに参加することはトレンドに乗るための良い選択です。