AI与DePIN融合:分散化GPU网络崛起与未来趋势分析

AI与DePIN的交汇点:分散化GPU网络的兴起

自2023年以来,AI和DePIN成为Web3领域的热门趋势,市值分别达到300亿美元和230亿美元。本文聚焦两者的交叉领域,探讨相关协议的发展情况。

在AI技术栈中,DePIN网络通过计算资源为AI提供实用性。大型科技公司的发展导致GPU短缺,使其他开发人员难以获得足够的GPU进行计算。这往往迫使开发人员选择中心化云提供商,但由于需要签署不灵活的长期高性能硬件合同,效率低下。

DePIN本质上提供了一种更灵活且更具成本效益的替代方案,通过代币奖励激励资源贡献。AI领域的DePIN将GPU资源从个人所有者众包到数据中心,为需要访问硬件的用户形成统一的供应。这些网络不仅为需要计算能力的开发人员提供可定制性和按需访问,还为GPU所有者提供额外收入。

市场上存在众多AI DePIN网络,识别它们之间的差异并找到合适的网络可能具有挑战性。接下来我们将探讨各协议的作用、目标以及已取得的具体成果。

AI 与 DePIN 的交汇点

AI DePIN网络概述

这里提到的每个项目都有类似的目的 - GPU计算市场网络。本节旨在研究各项目的亮点、市场重点及成就。通过了解它们的关键基础设施和产品,我们可以深入分析它们之间的差异。

Render是提供GPU计算能力的P2P网络先驱,最初专注于内容创作图形渲染,后来将范围扩展到包括从神经辐射场(NeRF)到生成AI的各种AI计算任务。

Akash将自己定位为支持存储、GPU和CPU计算的传统平台(如AWS)的"超级云"替代品。利用Akash容器平台和Kubernetes管理的计算节点等开发人员友好型工具,它能够跨环境无缝部署软件,从而能够运行任何云原生应用程序。

io.net提供对分布式GPU云集群的访问,这些集群专门用于AI和ML用例。它聚合了来自数据中心、加密矿工和其他去中心化网络等领域的GPU。

Gensyn提供专注于机器学习和深度学习计算的GPU计算能力。它声称通过结合使用诸如用于验证工作的学习证明、用于重新运行验证工作的基于图形的精确定位协议以及涉及计算提供商的质押和削减的激励游戏等概念,实现了更高效的验证机制。

Aethir专门搭载企业GPU,专注于计算密集型领域,主要是人工智能、机器学习(ML)、云游戏等。其网络中的容器充当执行基于云的应用程序的虚拟端点,将工作负载从本地设备转移到容器,以实现低延迟体验。

Phala Network充当Web3 AI解决方案的执行层。其区块链是一种无需信任的云计算解决方案,通过使用其可信执行环境(TEE)设计来处理隐私问题。其执行层不是用作AI模型的计算层,而是使AI代理能够由链上的智能合约控制。

AI 与 DePIN 的交汇点

项目比较

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | 业务重点 | 图形渲染和AI | 云计算、渲染和AI | AI | AI | 人工智能、云游戏和电信 | 链上 AI 执行 | | AI任务类型 | 推理 | 兼顾 | 兼顾 | 训练 | 训练 | 执行 | | 工作定价 | 基于表现的定价 | 反向拍卖 | 市场定价 | 市场定价 | 招标系统 | 权益计算 | | 区块链 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | 数据隐私 | 加密&散列 | mTLS 身份验证 | 数据加密 | 安全映射 | 加密 | TEE | | 工作费用 | 每项工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 准备金费用 | 费用低廉 | 每个session 20% | 与质押金额成比例 | | 安全 | 渲染证明 | 权益证明 | 计算证明 | 权益证明 | 渲染能力证明 | 继承自中继链 | | 完成证明 | - | - | 时间锁证明 | 学习证明 | 渲染工作证明 | TEE 证明 | | 质量保证 | 争议 | - | - | 核实者和举报人 | 检查器节点 | 远程证明 | | GPU 集群 | 否 | 是 | 是 | 是 | 是 | 否 |

重要性

集群和并行计算的可用性

分布式计算框架实现了GPU集群,在不影响模型准确性的情况下提供更高效的训练,同时增强了可扩展性。训练复杂AI模型需要强大的计算能力,这通常必须依靠分布式计算来满足其需求。从直观角度看,OpenAI的GPT-4模型拥有超过1.8万亿个参数,在3-4个月内使用128个集群中的约25,000个Nvidia A100 GPU进行训练。

此前,Render和Akash仅提供单一用途的GPU,可能会限制其对GPU的市场需求。不过,大多数重点项目现在都已整合了集群以实现并行计算。io.net与Render、Filecoin和Aethir等其他项目合作,将更多GPU纳入其网络,并已成功在24年第一季度部署了超过3,800个集群。尽管Render不支持集群,但它的工作原理与集群类似,将单个帧分解为多个不同的节点,以同时处理不同范围的帧。Phala目前仅支持CPU,但允许将CPU工作器集群化。

将集群框架纳入AI工作流程网络非常重要,但满足AI开发人员需求所需的集群GPU数量和类型是一个单独的问题。

数据隐私

开发AI模型需要使用大量数据集,这些数据集可能来自各种来源,形式各异。个人医疗记录、用户财务数据等敏感数据集可能面临暴露给模型提供商的风险。三星因担心敏感代码上传到平台会侵犯隐私而内部禁止使用ChatGPT,微软的38TB私人数据泄露事故进一步凸显了在使用AI时采取足够安全措施的重要性。因此,拥有各种数据隐私方法对于将数据控制权交还给数据提供商至关重要。

所涵盖的大多数项目都使用某种形式的数据加密来保护数据隐私。数据加密可确保网络中从数据提供者到模型提供者(数据接收者)的数据传输受到保护。Render在将渲染结果发布回网络时使用加密和哈希处理,而io.net和Gensyn则采用某种形式的数据加密。Akash使用mTLS身份验证,仅允许租户选择的提供商接收数据。

然而,io.net最近与Mind Network合作推出了完全同态加密(FHE),允许在无需先解密的情况下处理加密数据。通过使数据能够安全地传输用于培训目的而无需泄露身份和数据内容,这项创新可以比现有的加密技术更好地确保数据隐私。

Phala Network引入了TEE,即连接设备主处理器中的安全区域。通过这种隔离机制,它可以防止外部进程访问或修改数据,无论其权限级别如何,即使是对机器具有物理访问权限的个人。除了TEE之外,它还在其zkDCAP验证器和jtee命令行界面中结合了zk-proofs的使用,以便与RiscZero zkVM集成的程序。

AI 与 DePIN 的交汇点

计算完成证明和质量检查

这些项目提供的GPU可为一系列服务提供计算能力。由于这些服务范围广泛,从渲染图形到AI计算,因此此类任务的最终质量可能不一定总是符合用户的标准。可以使用完成证明的形式来表示用户租用的特定GPU确实用于运行所需的服务,并且质量检查对请求完成此类工作的用户有益。

计算完成后,Gensyn和Aethir都会生成证明以表明工作已完成,而io.net的证明则表明租用的GPU的性能已得到充分利用且没有出现问题。Gensyn和Aethir都会对已完成的计算进行质量检查。对于Gensyn,它使用验证者重新运行生成的证明的部分内容以与证明进行核对,而举报人则充当对验证者的另一层检查。同时,Aethir使用检查节点来确定服务质量,对低于标准的服务进行处罚。Render建议使用争议解决流程,如果审查委员会发现节点存在问题,则削减该节点。Phala完成后会生成TEE证明,确保AI代理在链上执行所需的操作。

AI 与 DePIN 的交汇点

硬件统计数据

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU数量 | 5600 | 384 | 38177 | - | 40000+ | - | | CPU数量 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100数量 | - | 157 | 2330 | - | 2000+ | - | | H100费用/小时 | - | $1.46 | $1.19 | - | - | - | | A100费用/小时 | - | $1.37 | $1.50 | $0.55 (预计) | $0.33 (预计) | - |

高性能GPU的要求

由于AI模型训练需要性能最佳的GPU,因此倾向于使用Nvidia的A100和H100等GPU,尽管后者在市场上价格很高,但它们提供最佳质量。A100不仅能够训练所有工作负载,而且还能以更快的速度完成训练,这只能说明市场对这种硬件的重视程度。由于H100的推理性能比A100快4倍,因此它现在已成为首选GPU,尤其是对于正在训练自己的LLM的大型公司而言。

对于去中心化的GPU市场提供商来说,要想与Web2同行竞争,它不仅要提供更低的价格,还要满足市场的实际需求。2023年,Nvidia向中心化的大型科技公司交付了超过50万台H100,这使得获取尽可能多的同等硬件以与大型云提供商竞争变得成本高昂且困难重重。因此,考虑这些项目可以以低成本带入其网络的硬件数量对于将这些服务扩展到更大的客户群非常重要。

虽然每个项目都在AI和ML计算方面有业务,但它们在提供计算的能力方面有所不同。Akash总共只有150多个H100和A100单元,而io.net和Aethir则分别获得了2000多个单元。通常,从头开始预训练LLM或生成模型需要集群中至少248到2000多个GPU,因此后两个项目更适合大型模型计算。

根据开发人员所需的集群大小,目前市场上这些去中心化GPU服务的成本已经比中心化GPU服务低得多。Gensyn和Aethir都宣称能够以每小时不到1美元的价格租用相当于A100的硬件,但这仍需要随着时间的推移得到证明。

网络连接的GPU集群拥有大量GPU,每小时成本较低,但与NVLink连接的GPU相比,

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 分享
评论
0/400
熊市苦修僧vip
· 10小时前
又一个幻想中的估值泡沫,让散户再当一回韭菜吧~
回复0
Token小灵通vip
· 16小时前
挖矿割韭菜罢了 这次割GPU的
回复0
链上资深小透明vip
· 16小时前
gpu牛市就要来了?
回复0
RumbleValidatorvip
· 16小时前
并非所有人都配得上去中心化 节点才是真理
回复0
Ser_Liquidatedvip
· 16小时前
GPU够吃够喝 散户还敢卖?
回复0
Solidity Strugglervip
· 16小时前
别吹了 就是炒概念呗
回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)