Sự trỗi dậy của mạng AI DePIN: Tính toán GPU phân tán dẫn đầu xu hướng mới

Mạng AI DePIN: Tương lai của tính toán GPU phân tán

Kể từ năm 2023, AI và DePIN đã trở thành xu hướng nổi bật trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa giữa hai bên, khám phá sự phát triển của các giao thức liên quan.

Trong công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để tăng cường sức mạnh cho AI. Việc thiếu hụt GPU do các công ty công nghệ lớn gây ra khiến các nhà phát triển AI khác khó có thể có đủ sức mạnh GPU. Cách làm truyền thống là chọn các nhà cung cấp dịch vụ đám mây tập trung, nhưng phải ký các hợp đồng dài hạn không linh hoạt, hiệu quả thấp.

DePIN cung cấp một giải pháp linh hoạt hơn và hiệu quả về chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên phù hợp với mục tiêu mạng bằng mã thông báo. DePIN trong lĩnh vực AI tích hợp tài nguyên GPU cá nhân vào trung tâm dữ liệu, cung cấp nguồn cung cấp thống nhất cho người dùng. Điều này không chỉ cung cấp cho các nhà phát triển quyền truy cập tùy chỉnh và theo yêu cầu, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.

Trên thị trường có nhiều mạng DePIN AI, bài viết này sẽ khám phá vai trò, mục tiêu và điểm nổi bật của từng giao thức, cũng như sự khác biệt giữa chúng.

AI và DePIN giao nhau

Tổng quan về mạng DePIN AI

Render

Render là người tiên phong trong mạng lưới tính toán GPU P2P, ban đầu tập trung vào việc kết xuất đồ họa, sau đó mở rộng sang các nhiệm vụ tính toán AI.

Điểm nổi bật:

  • Được thành lập bởi công ty OTOY, đơn vị nhận giải kỹ thuật Oscar
  • Mạng GPU được sử dụng bởi các công ty giải trí lớn như Paramount, PUBG.
  • Hợp tác với Stability AI để tích hợp mô hình AI vào quy trình làm việc dựng nội dung 3D
  • Phê duyệt nhiều máy khách tính toán, tích hợp nhiều GPU mạng DePIN hơn

Akash

Akash được định vị là nền tảng "siêu đám mây" hỗ trợ lưu trữ, tính toán GPU và CPU, là sự thay thế cho các nền tảng truyền thống như AWS. Với các nút tính toán được quản lý bằng nền tảng container và Kubernetes, có thể triển khai liền mạch bất kỳ ứng dụng gốc đám mây nào.

Điểm nổi bật:

  • Đối với các nhiệm vụ tính toán đa dạng từ tính toán tổng quát đến lưu trữ mạng
  • AkashML cho phép chạy hơn 15.000 mô hình trên Hugging Face
  • Ứng dụng quan trọng như chatbot LLM của Mistral AI, SDXL của Stability AI
  • Metaverse, nền tảng triển khai AI và học tập liên bang đang sử dụng siêu đám mây của nó

io.net

io.net cung cấp truy cập vào cụm GPU đám mây phân tán chuyên dụng cho AI và ML, tập hợp tài nguyên GPU từ trung tâm dữ liệu, thợ mỏ và nhiều nguồn khác.

Điểm nổi bật:

  • IO-SDK tương thích với các khung như PyTorch và Tensorflow, có thể tự động mở rộng theo nhu cầu.
  • Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
  • Hợp tác với Render, Filecoin và tích hợp GPU từ các mạng DePIN khác.

Gensyn

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Thông qua các công nghệ như chứng minh học, đạt được cơ chế xác minh hiệu quả hơn.

Điểm nổi bật:

  • Chi phí mỗi giờ của GPU V100 khoảng 0,40 đô la, tiết kiệm chi phí đáng kể.
  • Có thể tinh chỉnh mô hình cơ sở đã được đào tạo trước, hoàn thành các nhiệm vụ cụ thể hơn.
  • Mô hình cơ bản sẽ phi tập trung, chia sẻ toàn cầu, cung cấp chức năng bổ sung

Aethir

Aethir chuyên triển khai GPU cấp doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu như AI, ML, trò chơi trên đám mây. Các container trong mạng hoạt động như các điểm cuối ảo để thực thi ứng dụng đám mây, mang lại trải nghiệm độ trễ thấp.

Điểm nổi bật:

  • Mở rộng dịch vụ điện thoại đám mây, hợp tác với APhone ra mắt điện thoại đám mây phi tập trung
  • Thiết lập hợp tác rộng rãi với các công ty Web2 lớn như NVIDIA, HPE
  • Với nhiều đối tác Web3 như CARV, Magic Eden

Mạng lưới Phala

Phala Network như là lớp thực thi của giải pháp AI Web3, sử dụng môi trường thực thi đáng tin cậy (TEE) để xử lý các vấn đề về quyền riêng tư. Điều này cho phép các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.

Nổi bật:

  • Là giao thức đồng xử lý cho tính toán có thể xác minh, trao quyền cho các đại lý AI tài nguyên trên chuỗi.
  • Hợp đồng đại lý AI có thể được nhận thông qua Redpill để có được các mô hình ngôn ngữ lớn hàng đầu như OpenAI.
  • Tương lai sẽ bao gồm các hệ thống chứng minh đa dạng như zk-proofs, MPC, FHE.
  • Tương lai hỗ trợ GPU TEE như H100, nâng cao khả năng tính toán

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm chính trong kinh doanh | Hiển thị đồ họa và AI | Điện toán đám mây, hiển thị và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai đều có thể | Cả hai đều có thể | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Bảo mật dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | 0.5-5% mỗi công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% chi phí dự trữ | Chi phí thấp | 20% cho mỗi phiên | Tỷ lệ với số tiền đặt cọc | | An toàn | Chứng minh render | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng render | Kế thừa từ chuỗi trung gian | | Chứng nhận hoàn thành | - | - | Chứng nhận khóa thời gian | Chứng nhận học tập | Chứng nhận công việc render | Chứng nhận TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Node kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

AI và DePIN giao điểm

Tầm quan trọng

Khả năng sử dụng của tính toán cụm và song song

Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn, đồng thời tăng cường khả năng mở rộng. Đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1.8 triệu tỷ tham số, được đào tạo trong khoảng 3-4 tháng với khoảng 25.000 GPU Nvidia A100 trong 128 cụm.

Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác để đưa nhiều GPU hơn vào mạng, đã triển khai hơn 3.800 cụm trong quý 1 năm 24. Render tuy không hỗ trợ cụm, nhưng phân tách một khung thành nhiều nút xử lý đồng thời, nguyên lý hoạt động tương tự. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.

AI và giao điểm của DePIN

quyền riêng tư dữ liệu

Phát triển mô hình AI cần một lượng lớn dữ liệu, có thể chứa thông tin nhạy cảm. Samsung đã vô hiệu hóa ChatGPT do lo ngại rò rỉ mã, sự cố rò rỉ 38TB dữ liệu của Microsoft đã làm nổi bật tầm quan trọng của các biện pháp an ninh AI. Do đó, các phương pháp bảo mật dữ liệu khác nhau là rất quan trọng để bảo vệ quyền kiểm soát dữ liệu.

Hầu hết các dự án sử dụng một dạng mã hóa dữ liệu. Render sử dụng mã hóa và băm khi phát hành kết quả kết xuất, io.net và Gensyn áp dụng mã hóa dữ liệu, Akash sử dụng xác thực mTLS để hạn chế quyền truy cập dữ liệu.

Gần đây, io.net đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng hình (FHE), cho phép xử lý dữ liệu đã mã hóa mà không cần giải mã, bảo vệ quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện có.

Phala Network giới thiệu môi trường thực thi đáng tin cậy ( TEE ), ngăn chặn các quy trình bên ngoài truy cập hoặc sửa đổi dữ liệu. Nó cũng kết hợp zk-proofs trong bộ xác thực zkDCAP và jtee CLI để tích hợp RiscZero zkVM.

AI và DePIN giao nhau

Chứng nhận hoàn thành tính toán và kiểm tra chất lượng

Do dịch vụ rộng rãi, từ rendering đến tính toán AI, chất lượng cuối cùng có thể không luôn đáp ứng tiêu chuẩn của người dùng. Việc hoàn thành chứng minh và kiểm tra chất lượng có lợi cho người dùng.

Gensyn và Aethir hoàn thành chứng nhận, chứng nhận của io.net cho thấy hiệu suất GPU được tận dụng đầy đủ. Gensyn và Aethir thực hiện kiểm tra chất lượng, Gensyn sử dụng người xác thực và người báo cáo, Aethir sử dụng nút kiểm tra. Render đề xuất sử dụng quy trình giải quyết tranh chấp. Phala tạo chứng nhận TEE, đảm bảo rằng các đại lý AI thực hiện các hoạt động cần thiết.

Dữ liệu thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |

AI và DePIN giao điểm

Nhu cầu GPU hiệu suất cao

Mô hình AI có xu hướng sử dụng GPU hiệu suất cao như Nvidia A100 và H100 để huấn luyện. Hiệu suất suy diễn của H100 gấp 4 lần A100, trở thành sự lựa chọn hàng đầu cho các công ty lớn trong việc huấn luyện LLM.

Các nhà cung cấp thị trường GPU phi tập trung cần cung cấp giá thấp hơn và đáp ứng nhu cầu thực tế. Vào năm 2023, Nvidia đã giao hơn 500.000 chiếc H100 cho các công ty công nghệ lớn, khiến việc có được phần cứng tương đương trở nên khó khăn. Do đó, việc xem xét số lượng phần cứng mà những dự án này có thể đưa vào với chi phí thấp là rất quan trọng để mở rộng cơ sở khách hàng.

Akash chỉ có hơn 150 H100 và A100, trong khi io.net và Aethir mỗi cái có hơn 2000. Các mô hình LLM được tiền huấn luyện hoặc mô hình sinh thường cần từ 248 đến hơn 2000 cụm GPU, vì vậy hai dự án sau phù hợp hơn cho tính toán mô hình lớn.

Chi phí dịch vụ GPU phi tập trung đã thấp hơn dịch vụ tập trung. Gensyn và Aethir tuyên bố có thể cho thuê phần cứng cấp A100 với giá dưới 1 đô la mỗi giờ, nhưng vẫn cần thời gian để xác minh.

So với GPU kết nối NVLink, bộ nhớ của cụm GPU kết nối mạng bị hạn chế. NVLink hỗ trợ giao tiếp trực tiếp giữa các GPU, phù hợp cho các mô hình LLM với tham số lớn và tập dữ liệu lớn. Mặc dù vậy, mạng GPU phi tập trung vẫn cung cấp sức mạnh tính toán mạnh mẽ và khả năng mở rộng cho các nhiệm vụ tính toán phân tán, tạo ra cơ hội để xây dựng nhiều trường hợp sử dụng AI và ML hơn.

AI và giao điểm của DePIN

cung cấp GPU/CPU tiêu dùng

CPU cũng đóng vai trò quan trọng trong việc đào tạo mô hình AI, từ xử lý dữ liệu đến quản lý bộ nhớ. GPU tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo các mô hình quy mô nhỏ.

Xem xét việc hơn 85% tài nguyên GPU của người tiêu dùng đang bị bỏ hoang, các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này. Việc cung cấp những tùy chọn này cho phép họ phát triển thị trường ngách, tập trung vào tính toán mật độ lớn, render quy mô nhỏ hoặc sự kết hợp của cả hai.

AI và DePIN giao điểm

Kết luận

Lĩnh vực DePIN AI vẫn còn tương đối mới, phải đối mặt với những thách thức. Ví dụ, io.net đã từng bị cáo buộc làm giả số lượng GPU, sau đó đã giải quyết vấn đề bằng cách giới thiệu quy trình chứng minh công việc.

Mặc dù vậy, số lượng nhiệm vụ và phần cứng thực hiện trên các mạng GPU phi tập trung này đã tăng đáng kể, nhấn mạnh sự gia tăng nhu cầu về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Đồng thời, sự gia tăng của các nhà cung cấp phần cứng phản ánh nguồn cung trước đây chưa được khai thác đầy đủ. Điều này càng chứng minh sự phù hợp của sản phẩm mạng AI DePIN với thị trường, giải quyết hiệu quả các thách thức về nhu cầu và cung.

Nhìn về tương lai, AI sẽ phát triển thành một thị trường hàng nghìn tỷ đô la đang bùng nổ. Các mạng GPU phân tán này sẽ đóng vai trò then chốt trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển. Bằng cách liên tục thu hẹp khoảng cách giữa nhu cầu và cung, các mạng này sẽ đóng góp đáng kể vào bức tranh tương lai của AI và cơ sở hạ tầng tính toán.

AI và giao điểm DePIN

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 4
  • Chia sẻ
Bình luận
0/400
SpeakWithHatOnvip
· 2giờ trước
Còn đang giao dịch depin? Chết sớm thì sẽ tái sinh sớm.
Xem bản gốcTrả lời0
SmartContractPlumbervip
· 2giờ trước
Mã này vẫn cần được kiểm tra, đừng để lộ lỗ hổng.
Xem bản gốcTrả lời0
HodlNerdvip
· 2giờ trước
lý thuyết trò chơi thú vị đang diễn ra... các pool GPU phi tập trung là sự tiến hóa hợp lý tiếp theo thật sự
Xem bản gốcTrả lời0
PanicSellervip
· 2giờ trước
Chỉ thiếu một chiếc card đồ họa thôi, xem những người này có thể làm gì.
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)