OpenLedger xây dựng chuỗi AI dựa trên dữ liệu để hiện thực hóa tài sản mô hình và kinh tế tác nhân có thể kết hợp.

Báo cáo nghiên cứu sâu về OpenLedger: Xây dựng nền kinh tế tác nhân thông minh dựa trên dữ liệu và mô hình có thể kết hợp

Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI

Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, không thể thiếu một yếu tố nào. Tương tự như lộ trình tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường từng bị chi phối bởi các dự án GPU phi tập trung, nhấn mạnh logic tăng trưởng thô sơ "chơi sức mạnh tính toán". Tuy nhiên, vào năm 2025, sự chú ý của ngành dần dần chuyển lên các lớp mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng trung tầng với tính bền vững và giá trị ứng dụng cao hơn.

Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)

Các mô hình ngôn ngữ lớn truyền thống (LLM) thường phụ thuộc vào các tập dữ liệu quy mô lớn và kiến trúc phân phối phức tạp, với quy mô tham số thường từ 70B đến 500B, chi phí đào tạo một lần thường lên tới hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) là một phương pháp tinh chỉnh nhẹ có thể tái sử dụng mô hình cơ sở, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên ngành chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản công nghệ.

Cần lưu ý rằng SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hoạt động hợp tác với LLM thông qua việc gọi kiến trúc Agent, hệ thống plugin định tuyến động, cắm nóng mô-đun LoRA, RAG (tăng cường truy xuất sinh) và các phương thức khác. Kiến trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh kết hợp có tính linh hoạt cao.

Giá trị và ranh giới của Crypto AI ở tầng mô hình

Dự án Crypto AI về bản chất khó trực tiếp nâng cao khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là

  • Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và năng lực kỹ thuật cần thiết để đào tạo Mô hình Cơ sở cực kỳ lớn, hiện tại chỉ có các ông lớn công nghệ mới có khả năng tương ứng.
  • Giới hạn của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ bản chính như LLaMA, Mixtral đã được mở nguồn, nhưng chìa khóa để thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng. Các dự án trên chuỗi có không gian tham gia hạn chế ở tầng mô hình cốt lõi.

Tuy nhiên, trên nền tảng của các mô hình cơ sở mã nguồn mở, các dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ chuyên biệt (SLM) và kết hợp tính khả xác minh và cơ chế khuyến khích của Web3. Là "tầng giao diện phụ trợ" của chuỗi công nghiệp AI, điều này được thể hiện qua hai hướng chính:

  • Lớp xác thực đáng tin cậy: Thông qua việc ghi lại trên chuỗi đường dẫn tạo ra mô hình, đóng góp dữ liệu và tình hình sử dụng, tăng cường khả năng truy xuất và khả năng chống giả mạo của đầu ra AI.
  • Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải lên dữ liệu, gọi mô hình, thực hiện các hành động của tác nhân (Agent), xây dựng chu trình tích cực trong đào tạo và cung cấp mô hình.

Phân loại loại mô hình AI và phân tích tính phù hợp với blockchain

Do đó có thể thấy, các điểm khả thi của dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ của SLM nhỏ, kết nối và xác thực dữ liệu trên chuỗi của kiến trúc RAG, cũng như triển khai và khuyến khích mô hình Edge trên địa phương. Kết hợp tính khả thi kiểm chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các kịch bản mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.

Chuỗi AI blockchain dựa trên dữ liệu và mô hình có thể ghi lại một cách rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của quá trình đào tạo mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, sẽ tự động kích hoạt việc phân phối phần thưởng, biến hành vi AI thành giá trị có thể đo lường và giao dịch dưới dạng mã thông báo, xây dựng hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể đánh giá hiệu suất mô hình thông qua bỏ phiếu bằng mã thông báo, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动, mô hình có thể kết hợp của kinh tế thông minh

Hai, Tóm tắt dự án | Tầm nhìn chuỗi AI của OpenLedger

OpenLedger là một trong số ít dự án AI blockchain hiện tại tập trung vào cơ chế khuyến khích dữ liệu và mô hình trên thị trường. Nó tiên phong đưa ra khái niệm "AI có thể thanh toán", nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích những người đóng góp dữ liệu, nhà phát triển mô hình và nhà xây dựng ứng dụng AI hợp tác trên cùng một nền tảng, và nhận được lợi ích trên chuỗi dựa trên đóng góp thực tế.

OpenLedger cung cấp chuỗi khép kín toàn bộ từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi chia sẻ lợi nhuận", các mô-đun cốt lõi của nó bao gồm:

  • Nhà máy mô hình: Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh, huấn luyện và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
  • OpenLoRA:Hỗ trợ hàng ngàn mô hình đồng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
  • PoA (Bằng chứng của sự Ghi nhận): Đo lường đóng góp và phân phối phần thưởng thông qua việc ghi lại các cuộc gọi trên chuỗi;
  • Datanets:Mạng dữ liệu có cấu trúc hướng đến các tình huống dọc, được xây dựng và xác minh bởi sự hợp tác của cộng đồng;
  • Nền tảng Đề xuất Mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.

Thông qua các mô-đun trên, OpenLedger đã xây dựng một "cơ sở hạ tầng kinh tế thông minh" có tính dữ liệu và có thể kết hợp các mô hình, thúc đẩy việc chuỗi hóa giá trị AI.

Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, tạo ra môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp, có thể xác minh cho các mô hình AI.

  • Xây dựng dựa trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ thông lượng cao và chi phí thấp trong quá trình thực thi;
  • Thanh toán trên mạng chính Ethereum: Đảm bảo an toàn giao dịch và tính toàn vẹn tài sản;
  • Tương thích EVM: Thuận tiện cho các nhà phát triển nhanh chóng triển khai và mở rộng trên nền tảng Solidity;
  • EigenDA cung cấp hỗ trợ khả năng sử dụng dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo khả năng xác minh dữ liệu.

So với chuỗi AI tổng quát tập trung vào quyền sở hữu dữ liệu và kiến trúc "AI Agents on BOS" ở tầng thấp hơn, OpenLedger tập trung hơn vào việc xây dựng chuỗi AI chuyên dụng hướng đến khuyến khích dữ liệu và mô hình, nhằm đạt được giá trị vòng khép kín có thể truy xuất, có thể kết hợp và bền vững trong việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp lưu trữ mô hình, tính phí sử dụng và giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường hiện thực hóa "mô hình là tài sản".

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger

Nhà máy mô hình 3.1, nhà máy mô hình không cần mã

ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên tập dữ liệu đã hoàn thành cấp phép và kiểm tra trên OpenLedger. Đã thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, quy trình cốt lõi bao gồm:

  • Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét và phê duyệt, dữ liệu tự động kết nối với giao diện đào tạo mô hình.
  • Lựa chọn và cấu hình mô hình: Hỗ trợ các LLM phổ biến (như LLaMA, Mistral), cấu hình siêu tham số thông qua GUI.
  • Tinh chỉnh nhẹ: Tích hợp động cơ LoRA / QLoRA, hiển thị tiến trình đào tạo theo thời gian thực.
  • Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp sẵn, hỗ trợ xuất khẩu triển khai hoặc chia sẻ gọi sinh thái.
  • Giao diện xác thực tương tác: Cung cấp giao diện trò chuyện, thuận tiện cho việc kiểm tra trực tiếp khả năng hỏi đáp của mô hình.
  • RAG tạo ra nguồn gốc: Trả lời kèm theo trích dẫn nguồn, tăng cường độ tin cậy và khả năng kiểm toán.

Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, bao quát xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy nguyên RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác thời gian thực và có thể biến đổi bền vững.

Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:

  • Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng năng động, hiệu suất tổng quát mạnh, là một trong những mô hình cơ sở mã nguồn mở phổ biến nhất hiện nay.
  • Mistral: Kiến trúc hiệu quả, hiệu suất suy luận tuyệt vời, phù hợp để triển khai linh hoạt trong các tình huống có nguồn lực hạn chế.
  • Qwen:Hiệu suất nhiệm vụ tiếng Trung xuất sắc, khả năng tổng hợp mạnh mẽ, phù hợp với sự lựa chọn hàng đầu của các nhà phát triển trong nước.
  • ChatGLM: Hiệu quả đối thoại tiếng Trung nổi bật, phù hợp với dịch vụ khách hàng theo lĩnh vực và các tình huống địa phương.
  • Deepseek: Có hiệu suất vượt trội trong việc tạo mã và suy diễn toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
  • Gemma: Mô hình nhẹ do Google phát triển, cấu trúc rõ ràng, dễ dàng để bắt đầu và thử nghiệm nhanh chóng.
  • Falcon:Đã từng là tiêu chuẩn về hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng độ hoạt động của cộng đồng đã giảm.
  • BLOOM: Hỗ trợ đa ngôn ngữ khá mạnh, nhưng hiệu suất suy luận yếu, phù hợp cho nghiên cứu bao phủ ngôn ngữ.
  • GPT-2: Mô hình cổ điển từ sớm, chỉ phù hợp cho mục đích giảng dạy và xác minh, không khuyến nghị sử dụng trong triển khai thực tế.

Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lạc hậu, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, phù hợp RAG, tương thích LoRA, môi trường EVM).

Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể biến thành tiền và khả năng kết hợp, so với các công cụ phát triển mô hình truyền thống:

  • Đối với nhà phát triển: Cung cấp lộ trình hoàn chỉnh cho việc ươm tạo, phân phối và thu nhập mô hình;
  • Đối với nền tảng: hình thành mô hình tài sản lưu thông và sinh thái kết hợp;
  • Đối với người dùng: Có thể kết hợp sử dụng mô hình hoặc Agent như khi gọi API.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh

LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận bậc thấp" vào mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới mà không cần sửa đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và nhu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống thường có hàng chục tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể, cần phải thực hiện tinh chỉnh. Chiến lược cốt lõi của LoRA là: "đóng băng tham số của mô hình lớn gốc, chỉ đào tạo các ma trận tham số mới được chèn vào." Nó hiệu quả về tham số, đào tạo nhanh chóng, và triển khai linh hoạt, là phương pháp tinh chỉnh phổ biến nhất hiện nay phù hợp cho việc triển khai và gọi kết hợp mô hình Web3.

OpenLoRA là một khung suy diễn nhẹ được thiết kế đặc biệt cho triển khai nhiều mô hình và chia sẻ tài nguyên, được xây dựng bởi OpenLedger. Mục tiêu cốt lõi của nó là giải quyết các vấn đề phổ biến trong triển khai mô hình AI hiện nay như chi phí cao, tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).

Các thành phần cốt lõi của kiến trúc hệ thống OpenLoRA, dựa trên thiết kế mô-đun, bao phủ các khía cạnh quan trọng như lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu, v.v., đạt được khả năng triển khai và gọi nhiều mô hình hiệu quả, chi phí thấp:

  • Mô-đun lưu trữ LoRA Adapter: LoRA adapter đã được tinh chỉnh được lưu trữ trên OpenLedger, cho phép tải theo nhu cầu, tránh việc tải tất cả các mô hình vào bộ nhớ đồ họa, tiết kiệm tài nguyên.
  • Lưu trữ mô hình và lớp hợp nhất động: Tất cả các mô hình tinh chỉnh chia sẻ mô hình lớn cơ bản, trong quá trình suy diễn, bộ điều hợp LoRA được hợp nhất động, hỗ trợ nhiều bộ điều hợp suy diễn kết hợp, nâng cao hiệu suất.
  • Công cụ suy diễn: Tích hợp nhiều công nghệ tối ưu CUDA như Flash-Attention, Paged-Attention, SGMV.
  • Mô-đun định tuyến yêu cầu và đầu ra theo dòng: Định tuyến động đến adapter chính xác dựa trên mô hình cần thiết trong yêu cầu, thông qua việc tối ưu hóa lõi để thực hiện việc tạo theo dòng ở cấp độ token.

Quy trình suy diễn của OpenLoRA thuộc về quy trình dịch vụ mô hình "chín muồi và phổ biến" ở cấp độ kỹ thuật, như sau:

  • Tải mô hình cơ bản: Hệ thống tải sẵn các mô hình lớn cơ bản như LLaMA 3, Mistral đến
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 5
  • Chia sẻ
Bình luận
0/400
GasFeeBarbecuevip
· 13giờ trước
Sao chép Arbitrum phải không?
Xem bản gốcTrả lời0
TokenomicsTinfoilHatvip
· 13giờ trước
AI chuỗi, chó cũng không chơi
Xem bản gốcTrả lời0
MEVSandwichvip
· 13giờ trước
Theo trào lưu AI, lại có người đến làm ra khái niệm mới.
Xem bản gốcTrả lời0
GasFeeCriervip
· 13giờ trước
Đừng giả vờ nữa, rõ ràng đây là văn bản GPT mà.
Xem bản gốcTrả lời0
P2ENotWorkingvip
· 13giờ trước
Mô hình coin bắt đầu cuộn rồi a.
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)