OpenLedger Глубина аналитический отчет: построение экономики агентов, управляемых данными и комбинируемыми моделями
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры AI, и их нельзя исключать. Подобно эволюционному пути инфраструктуры традиционной отрасли AI, область Crypto AI также прошла через подобные этапы. В начале 2024 года рынок в значительной степени был под контролем децентрализованных GPU проектов, которые в основном подчеркивали логику грубого роста «состязания в вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно сместилось к модели и уровню данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному с точки зрения применения среднему уровню строительства.
Общие большие модели (LLM) против специализированных моделей (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров которых составляет от 70B до 500B, а стоимость одной тренировки может достигать миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой парадигму легкой донастройки, основанную на повторно используемой базовой модели, обычно использующей такие открытые модели, как LLaMA, Mistral, DeepSeek и сочетая небольшое количество высококачественных специализированных данных и технологии LoRA, позволяя быстро создавать экспертные модели с конкретными отраслевыми знаниями, значительно снижая затраты на обучение и технологические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет работать в сотрудничестве с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (усиленная генерация на основе поиска) и другие способы. Эта архитектура сохраняет широкие возможности LLM и одновременно улучшает профессиональные показатели с помощью модуля тонкой настройки, создавая высоко гибкую комбинированную интеллектуальную систему.
Значение и границы Crypto AI на уровне модели
Проекты Crypto AI по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Высокий технический порог: объем данных, вычислительных ресурсов и инженерных возможностей, необходимых для обучения Фундаментальной Модели, чрезвычайно велик, в настоящее время только технологические гиганты обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключевым фактором, способствующим прорыву моделей, по-прежнему остаются научные учреждения и закрытые инженерные системы; участие блокчейн-проектов на уровне основных моделей ограничено.
Однако, на основе открытых моделей, проекты Crypto AI все еще могут осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» в цепочке AI, это проявляется в двух основных направлениях:
Достоверный уровень верификации: через запись на блокчейне пути генерации модели, данные о вкладе и использовании, усиливается прослеживаемость и устойчивость к подделке AI-выходов.
Механизм стимулов: с помощью родного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агентов (Agent), создание положительного цикла обучения и обслуживания модели.
Анализ классификации типов AI моделей и их применимость в блокчейне
Таким образом, видно, что реальные точки применения моделей типа Crypto AI в основном сосредоточены на легкой настройке малых SLM, доступе к данным на блокчейне и их проверке в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. Совместив проверяемость блокчейна и токеномику, Crypto может предоставить уникальную ценность для этих сценариев с моделями средней и низкой ресурсности, создавая дифференцированную ценность на «интерфейсном уровне» AI.
Блокчейн AI цепочка на основе данных и моделей может четко и неизменяемо записывать источник вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя децентрализованную систему управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, общее описание проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих текущих блокчейн AI проектов на рынке, сосредоточенных на механизмах стимулов для данных и моделей. Он впервые предложил концепцию «Payable AI», направленную на создание справедливой, прозрачной и компонуемой среды работы AI, которая будет мотивировать участников по предоставлению данных, разработчиков моделей и создателей AI приложений сотрудничать на одной платформе и получать доходы на блокчейне в зависимости от их фактического вклада.
OpenLedger предоставляет полный закрытый цикл от «предоставления данных» до «развертывания моделей», а затем до «призывов к распределению прибыли», его ключевые модули включают:
Модельная фабрика: не требуется программирование, можно использовать LoRA для тонкой настройки, обучения и развертывания пользовательских моделей на основе открытых LLM;
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное сокращение затрат на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов на блокчейне;
Datanets: структурированные сетевые данные, ориентированные на вертикальные сценарии, создаваемые и проверяемые сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономики агентов», основанную на данных и комбинируемых моделях, способствующую онлайнизации цепочки создания ценности AI.
А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и подтверждаемую среду для выполнения данных и контрактов для моделей ИИ.
Построено на основе OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкую стоимость выполнения;
Расчет в основной сети Ethereum: обеспечение безопасности транзакций и целостности активов;
EVM совместимость: удобно для разработчиков быстро развертывать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
В отличие от более низкоуровневой универсальной AI-цепочки, ориентированной на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замкнутого цикла ценности для разработки и вызова моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, сочетающая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепочке, способствуя реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является крупной платформой для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных рамок для тонкой настройки, ModelFactory предлагает исключительно графический интерфейс, без необходимости в инструментах командной строки или интеграции API. Пользователи могут тонко настраивать модели на основе наборов данных, которые были авторизованы и проверены в OpenLedger. Это реализует интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, основные этапы которого включают:
Контроль доступа к данным: Пользователь подает запрос на данные, провайдер проверяет и утверждает, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через графический интерфейс.
Легкая настройка: встроенный движок LoRA / QLoRA, демонстрирующий прогресс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддерживающие экспорт развертывания или экосистемного общего вызова.
Интерфейс взаимодействия для проверки: предоставляет интерфейс в виде чата, что упрощает прямое тестирование способности модели отвечать на вопросы.
Генерация RAG для отслеживания: ответы с указанием источников, повышающие доверие и аудиторскую проверяемость.
Системная архитектура Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, микронастройку моделей, оценку развертывания и RAG трассировку, создавая безопасную, контролируемую, интерактивную и устойчивую к монетизации интегрированную платформу моделей.
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
Серия LLaMA: самый широкий экосистема, активное сообщество, универсальная производительность, одна из самых популярных открытых базовых моделей на сегодняшний день.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для развертывания в гибких условиях с ограниченными ресурсами.
Qwen: Отличное выполнение китайских задач и сильные всесторонние способности, подходит для отечественных разработчиков.
ChatGLM: выдающиеся результаты китайского диалога, подходит для специализированного обслуживания клиентов и локализованных сценариев.
Deepseek: демонстрирует превосходство в генерации кода и математическом выводе, подходит для инструментов поддержки интеллектуальной разработки.
Gemma: легкая модель, выпущенная Google, с ясной структурой, легко осваивается и подходит для быстрого эксперимента.
Falcon: Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: Поддержка множества языков довольно сильная, но производительность вывода слабая, подходит для исследований с охватом языков.
GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для фактического развертывания.
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритетах практичности», которые учитывают реальные ограничения развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладая низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути для инкубации, распределения и дохода моделей;
Для платформы: формирование модели оборота активов и комбинированной экосистемы;
Для пользователей: можно комбинировать использование моделей или агентов, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активизация цепочных активов для дообученных моделей
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который обучает новые задачи путем вставки «низкоранговых матриц» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Для их использования в конкретных задачах необходимо проводить тонкую настройку. Основная стратегия LoRA заключается в следующем: «замораживание параметров оригинальной большой модели, обучение только вставленных новых параметрических матриц». Ее параметры эффективны, обучение быстрое, а развертывание гибкое, что делает ее текущим наиболее подходящим методом тонкой настройки для развертывания и комбинированного вызова Web3 моделей.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокие затраты, низкая повторная использование и расточительство ресурсов GPU, а также продвижение реализации «оплачиваемого AI» (Payable AI).
OpenLoRA система архитектуры основные компоненты, основанные на модульном дизайне, охватывающие хранение моделей, выполнение вывода, маршрутизацию запросов и другие ключевые моменты, реализующие эффективное, низкозатратное развертывание и вызов множества моделей:
Модуль хранения LoRA адаптера: дообученный адаптер LoRA размещается на OpenLedger, что позволяет загружать его по мере необходимости, избегая предварительной загрузки всех моделей в видеопамять и экономя ресурсы.
Хостинг моделей и динамический слой слияния: все модели, прошедшие тонкую настройку, используют общую базовую большую модель, во время вывода динамически объединяются адаптеры LoRA, поддерживая совместный вывод нескольких адаптеров для повышения производительности.
Интеллектуальный движок: интеграция нескольких технологий CUDA, таких как Flash-Attention, Paged-Attention, оптимизация SGMV и др.
Модуль маршрутизации запросов и потокового вывода: динамически направляет к правильному адаптеру в зависимости от требуемой модели в запросе, реализуя потоковую генерацию на уровне токенов с помощью оптимизированного ядра.
Процесс вывода OpenLoRA относится к техническому уровню «взрослых универсальных» модельных сервисов, как показано ниже:
Загрузка базовой модели: система предзагружает такие базовые большие модели, как LLaMA 3, Mistral и т.д.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 Лайков
Награда
11
5
Поделиться
комментарий
0/400
GasFeeBarbecue
· 19ч назад
Ты имеешь в виду плагиат Arbitrum?
Посмотреть ОригиналОтветить0
TokenomicsTinfoilHat
· 19ч назад
AI цепь, даже собаки не играют
Посмотреть ОригиналОтветить0
MEVSandwich
· 19ч назад
Следуя за модой AI, снова начали говорить о концепциях.
OpenLedger создает основанную на данных AI-цепочку, реализуя модель активов и экономику комбинируемых智能体.
OpenLedger Глубина аналитический отчет: построение экономики агентов, управляемых данными и комбинируемыми моделями
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры AI, и их нельзя исключать. Подобно эволюционному пути инфраструктуры традиционной отрасли AI, область Crypto AI также прошла через подобные этапы. В начале 2024 года рынок в значительной степени был под контролем децентрализованных GPU проектов, которые в основном подчеркивали логику грубого роста «состязания в вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно сместилось к модели и уровню данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному с точки зрения применения среднему уровню строительства.
Общие большие модели (LLM) против специализированных моделей (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров которых составляет от 70B до 500B, а стоимость одной тренировки может достигать миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой парадигму легкой донастройки, основанную на повторно используемой базовой модели, обычно использующей такие открытые модели, как LLaMA, Mistral, DeepSeek и сочетая небольшое количество высококачественных специализированных данных и технологии LoRA, позволяя быстро создавать экспертные модели с конкретными отраслевыми знаниями, значительно снижая затраты на обучение и технологические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет работать в сотрудничестве с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (усиленная генерация на основе поиска) и другие способы. Эта архитектура сохраняет широкие возможности LLM и одновременно улучшает профессиональные показатели с помощью модуля тонкой настройки, создавая высоко гибкую комбинированную интеллектуальную систему.
Значение и границы Crypto AI на уровне модели
Проекты Crypto AI по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Однако, на основе открытых моделей, проекты Crypto AI все еще могут осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» в цепочке AI, это проявляется в двух основных направлениях:
Анализ классификации типов AI моделей и их применимость в блокчейне
Таким образом, видно, что реальные точки применения моделей типа Crypto AI в основном сосредоточены на легкой настройке малых SLM, доступе к данным на блокчейне и их проверке в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. Совместив проверяемость блокчейна и токеномику, Crypto может предоставить уникальную ценность для этих сценариев с моделями средней и низкой ресурсности, создавая дифференцированную ценность на «интерфейсном уровне» AI.
Блокчейн AI цепочка на основе данных и моделей может четко и неизменяемо записывать источник вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя децентрализованную систему управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, общее описание проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих текущих блокчейн AI проектов на рынке, сосредоточенных на механизмах стимулов для данных и моделей. Он впервые предложил концепцию «Payable AI», направленную на создание справедливой, прозрачной и компонуемой среды работы AI, которая будет мотивировать участников по предоставлению данных, разработчиков моделей и создателей AI приложений сотрудничать на одной платформе и получать доходы на блокчейне в зависимости от их фактического вклада.
OpenLedger предоставляет полный закрытый цикл от «предоставления данных» до «развертывания моделей», а затем до «призывов к распределению прибыли», его ключевые модули включают:
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономики агентов», основанную на данных и комбинируемых моделях, способствующую онлайнизации цепочки создания ценности AI.
А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и подтверждаемую среду для выполнения данных и контрактов для моделей ИИ.
В отличие от более низкоуровневой универсальной AI-цепочки, ориентированной на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замкнутого цикла ценности для разработки и вызова моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, сочетающая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепочке, способствуя реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является крупной платформой для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных рамок для тонкой настройки, ModelFactory предлагает исключительно графический интерфейс, без необходимости в инструментах командной строки или интеграции API. Пользователи могут тонко настраивать модели на основе наборов данных, которые были авторизованы и проверены в OpenLedger. Это реализует интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, основные этапы которого включают:
Системная архитектура Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, микронастройку моделей, оценку развертывания и RAG трассировку, создавая безопасную, контролируемую, интерактивную и устойчивую к монетизации интегрированную платформу моделей.
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритетах практичности», которые учитывают реальные ограничения развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладая низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активизация цепочных активов для дообученных моделей
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который обучает новые задачи путем вставки «низкоранговых матриц» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Для их использования в конкретных задачах необходимо проводить тонкую настройку. Основная стратегия LoRA заключается в следующем: «замораживание параметров оригинальной большой модели, обучение только вставленных новых параметрических матриц». Ее параметры эффективны, обучение быстрое, а развертывание гибкое, что делает ее текущим наиболее подходящим методом тонкой настройки для развертывания и комбинированного вызова Web3 моделей.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокие затраты, низкая повторная использование и расточительство ресурсов GPU, а также продвижение реализации «оплачиваемого AI» (Payable AI).
OpenLoRA система архитектуры основные компоненты, основанные на модульном дизайне, охватывающие хранение моделей, выполнение вывода, маршрутизацию запросов и другие ключевые моменты, реализующие эффективное, низкозатратное развертывание и вызов множества моделей:
Процесс вывода OpenLoRA относится к техническому уровню «взрослых универсальных» модельных сервисов, как показано ниже: