OpenLedger Глибина дослідження: побудова економіки агентів, керованої даними, з комбінованими моделями
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, без яких не обійтися. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був частково під контролем децентралізованих проектів GPU, які в основному акцентували увагу на «конкуренції обчислювальної потужності» та грубому зростанні. А з початком 2025 року акценти в індустрії поступово перемістилися на рівень моделей і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного середнього рівня побудови.
Загальний великий модель (LLM) vs Спеціалізована модель (SLM)
Традиційні великі мовні моделі (LLM) сильно залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість одного тренування часто сягає кількох мільйонів доларів. А SLM (Спеціалізована мовна модель) як легка парадигма тонкого налаштування повторно використовуваних базових моделей зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA для швидкого створення експертних моделей, що мають специфічні знання в певній галузі, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано у ваги LLM, а буде співпрацювати з LLM через виклик архітектури Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування за допомогою пошуку) та інші способи. Ця архітектура зберігає широкі можливості LLM, а також покращує спеціалізовану продуктивність за рахунок модулів тонкого налаштування, формуючи високо гнучку комбінаційну інтелектуальну систему.
Цінність і межі Crypto AI на рівні моделей
Проекти Crypto AI по суті важко безпосередньо покращити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, в даний час тільки технологічні гіганти володіють відповідними можливостями.
Обмеження відкритої екосистеми: хоча провідні базові моделі, такі як LLaMA, Mixtral, вже відкриті, справжній прорив моделей все ще зосереджений у дослідницьких установах та закритих інженерних системах, а участь проектів на ланцюгу в основному моделі залишається обмеженою.
Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це виявляється в двох основних напрямках:
Довірений валідаційний рівень: через записані в ланцюгу моделі генерації шляху, внесок даних та використання, підвищується простежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: За допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) тощо, створення позитивного циклу навчання моделей та надання послуг.
Аналіз класифікації типів AI моделей та їх відповідності блокчейну
Отже, модельні проекти Crypto AI можуть бути реалізовані переважно через легку налаштування малих SLM, інтеграцію та верифікацію даних на основі архітектури RAG, а також локальне розгортання та стимулювання моделей Edge. Завдяки перевірності блокчейну та механізму токенів, Crypto може надати унікальну цінність для цих сцен, які мають середні або низькі ресурси, формуючи диференційовану цінність «інтерфейсного рівня» AI.
Блокчейн AI ланцюг на основі даних та моделей може забезпечити чітке, незмінне записування джерел внесків для кожної даних та моделі, що значно підвищує достовірність даних та відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, при виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торговану токенізовану цінність та створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, які зосереджені на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які надають дані, розробників моделей та будівельників AI додатків, співпрацювати на одній платформі та отримувати доходи в ланцюзі відповідно до реального внеску.
OpenLedger забезпечує повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а також до «виклику розподілу прибутку», його основні модулі включають:
Модельний завод: не потрібно програмування, можна використовувати LoRA для тонкого налаштування, навчання та розгортання налаштованих моделей на основі відкритого LLM;
OpenLoRA: підтримка спільного використання тисячі моделей, динамічна завантаження за потребою, значне зниження витрат на розгортання;
PoA (Доказ атрибуції): вимірювання внеску та розподіл винагороди шляхом виклику записів на ланцюгу;
Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, створені та перевірені спільнотою;
Платформа пропозицій моделей (Model Proposal Platform): комбіноване, викликане, платне ринкове середовище моделей на блокчейні.
За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних та комбінованих моделях, що сприяє оновленню ціннісної ланки AI.
А в застосуванні блокчейн-технологій OpenLedger на основі OP Stack + EigenDA створив високо-продуктивне, низько-вартісне, перевіряємое середовище для роботи з даними та контрактами для AI моделей.
Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність і низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: Забезпечення безпеки трансакцій та цілісності активів;
EVM сумісність: зручно для розробників швидко розгортати та розширювати на базі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.
У порівнянні з більш низькорівневими, орієнтованими на суверенітет даних та архітектурою «AI Agents on BOS» універсальними AI ланцюгами, OpenLedger більше зосереджена на створенні спеціалізованого AI ланцюга, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та стійкість ціннісного циклу розробки та виклику моделей на ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, що поєднує хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, сприяючи реалізації концепції «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує повністю графічний інтерфейс, без необхідності використання командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, для яких було завершено авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір та налаштування моделі: підтримка основних LLM (як-от LLaMA, Mistral), налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в режимі реального часу.
Оцінка та впровадження моделі: вбудовані інструменти оцінки, підтримка експорту для впровадження або екосистемного спільного використання.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує пряме тестування здатності моделі до відповідей на запитання.
Генерація RAG-історії: відповіді з посиланнями на джерела, підвищують довіру та можливість аудиту.
Система архітектури Model Factory включає шість основних модулів, що охоплюють ідентифікацію, управління даними, мікронастройку моделей, оцінку та розгортання, а також RAG трасування, створюючи безпечну, контрольовану, інтерактивну в реальному часі та стійку до монетизації інтегровану платформу послуг моделей.
МодельFactory наразі підтримує наступні можливості великих мовних моделей:
LLaMA серія: найбільша екосистема, активна спільнота, універсальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: Архітектура ефективна, продуктивність виведення відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: китайські завдання виконуються відмінно, комплексна здатність висока, підходить для вибору вітчизняних розробників.
ChatGLM: китайський діалог має виразні результати, підходить для вертикального обслуговування клієнтів та локалізованих сценаріїв.
Deepseek: Відзначається перевагою в генерації коду та математичному міркуванні, підходить для інструментів допомоги в інтелектуальній розробці.
Gemma: легка модель, розроблена Google, з чіткою структурою, що дозволяє швидко освоювати та експериментувати.
Falcon: Колись був еталоном продуктивності, підходить для базових досліджень або порівняльних тестів, але активність спільноти зменшилася.
BLOOM: має сильну підтримку кількох мов, але продуктивність висновків є слабкою, підходить для досліджень з охоплення мов.
GPT-2: класична рання модель, придатна лише для навчальних та перевірочних цілей, не рекомендується для фактичного розгортання.
Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE чи мультимодальних моделей, його стратегія не є застарілою, а базується на реаліях обмежень, пов'язаних з оновленими розгортаннями в ланцюзі (витрати на виведення, адаптація RAG, сумісність LoRA, середовище EVM), що дозволяє здійснити конфігурацію з пріоритетом на практичність.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінації, в порівнянні з традиційними інструментами розробки моделей:
Для розробників: надання повного шляху для інкубації, розподілу та доходу моделей;
Для платформи: формування екосистеми обігу та комбінації модельних активів;
Для користувачів: можна комбінувати моделі або агентів так, як викликається API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активізація он-chain активів моделі до налаштування
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який навчиться новим завданням шляхом вставлення «низькорангова матриця» в попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть трильйони параметрів. Щоб використовувати їх для певних завдань, потрібно провести налаштування. Основна стратегія LoRA: «заморозити параметри оригінальної великої моделі, навчати лише вставлену нову матрицю параметрів». Її параметри є ефективними, навчання швидке, а впровадження гнучке, що робить її найпідходящим основним методом налаштування для впровадження та комбінованого виклику Web3 моделей.
OpenLoRA - це легка інфраструктура для інференції, розроблена OpenLedger, спеціально для розгортання декількох моделей та спільного використання ресурсів. Її основна мета полягає у вирішенні поширених проблем, що виникають під час розгортання AI моделей, таких як високі витрати, низька повторна використання та марнотратство ресурсів GPU, сприяючи впровадженню «оплачуваного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, розробленої на основі модульного дизайну, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та маловитратні можливості для розгортання та виклику кількох моделей:
Модуль зберігання LoRA адаптера: підготовлений LoRA адаптер зберігається на OpenLedger, що забезпечує завантаження за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
Модельне хостинг та динамічний злиття шарів: всі моделі тонкої настройки використовують спільну базову велику модель, під час виведення динамічно об'єднуються адаптери LoRA, підтримується спільне виведення кількох адаптерів, що покращує продуктивність.
Інженерія міркування: інтеграція Flash-Attention, Paged-Attention, оптимізацій SGMV та інших технологій оптимізації CUDA.
Модуль маршрутизації запитів та потокового виводу: динамічна маршрутизація до правильного адаптера відповідно до моделей, необхідних у запиті, реалізація потокового генерування на рівні токенів через оптимізацію ядра.
Процес інференції OpenLoRA відноситься до технологічного рівня «стандартних універсальних» моделей сервісного процесу, як показано нижче:
Завантаження базової моделі: система попередньо завантажує такі великі базові моделі, як LLaMA 3, Mistral тощо
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 лайків
Нагородити
11
5
Поділіться
Прокоментувати
0/400
GasFeeBarbecue
· 13год тому
Копіювати Arbitrum, так?
Переглянути оригіналвідповісти на0
TokenomicsTinfoilHat
· 13год тому
AI ланцюг, навіть собаки не грають
Переглянути оригіналвідповісти на0
MEVSandwich
· 13год тому
Ще одна компанія, яка слідує за модою на ШІ, почала створювати концепції.
OpenLedger будує дані-орієнтований AI ланцюг, реалізуючи моделі активів та комбіновану економіку агентів.
OpenLedger Глибина дослідження: побудова економіки агентів, керованої даними, з комбінованими моделями
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, без яких не обійтися. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був частково під контролем децентралізованих проектів GPU, які в основному акцентували увагу на «конкуренції обчислювальної потужності» та грубому зростанні. А з початком 2025 року акценти в індустрії поступово перемістилися на рівень моделей і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного середнього рівня побудови.
Загальний великий модель (LLM) vs Спеціалізована модель (SLM)
Традиційні великі мовні моделі (LLM) сильно залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість одного тренування часто сягає кількох мільйонів доларів. А SLM (Спеціалізована мовна модель) як легка парадигма тонкого налаштування повторно використовуваних базових моделей зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA для швидкого створення експертних моделей, що мають специфічні знання в певній галузі, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано у ваги LLM, а буде співпрацювати з LLM через виклик архітектури Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування за допомогою пошуку) та інші способи. Ця архітектура зберігає широкі можливості LLM, а також покращує спеціалізовану продуктивність за рахунок модулів тонкого налаштування, формуючи високо гнучку комбінаційну інтелектуальну систему.
Цінність і межі Crypto AI на рівні моделей
Проекти Crypto AI по суті важко безпосередньо покращити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це виявляється в двох основних напрямках:
Аналіз класифікації типів AI моделей та їх відповідності блокчейну
Отже, модельні проекти Crypto AI можуть бути реалізовані переважно через легку налаштування малих SLM, інтеграцію та верифікацію даних на основі архітектури RAG, а також локальне розгортання та стимулювання моделей Edge. Завдяки перевірності блокчейну та механізму токенів, Crypto може надати унікальну цінність для цих сцен, які мають середні або низькі ресурси, формуючи диференційовану цінність «інтерфейсного рівня» AI.
Блокчейн AI ланцюг на основі даних та моделей може забезпечити чітке, незмінне записування джерел внесків для кожної даних та моделі, що значно підвищує достовірність даних та відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, при виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торговану токенізовану цінність та створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, які зосереджені на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які надають дані, розробників моделей та будівельників AI додатків, співпрацювати на одній платформі та отримувати доходи в ланцюзі відповідно до реального внеску.
OpenLedger забезпечує повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а також до «виклику розподілу прибутку», його основні модулі включають:
За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних та комбінованих моделях, що сприяє оновленню ціннісної ланки AI.
А в застосуванні блокчейн-технологій OpenLedger на основі OP Stack + EigenDA створив високо-продуктивне, низько-вартісне, перевіряємое середовище для роботи з даними та контрактами для AI моделей.
У порівнянні з більш низькорівневими, орієнтованими на суверенітет даних та архітектурою «AI Agents on BOS» універсальними AI ланцюгами, OpenLedger більше зосереджена на створенні спеціалізованого AI ланцюга, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та стійкість ціннісного циклу розробки та виклику моделей на ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, що поєднує хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, сприяючи реалізації концепції «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує повністю графічний інтерфейс, без необхідності використання командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, для яких було завершено авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Система архітектури Model Factory включає шість основних модулів, що охоплюють ідентифікацію, управління даними, мікронастройку моделей, оцінку та розгортання, а також RAG трасування, створюючи безпечну, контрольовану, інтерактивну в реальному часі та стійку до монетизації інтегровану платформу послуг моделей.
МодельFactory наразі підтримує наступні можливості великих мовних моделей:
Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE чи мультимодальних моделей, його стратегія не є застарілою, а базується на реаліях обмежень, пов'язаних з оновленими розгортаннями в ланцюзі (витрати на виведення, адаптація RAG, сумісність LoRA, середовище EVM), що дозволяє здійснити конфігурацію з пріоритетом на практичність.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінації, в порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активізація он-chain активів моделі до налаштування
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який навчиться новим завданням шляхом вставлення «низькорангова матриця» в попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть трильйони параметрів. Щоб використовувати їх для певних завдань, потрібно провести налаштування. Основна стратегія LoRA: «заморозити параметри оригінальної великої моделі, навчати лише вставлену нову матрицю параметрів». Її параметри є ефективними, навчання швидке, а впровадження гнучке, що робить її найпідходящим основним методом налаштування для впровадження та комбінованого виклику Web3 моделей.
OpenLoRA - це легка інфраструктура для інференції, розроблена OpenLedger, спеціально для розгортання декількох моделей та спільного використання ресурсів. Її основна мета полягає у вирішенні поширених проблем, що виникають під час розгортання AI моделей, таких як високі витрати, низька повторна використання та марнотратство ресурсів GPU, сприяючи впровадженню «оплачуваного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, розробленої на основі модульного дизайну, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та маловитратні можливості для розгортання та виклику кількох моделей:
Процес інференції OpenLoRA відноситься до технологічного рівня «стандартних універсальних» моделей сервісного процесу, як показано нижче: