OpenLedger construit une chaîne AI pilotée par les données pour réaliser l'assetisation de modèles et une économie d'agents intelligents combinables.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur des données et des modèles combinables

I. Introduction | La transition des couches de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun ne peut être négligé. Tout comme l'évolution de l'infrastructure dans l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant généralement l'accent sur la logique de croissance extensive basée sur la « puissance de calcul ». À partir de 2025, l'attention de l'industrie a progressivement évolué vers les niveaux de modèles et de données, marquant la transition de la Crypto IA d'une compétition de ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes. L'échelle des paramètres varie généralement de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger de modèles de base réutilisables, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, et combine une petite quantité de données professionnelles de haute qualité ainsi que des techniques comme LoRA pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi de manière significative les coûts de formation et les barrières techniques.

Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en coopération avec le LLM via des appels d'architecture Agent, un système de plugins de routage dynamique, le module LoRA à chaud, RAG (génération améliorée par la recherche), etc. Cette architecture conserve la capacité de large couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

La valeur et les limites de l'IA crypto au niveau du modèle

Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technique trop élevée : l'échelle des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle de base est extrêmement importante, et seules les grandes entreprises technologiques disposent actuellement des capacités correspondantes.
  • Limitations de l'écosystème open source : Bien que des modèles de base mainstream tels que LLaMA et Mixtral soient open source, la clé pour faire progresser les modèles reste centrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur chaîne au niveau des modèles de base est limité.

Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent toujours réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions principales :

  • Couche de validation fiable : enregistre les chemins de génération de modèles, les contributions de données et les cas d'utilisation sur la blockchain, renforçant ainsi la traçabilité et la résistance à la falsification des sorties AI.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation de modèles et de services.

Analyse de la classification des types de modèles AI et de leur applicabilité à la blockchain

Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'ajustement léger des SLM de petite taille, l'intégration et la vérification des données en chaîne avec l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la « couche d'interface » de l'IA.

La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la provenance de chaque contribution de données et de modèles, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lorsqu'une donnée ou un modèle est appelé, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.

OpenLedger Depth Research Report : construire une économie d'agents intelligente, axée sur les données et modélisable, sur la base de OP Stack + EigenDA

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel axé sur les données et les mécanismes d'incitation des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur une même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de "fourniture de données" à "déploiement de modèle" en passant par "appel de partage de profits", ses modules principaux comprennent :

  • Usine de Modèles : Aucune programmation requise, vous pouvez utiliser LoRA pour l'ajustement fin et le déploiement de modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : support de la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses réalisée par l'enregistrement des appels sur la chaîne ;
  • Datanets : Réseau de données structurées destiné aux scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne, combinable, appelable et payant.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » axée sur les données et modulable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger s'appuie sur OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur OP Stack : basés sur la pile technologique d'Optimism, prenant en charge un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et assure la vérifiabilité des données.

Comparé aux chaînes AI généralistes axées sur la souveraineté des données et l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur les incitations de données et de modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation de modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, favorisant le chemin vers la réalisation de "modèle en tant qu'actif".

OpenLedger Depth Report : Construire une économie d'agents intelligente, axée sur les données et modélisable, avec OP Stack + EigenDA comme base

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'usine, sans code modèle d'usine

ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'atteindre un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : support des LLM principaux (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : Moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement du modèle : Outils d'évaluation intégrés, supportant l'exportation pour le déploiement ou l'appel de partage écosystémique.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : Répondre avec des citations de sources, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les permissions des données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée et contrôlable, interactive en temps réel et durablement monétisable.

Le tableau ci-dessous présente un résumé des capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : écosystème le plus large, communauté active, performances générales solides, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performances d'inférence excellentes, adapté aux scénarios de déploiement flexible et de ressources limitées.
  • Qwen : performance exceptionnelle dans les tâches en chinois, compétences globales solides, idéal pour les développeurs nationaux en première choix.
  • ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Autrefois une référence de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : prise en charge multilingue relativement forte, mais performances d'inférence faibles, adapté aux recherches sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, adapté uniquement à des fins d'enseignement et de validation, non recommandé pour un déploiement réel.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou des modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes réelles de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner l'utilisation de modèles ou d'agents comme vous le feriez avec un appel API.

OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligents axée sur les données et modulable, en utilisant OP Stack + EigenDA comme base

3.2 OpenLoRA, tokenisation des actifs de modèle fine-tuné sur la chaîne

LoRA (Low-Rank Adaptation) est une méthode d'ajustement des paramètres efficace qui apprend de nouvelles tâches en insérant une "matrice de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels ont généralement des dizaines de milliards, voire des centaines de milliards, de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine et ne former que la nouvelle matrice de paramètres insérée." Sa capacité à être efficace en termes de paramètres, son entraînement rapide et sa flexibilité de déploiement en font la méthode d'ajustement la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement de plusieurs modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de promouvoir l'exécution de l'« IA payable » (Payable AI).

OpenLoRA système architecture composant central, basé sur une conception modulaire, couvre le stockage de modèles, l'exécution d'inférence, le routage des requêtes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :

  • Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant des ressources.
  • Hébergement de modèles et couche de fusion dynamique : tous les modèles de réglage fin partagent un grand modèle de base, lors de l'inférence, l'adaptateur LoRA se fusionne dynamiquement, supportant plusieurs adaptateurs pour l'inférence conjointe, améliorant ainsi les performances.
  • Moteur d'inférence : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
  • Module de routage des requêtes et de sortie en flux : Routage dynamique vers le bon adaptateur en fonction du modèle requis dans la requête, avec génération en flux au niveau des tokens grâce à l'optimisation du noyau.

Le processus d'inférence d'OpenLoRA appartient à un flux de service de modèle « mature et général » sur le plan technique, comme suit :

  • Chargement du modèle de base : le système précharge des modèles de base tels que LLaMA 3, Mistral, etc. jusqu'à
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
GasFeeBarbecuevip
· Il y a 13h
C'est du plagiat d'Arbitrum, n'est-ce pas ?
Voir l'originalRépondre0
TokenomicsTinfoilHatvip
· Il y a 13h
La chaîne AI, même les chiens n'y jouent pas.
Voir l'originalRépondre0
MEVSandwichvip
· Il y a 13h
Encore une fois, le vent de l'IA arrive avec des concepts.
Voir l'originalRépondre0
GasFeeCriervip
· Il y a 13h
Cesse de faire semblant, c'est clairement un texte généré par GPT.
Voir l'originalRépondre0
P2ENotWorkingvip
· Il y a 13h
Le jeton modèle a commencé à s'enrouler.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)