OpenLedger constrói uma cadeia de IA orientada a dados, realizando a assetização de modelos e uma economia de agentes inteligentes combináveis.

OpenLedger Profundidade研报:构建数据驱动、模型可组合的智能体经济

Uma, Introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, sendo todos indispensáveis. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto IA também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "combinar poder computacional". Após a entrada em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelos e dados, marcando a transição da Crypto IA de uma competição por recursos básicos para uma construção de nível médio com maior sustentabilidade e valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os tradicionais modelos de linguagem de grande escala (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com uma escala de parâmetros que varia de 70B a 500B; o custo de um único treinamento pode facilmente atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza modelos de base reutilizáveis, geralmente é baseado em modelos open-source como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, permitindo a construção rápida de modelos especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim chamado através da arquitetura Agent, do sistema de plugins para roteamento dinâmico, da conexão quente de módulos LoRA e de RAG (Geração Aumentada por Recuperação) para operar em colaboração com o LLM. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.

O valor e os limites da Crypto AI no nível do modelo

Os projetos de Crypto AI são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal é que

  • Barreiras tecnológicas demasiado elevadas: a escala de dados, os recursos de computação e as capacidades de engenharia necessárias para treinar um Modelo Base são extremamente grandes, e atualmente apenas as grandes empresas de tecnologia possuem a capacidade correspondente.
  • Limitações do ecossistema de código aberto: Embora modelos básicos de referência como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para impulsionar as quebras de modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, e a participação de projetos em cadeia no nível do modelo central é limitada.

No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através de ajustes de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções principais:

  • Camada de verificação confiável: através do registo em cadeia do caminho de geração do modelo, contribuições de dados e casos de utilização, aumentando a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Análise da classificação dos tipos de modelos de IA e aplicabilidade na blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de modelo de classe Crypto AI estão principalmente concentrados na leve afinação de pequenos SLMs, na integração e validação de dados na blockchain da arquitetura RAG, e na implementação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

A cadeia de blocos de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, quando os dados ou modelos são chamados, a distribuição de recompensas é automaticamente acionada, transformando o comportamento da IA em um valor tokenizado, mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Rede AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o pioneiro no conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando os contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos on-chain com base nas contribuições reais.

OpenLedger fornece um ciclo completo que vai desde a "fornecimento de dados" até a "implantaçãomodelo" e "chamadas de divisão de lucros", cujos módulos principais incluem:

  • Modelo de Fábrica: sem necessidade de programação, é possível usar o LoRA para afinar, treinar e implantar modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implantação;
  • PoA (Prova de Atribuição): medir a contribuição e distribuir recompensas através do registro de chamadas na cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor de IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base na Pilha OP: baseado na pilha tecnológica da Optimism, suporta alta profundidade e execução de baixo custo;
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita o desenvolvimento para os programadores implantar e expandir rapidamente com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas, que são mais voltadas para a camada inferior e enfatizam a soberania de dados e a arquitetura "AI Agents on BOS", a OpenLedger foca mais na construção de uma cadeia de IA dedicada à incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia uma realização de um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura básica de incentivos para modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface de operação puramente gráfica, sem a necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar os modelos com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujos processos principais incluem:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs principais (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibe em tempo real o progresso do treinamento.
  • Avaliação e Implantação de Modelos: Ferramentas de avaliação integradas, suportam exportação para implantação ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG para rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, interativa em tempo real e capaz de monetização sustentável.

O quadro abaixo resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: com o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos de base open-source mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexível e recursos limitados.
  • Qwen:Desempenho excelente em tarefas em chinês, com forte capacidade abrangente, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: O desempenho em conversação em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: um modelo leve lançado pelo Google, com uma estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, a sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implementação em blockchain (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultaram em uma configuração "prioritária para a praticidade".

Model Factory, como uma ferramenta sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com vantagens de baixo custo de entrada, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornece um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar circulação de ativos modelados e ecossistema combinado;
  • Para os utilizadores: é possível utilizar os modelos ou Agentes em combinação, como se estivesse a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixo rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implementação é flexível, tornando-o o método de ajuste fino mais adequado atualmente para a implementação e chamada combinada de modelos Web3.

OpenLoRA é uma estrutura de inferência leve desenvolvida pela OpenLedger, projetada especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos de GPU na implantação de modelos de IA, promovendo a implementação da "IA Pagável" (Payable AI).

Componentes centrais da arquitetura do sistema OpenLoRA, baseados em design modular, cobrem o armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando a capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:

  • Módulo de armazenamento LoRA Adapter: O adapter LoRA afinado é hospedado na OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
  • Hospedagem de modelos e camada de fusão dinâmica: todos os modelos ajustados compartilham a base do grande modelo, durante a inferência o adaptador LoRA é fundido dinamicamente, suportando a inferência conjunta de múltiplos adaptadores, melhorando o desempenho.
  • Motor de inferência: integração de várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV.
  • Módulo de roteamento de solicitações e saída em fluxo: Roteia dinamicamente para o adaptador correto com base no modelo necessário na solicitação, realizando a geração em fluxo a nível de token através da otimização do núcleo.

O processo de inferência do OpenLoRA pertence ao nível técnico de um processo de serviço de modelo "maduro e geral", conforme abaixo:

  • Carregamento de modelos básicos: o sistema pré-carrega modelos básicos como LLaMA 3, Mistral, etc. até
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 5
  • Compartilhar
Comentário
0/400
GasFeeBarbecuevip
· 13h atrás
Está a plagiar o Arbitrum, certo?
Ver originalResponder0
TokenomicsTinfoilHatvip
· 13h atrás
AI Chain, nem os cães brincam
Ver originalResponder0
MEVSandwichvip
· 13h atrás
Mais uma vez, estão a seguir a tendência da IA e a criar conceitos.
Ver originalResponder0
GasFeeCriervip
· 13h atrás
Não finjas, isto é claramente um texto do GPT.
Ver originalResponder0
P2ENotWorkingvip
· 13h atrás
O modelo moeda começou a circular!
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)