Relatório de pesquisa sobre AI Layer1: Explorando o solo fértil da Descentralização AI
Visão Geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de grandes modelos de linguagem (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando, em certos cenários, o potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias é rigidamente controlado por um pequeno número de gigantes da tecnologia centralizados. Com um forte capital e o controle sobre recursos de computação caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um impacto profundo na saúde do desenvolvimento da indústria de IA e na aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve "ser boa" ou "ser má" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de Descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, surgiram muitos aplicativos "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas-chave ainda dependendo de serviços de nuvem centralizados, e a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA em blockchain ainda mostra limitações em termos de capacidade de modelo, uso de dados e cenários de aplicação, e a profundidade e a amplitude da inovação precisam ser melhoradas.
Para realmente realizar a visão da Descentralização do AI, permitindo que a blockchain suporte aplicações de AI em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para AI. Isso fornecerá uma base sólida para a inovação aberta de AI, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de AI descentralizado.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na blockchain. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder computacional, armazenamento, etc. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados ao consenso e ao mecanismo de incentivo de base: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA em cadeia muitas vezes precisa de suportar uma variedade de tipos de tarefas heterogéneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta vazão, baixa latência e paralelismo elástico, e prever uma capacidade de suporte nativa a recursos de computação heterogéneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada 1 de IA não só deve prevenir comportamentos maliciosos do modelo, manipulação de dados e outros riscos de segurança, mas também garantir, a partir da mecânica de base, a verificabilidade e alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentes e verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a compreenderem a lógica e os fundamentos da saída da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários; nos setores financeiro, médico e social, a proteção da privacidade dos dados é especialmente crítica. O AI Layer 1 deve, ao mesmo tempo que garante a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de direitos de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento do ecossistema Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a contínua prosperidade do ecossistema de IA descentralizado.
Baseado no contexto e expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer 1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes desenvolvimentos da área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois será migrada para Layer 1), através da combinação de AI Pipeline e tecnologia blockchain, construindo uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver problemas de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade em blockchain, transparência de chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicada a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção de privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o desenvolvimento do ecossistema. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP, visão computacional, e colaboram para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient já nasceu com um brilho especial, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento, incluindo Delphi, Hashkey e dezenas de renomados VCs como Spartan.
Estrutura de design e camada de aplicação
Camada de Infraestrutura
Estrutura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA Leal", contendo dois processos centrais:
Curadoria de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.
O sistema de blockchain oferece transparência e Descentralização no controle dos protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlada pelo contrato de autorização;
Camada de Acesso: Verifica se o usuário está autorizado através de prova de permissão;
Camada de incentivo: o contrato de roteamento de receitas distribuirá o pagamento a cada chamada para treinadores, implementadores e validadores.
OML Model Framework
A estrutura OML (Aberto, Monetizável, Leal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia em cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo irá desencadear um fluxo de receita, o contrato na cadeia irá distribuir os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Impressão digital incorporada: inserção de um conjunto de pares chave-valor de consulta-resposta ocultos durante o treinamento para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: É necessário obter um "certificado de permissão" emitido pelo proprietário do modelo antes da chamada, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Esta abordagem permite a realização de "chamadas de autorização baseadas em comportamento + validação de propriedade" sem custo adicional de recriptografia.
Quadro de segurança e confirmação de direitos do modelo
Sentient atualmente utiliza a segurança Melange: combinação de verificação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presunção de conformidade, com detecção e punição em caso de violação.
O mecanismo de impressão digital é uma implementação chave do OML, que, através da incorporação de pares específicos de "pergunta-resposta", permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro on-chain rastreável para o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real tornam-no o núcleo da implementação atual de modelos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
5
Compartilhar
Comentário
0/400
MEVictim
· 16h atrás
A quantidade de comida do ai é um pouco grande.
Ver originalResponder0
PensionDestroyer
· 16h atrás
Oligopólio tudo precisa ser controlado
Ver originalResponder0
CoinBasedThinking
· 16h atrás
Foi monopolizado.
Ver originalResponder0
OnchainFortuneTeller
· 16h atrás
A centralização é assustadora.
Ver originalResponder0
BearMarketMonk
· 16h atrás
Gigantes estão apenas arrecadando dinheiro, idiotas não fiquem tão empolgados.
Evolução da AI Layer1: novas oportunidades e desafios da Descentralização da AI
Relatório de pesquisa sobre AI Layer1: Explorando o solo fértil da Descentralização AI
Visão Geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de grandes modelos de linguagem (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando, em certos cenários, o potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias é rigidamente controlado por um pequeno número de gigantes da tecnologia centralizados. Com um forte capital e o controle sobre recursos de computação caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um impacto profundo na saúde do desenvolvimento da indústria de IA e na aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve "ser boa" ou "ser má" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de Descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, surgiram muitos aplicativos "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas-chave ainda dependendo de serviços de nuvem centralizados, e a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA em blockchain ainda mostra limitações em termos de capacidade de modelo, uso de dados e cenários de aplicação, e a profundidade e a amplitude da inovação precisam ser melhoradas.
Para realmente realizar a visão da Descentralização do AI, permitindo que a blockchain suporte aplicações de AI em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para AI. Isso fornecerá uma base sólida para a inovação aberta de AI, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de AI descentralizado.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na blockchain. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder computacional, armazenamento, etc. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados ao consenso e ao mecanismo de incentivo de base: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA em cadeia muitas vezes precisa de suportar uma variedade de tipos de tarefas heterogéneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta vazão, baixa latência e paralelismo elástico, e prever uma capacidade de suporte nativa a recursos de computação heterogéneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada 1 de IA não só deve prevenir comportamentos maliciosos do modelo, manipulação de dados e outros riscos de segurança, mas também garantir, a partir da mecânica de base, a verificabilidade e alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentes e verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a compreenderem a lógica e os fundamentos da saída da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários; nos setores financeiro, médico e social, a proteção da privacidade dos dados é especialmente crítica. O AI Layer 1 deve, ao mesmo tempo que garante a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de direitos de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento do ecossistema Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a contínua prosperidade do ecossistema de IA descentralizado.
Baseado no contexto e expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer 1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes desenvolvimentos da área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois será migrada para Layer 1), através da combinação de AI Pipeline e tecnologia blockchain, construindo uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver problemas de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade em blockchain, transparência de chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicada a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção de privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o desenvolvimento do ecossistema. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP, visão computacional, e colaboram para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient já nasceu com um brilho especial, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento, incluindo Delphi, Hashkey e dezenas de renomados VCs como Spartan.
Estrutura de design e camada de aplicação
Camada de Infraestrutura
Estrutura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA Leal", contendo dois processos centrais:
O sistema de blockchain oferece transparência e Descentralização no controle dos protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
OML Model Framework
A estrutura OML (Aberto, Monetizável, Leal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia em cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Esta abordagem permite a realização de "chamadas de autorização baseadas em comportamento + validação de propriedade" sem custo adicional de recriptografia.
Quadro de segurança e confirmação de direitos do modelo
Sentient atualmente utiliza a segurança Melange: combinação de verificação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presunção de conformidade, com detecção e punição em caso de violação.
O mecanismo de impressão digital é uma implementação chave do OML, que, através da incorporação de pares específicos de "pergunta-resposta", permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro on-chain rastreável para o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real tornam-no o núcleo da implementação atual de modelos.