Relatório de Pesquisa Layer1 de IA: Encontrando o Solo Fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes da tecnologia centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a focar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um profundo impacto no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, movidos pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, várias aplicações "Web3 AI" já surgiram em algumas blockchains principais. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e os elos e a infraestrutura-chave ainda dependem de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, sendo necessário melhorar a profundidade e a amplitude da inovação.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero de um ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado
O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos de computação, armazenamento e outros. Ao contrário dos nós da blockchain tradicional que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio das grandes empresas na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso de base e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a eficiente alocação de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente os custos gerais de computação.
Excelente desempenho de alta performance e capacidade de suporte a tarefas heterogéneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem exigências muito altas em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e deve incluir suporte nativo para recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas simples" para "ecossistemas complexos e diversificados."
Verificabilidade e garantia de saída confiável
AI Layer 1 não só deve prevenir riscos de segurança como o mau uso de modelos e a manipulação de dados, mas também deve garantir, a partir de mecanismos fundamentais, a verificabilidade e a alinhamento dos resultados produzidos pela IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), e computação segura multi-partes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possa ser verificado de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entenderem a lógica e a base das saídas da IA, realizando o "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção de Privacidade de Dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica nos setores financeiro, de saúde e social. A IA Layer 1 deve, ao garantir a verificabilidade, adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à carga ecológica
Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações ricas e diversificadas nativas de IA, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado de desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, que posteriormente será migrada para Layer 1). Ao combinar Pipeline de IA e tecnologia de blockchain, constrói um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que o modelo de IA tenha uma estrutura de propriedade na cadeia, chamadas transparentes e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, impulsionando assim uma rede de ecossistema de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros centrais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como IA/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um prestígio considerável, contando com recursos, conexões e reconhecimento de mercado abundantes, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, com lideranças do Founders Fund, Pantera e Framework Ventures, além de outras instituições de investimento como Delphi, Hashkey e dezenas de renomados VCs como Spartan.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", e contém dois processos principais:
Planejamento de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento consistente com a intenção da comunidade.
O sistema de blockchain fornece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registo de impressões digitais;
Camada de distribuição: a autorização do contrato controla a entrada na chamada do modelo;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita irá distribuir o pagamento a cada chamada para os treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, que visa fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo irá disparar um fluxo de rendimento, o contrato na cadeia distribuirá os rendimentos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade dos contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e modificação são controlados por mecanismos de criptografia.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis do modelo para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares chave-valor query-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verifica se a impressão digital é preservada através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de licença: antes de chamar, é necessário obter o "certificado de permissão" emitido pelo proprietário do modelo, e o sistema autorizá-lo a decodificar a entrada e retornar a resposta correta.
Este método permite a realização de "chamadas autorizadas baseadas em comportamento + validação de propriedade" sem custos de recriptografia.
Modelo de atribuição de direitos e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange: combinação de autenticação por impressão digital, execução TEE e distribuição de lucros de contratos na cadeia. O método de impressão digital é implementado pela linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de infração.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou o Enclave TEE, um framework de computação que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente alguns riscos de segurança, suas vantagens em termos de alto desempenho e temporalidade tornam-no uma tecnologia central para a implementação de modelos atuais.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para aumentar ainda mais a proteção da privacidade e a verificabilidade, proporcionando uma melhor implementação descentralizada dos modelos de IA.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
5
Compartilhar
Comentário
0/400
JustHereForMemes
· 19h atrás
Os velhos senhores, os magnatas tornaram-se todos donos de terras.
Ver originalResponder0
airdrop_huntress
· 07-16 18:59
ai 又 fazer as pessoas de parvas
Ver originalResponder0
PerennialLeek
· 07-16 18:58
Os idiotas que operam com criptomoedas também começaram a usar IA.
AI Layer1 líderes de mercado: Modelo Sentient OM cria um ecossistema de IA Descentralização
Relatório de Pesquisa Layer1 de IA: Encontrando o Solo Fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes da tecnologia centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a focar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um profundo impacto no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, movidos pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, várias aplicações "Web3 AI" já surgiram em algumas blockchains principais. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e os elos e a infraestrutura-chave ainda dependem de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, sendo necessário melhorar a profundidade e a amplitude da inovação.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero de um ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos de computação, armazenamento e outros. Ao contrário dos nós da blockchain tradicional que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio das grandes empresas na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso de base e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a eficiente alocação de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente os custos gerais de computação.
Excelente desempenho de alta performance e capacidade de suporte a tarefas heterogéneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem exigências muito altas em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e deve incluir suporte nativo para recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas simples" para "ecossistemas complexos e diversificados."
Verificabilidade e garantia de saída confiável AI Layer 1 não só deve prevenir riscos de segurança como o mau uso de modelos e a manipulação de dados, mas também deve garantir, a partir de mecanismos fundamentais, a verificabilidade e a alinhamento dos resultados produzidos pela IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), e computação segura multi-partes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possa ser verificado de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entenderem a lógica e a base das saídas da IA, realizando o "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção de Privacidade de Dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica nos setores financeiro, de saúde e social. A IA Layer 1 deve, ao garantir a verificabilidade, adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à carga ecológica Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações ricas e diversificadas nativas de IA, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado de desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, que posteriormente será migrada para Layer 1). Ao combinar Pipeline de IA e tecnologia de blockchain, constrói um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que o modelo de IA tenha uma estrutura de propriedade na cadeia, chamadas transparentes e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, impulsionando assim uma rede de ecossistema de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros centrais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como IA/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um prestígio considerável, contando com recursos, conexões e reconhecimento de mercado abundantes, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, com lideranças do Founders Fund, Pantera e Framework Ventures, além de outras instituições de investimento como Delphi, Hashkey e dezenas de renomados VCs como Spartan.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", e contém dois processos principais:
O sistema de blockchain fornece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, que visa fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis do modelo para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A tecnologia central é:
Este método permite a realização de "chamadas autorizadas baseadas em comportamento + validação de propriedade" sem custos de recriptografia.
Modelo de atribuição de direitos e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange: combinação de autenticação por impressão digital, execução TEE e distribuição de lucros de contratos na cadeia. O método de impressão digital é implementado pela linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de infração.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou o Enclave TEE, um framework de computação que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente alguns riscos de segurança, suas vantagens em termos de alto desempenho e temporalidade tornam-no uma tecnologia central para a implementação de modelos atuais.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para aumentar ainda mais a proteção da privacidade e a verificabilidade, proporcionando uma melhor implementação descentralizada dos modelos de IA.