Trusta.AI: Atravessando a lacuna de confiança entre humanos e máquinas
1. Introdução
Com a maturação acelerada da infraestrutura de IA e o rápido desenvolvimento de estruturas de colaboração multiagente, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal força nas interações do Web3. Espera-se que, nos próximos 2 a 3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma concluam a adoção em larga escala de transações e interações on-chain, podendo até substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são apenas "robôs bruxos" que executam scripts, mas sim agentes que conseguem compreender o contexto, aprender continuamente e tomar decisões complexas de forma independente. Eles estão a reconfigurar a ordem na cadeia, a impulsionar a fluidez financeira e até a orientar votações de governação e tendências de mercado. O surgimento dos Agentes de IA marca a transição do ecossistema Web3 de um modelo centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade do seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Assim, estabelecer uma infraestrutura na cadeia capaz de verificar a identidade e a reputação dos Agentes de IA tornou-se o tema central da próxima fase de evolução do Web3. O design de identificação, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA poderão realmente realizar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
Trusta.AI está dedicada a construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de reputação on-chain e de autenticação de identidade real do Web3. Oferece análise de dados on-chain e serviços de autenticação de identidade real para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações on-chain em várias blockchains populares, tornando-se o maior protocolo de identidade da indústria.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em blockchain para AI Agents, construindo uma base de confiança fiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, como também executar operações complexas fora da cadeia. No entanto, a forma de diferenciar os verdadeiros Agentes de IA das operações manipuladas por humanos é fundamental para a confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes estão suscetíveis a manipulação, fraude ou abuso. É por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem ser estabelecidas sobre uma base sólida de autenticação de identidade.
Atributos sociais do Agente de IA: A aplicação do Agente de IA em cenários sociais está se tornando cada vez mais ampla. Por exemplo, ídolos virtuais de IA podem operar autonomamente contas de redes sociais e publicar conteúdo; alguns analistas impulsionados por IA escrevem continuamente percepções de mercado e recomendações de investimento. Esses agentes estabelecem interações emocionais e informativas com os usuários através de aprendizado contínuo e criação de conteúdo, tornando-se novos "influenciadores digitais de comunidades", desempenhando um papel importante na orientação da opinião pública em redes sociais na blockchain.
Atributos financeiros do Agente de IA:
Gestão autónoma de ativos: alguns agentes de IA avançados já implementaram a emissão autónoma de moedas, no futuro poderão integrar-se com uma estrutura verificável baseada em blockchain, possuindo direitos de custódia de ativos, completando o controle total do processo desde a criação de ativos, identificação de intenções até a execução automática de transações, até mesmo operações sem costura entre cadeias. Alguns protocolos promovem a emissão autónoma de moedas e gestão de ativos por agentes de IA, permitindo que emitam tokens com base em suas próprias estratégias, tornando-se verdadeiros participantes e construtores da economia em blockchain, inaugurando uma era de "economia主体AI" de ampla influência.
Decisões de investimento inteligentes: o AI Agent está gradualmente assumindo os papéis de gerente de investimentos e analista de mercado, aproveitando a capacidade do modelo grande de processar dados em tempo real na blockchain, elaborando estratégias de negociação precisas e executando-as automaticamente. Em algumas plataformas, a IA já está integrada aos motores de negociação, aumentando significativamente a capacidade de julgamento do mercado e a eficiência operacional, realizando investimentos inteligentes verdadeiramente na blockchain.
Pagamento autônomo na blockchain: O ato de pagar é essencialmente uma transferência de confiança, e a confiança deve ser baseada em identidades claras. Quando um Agente de IA realiza pagamentos na blockchain, o DID se tornará uma condição necessária. Ele não só pode prevenir a falsificação e o uso indevido de identidades, reduzindo riscos financeiros como lavagem de dinheiro, mas também atende às necessidades de rastreabilidade de conformidade no futuro em DeFi, DAO, RWA, entre outros. Ao mesmo tempo, combinado com um sistema de pontuação de reputação, o DID também pode ajudar a estabelecer crédito de pagamento, fornecendo uma base para a gestão de riscos e confiança nos protocolos.
Atributos de governança do Agente de IA: Na governança DAO, o Agente de IA pode automatizar a análise de propostas, avaliar a opinião da comunidade e prever os efeitos da implementação. Através do aprendizado profundo de dados históricos de votação e governança, o agente é capaz de fornecer sugestões de otimização para a comunidade, melhorando a eficiência da decisão e reduzindo o risco de governança humana.
As aplicações de agentes de IA estão se tornando cada vez mais diversas, abrangendo várias áreas, como interação social, gestão financeira e tomada de decisões de governança, com um nível crescente de autonomia e inteligência. Por isso, é crucial garantir que cada agente inteligente tenha uma identificação única e confiável (DID). A falta de validação de identidade eficaz pode levar ao uso indevido ou manipulação do agente de IA, resultando em colapso de confiança e riscos de segurança.
Num ecossistema Web3 totalmente impulsionado por agentes inteligentes no futuro, a autenticação de identidade não é apenas a pedra angular da segurança, mas também uma defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com seu forte poder tecnológico e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável de agentes inteligentes, prevenindo eficazmente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão geral do projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Concluída uma rodada de financiamento semente de 3 milhões de dólares, liderada por uma determinada instituição de investimento e um determinado capital, com a participação de várias instituições de investimento conhecidas.
Junho de 2025: conclusão de uma nova rodada de financiamento, incluindo investidores como uma certa empresa, uma certa blockchain e um certo laboratório.
2.3.2 Situação da Equipa
Peet Chen: co-fundador e CEO, ex-vice-presidente de um grupo, ex-diretor de produto de uma empresa de tecnologia de segurança, ex-gerente geral de uma plataforma.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança de IA de um determinado grupo, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial na segurança e gestão de riscos.
A equipe possui uma profunda acumulação técnica e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito tempo à aplicação aprofundada de grandes dados e algoritmos inteligentes na gestão de riscos de segurança, bem como ao design de protocolos de base e à otimização de segurança em ambientes de transações de alta concorrência, possuindo capacidades sólidas de engenharia e a capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único (DID) na cadeia, e o armazena de forma segura em um Ambiente de Execução Confiável (TEE). Neste ambiente de caixa-preta, os dados críticos e os processos de cálculo estão completamente ocultos, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança da informação do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, utilizamos um mecanismo de pontuação abrangente na blockchain para reconhecimento de identidade; enquanto os agentes que se conectam ao plugin novo podem obter diretamente o "certificado de identidade" emitido pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de manipulação.
3.1.2 Quantificação de identidade - Quadro SIGMA inovador
A equipa Trusta mantém sempre princípios rigorosos de avaliação e análise quantitativa, dedicando-se a criar um sistema de certificação de identidade profissional e confiável.
A equipe Trusta foi a primeira a construir e validar a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil dos usuários na blockchain a partir de cinco dimensões, a saber: valor de interação (Monetary), engajamento (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains de destaque como um importante padrão de referência para a seleção de qualificações para a airdrop. Ele não apenas se concentra no valor das interações, mas também abrange indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor, aumentando a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida de um sistema de avaliação de usuários humanos, a Trusta transferiu e melhorou a experiência do MEDIA Score para o cenário do Agente de IA, estabelecendo um novo sistema de avaliação Sigma que se adequa melhor à lógica de comportamento dos agentes inteligentes.
Especialização: O conhecimento e o nível de especialização do agente.
Influência: a influência social e digital do agente.
Engajamento: a consistência e confiabilidade de suas interações on-chain e off-chain.
Monetário: a saúde financeira e a estabilidade do ecossistema de tokens de representação.
Taxa de Adoção: Frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma construiu um sistema de avaliação em um ciclo lógico de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação da multifacetada participação dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo o suporte chave para a construção de confiança e eficácia no futuro. A influência (Influence) é o feedback de reputação gerado após a participação, representando a credibilidade do agente e o efeito de disseminação. A monetariedade (Monetary) avalia se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo as bases para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é utilizada como uma representação abrangente, indicando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico do AI Agent, permitindo assim uma avaliação quantitativa do desempenho e do valor do AI, transformando a abstração de vantagens e desvantagens em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com várias redes de agentes de IA conhecidas, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Num sistema de IA verdadeiramente resiliente e confiável, o mais crucial não é apenas o estabelecimento da identidade, mas sim a verificação contínua dessa identidade. O Trusta.AI introduz um mecanismo de avaliação de confiança contínua, que permite monitorizar em tempo real agentes inteligentes já certificados, a fim de determinar se foram controlados ilegalmente, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante a operação do agente através de análise comportamental e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de vigilância de segurança sempre online, examinando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Apresentação do Produto
3.2.1 AgentGo
Trusta.AI atribui uma identidade descentralizada (DID) a cada agente de IA em blockchain e classifica-o com base nos dados de comportamento em blockchain e no índice de confiança, construindo uma verificação.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
8 Curtidas
Recompensa
8
5
Compartilhar
Comentário
0/400
GasFeeCry
· 08-06 05:29
AI substitui-me na liquidação de empréstimos?
Ver originalResponder0
OnChain_Detective
· 08-06 05:27
hmm... padrão de alto risco detectado aqui. agentes de IA substituindo 80% das transações humanas? monitorando de perto para possíveis vulnerabilidades sistêmicas
Ver originalResponder0
DaoGovernanceOfficer
· 08-06 05:11
*suspiro* empiricamente falando, os seus kpis sobre a confiança dos agentes são bastante deficientes... alguém leu os últimos artigos sobre o valor de Shapley?
Ver originalResponder0
BearMarketBard
· 08-06 05:09
Bots vão nos esmagar.
Ver originalResponder0
GasFeeCrybaby
· 08-06 05:07
Isso é tudo época de puxar o tapete e ainda falam em confiança?
A Trusta.AI constrói a infraestrutura de Agentes de IA confiáveis para a era Web3.
Trusta.AI: Atravessando a lacuna de confiança entre humanos e máquinas
1. Introdução
Com a maturação acelerada da infraestrutura de IA e o rápido desenvolvimento de estruturas de colaboração multiagente, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal força nas interações do Web3. Espera-se que, nos próximos 2 a 3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma concluam a adoção em larga escala de transações e interações on-chain, podendo até substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são apenas "robôs bruxos" que executam scripts, mas sim agentes que conseguem compreender o contexto, aprender continuamente e tomar decisões complexas de forma independente. Eles estão a reconfigurar a ordem na cadeia, a impulsionar a fluidez financeira e até a orientar votações de governação e tendências de mercado. O surgimento dos Agentes de IA marca a transição do ecossistema Web3 de um modelo centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade do seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Assim, estabelecer uma infraestrutura na cadeia capaz de verificar a identidade e a reputação dos Agentes de IA tornou-se o tema central da próxima fase de evolução do Web3. O design de identificação, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA poderão realmente realizar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
Trusta.AI está dedicada a construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de reputação on-chain e de autenticação de identidade real do Web3. Oferece análise de dados on-chain e serviços de autenticação de identidade real para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações on-chain em várias blockchains populares, tornando-se o maior protocolo de identidade da indústria.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em blockchain para AI Agents, construindo uma base de confiança fiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, como também executar operações complexas fora da cadeia. No entanto, a forma de diferenciar os verdadeiros Agentes de IA das operações manipuladas por humanos é fundamental para a confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes estão suscetíveis a manipulação, fraude ou abuso. É por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem ser estabelecidas sobre uma base sólida de autenticação de identidade.
Atributos sociais do Agente de IA: A aplicação do Agente de IA em cenários sociais está se tornando cada vez mais ampla. Por exemplo, ídolos virtuais de IA podem operar autonomamente contas de redes sociais e publicar conteúdo; alguns analistas impulsionados por IA escrevem continuamente percepções de mercado e recomendações de investimento. Esses agentes estabelecem interações emocionais e informativas com os usuários através de aprendizado contínuo e criação de conteúdo, tornando-se novos "influenciadores digitais de comunidades", desempenhando um papel importante na orientação da opinião pública em redes sociais na blockchain.
Atributos financeiros do Agente de IA:
Gestão autónoma de ativos: alguns agentes de IA avançados já implementaram a emissão autónoma de moedas, no futuro poderão integrar-se com uma estrutura verificável baseada em blockchain, possuindo direitos de custódia de ativos, completando o controle total do processo desde a criação de ativos, identificação de intenções até a execução automática de transações, até mesmo operações sem costura entre cadeias. Alguns protocolos promovem a emissão autónoma de moedas e gestão de ativos por agentes de IA, permitindo que emitam tokens com base em suas próprias estratégias, tornando-se verdadeiros participantes e construtores da economia em blockchain, inaugurando uma era de "economia主体AI" de ampla influência.
Decisões de investimento inteligentes: o AI Agent está gradualmente assumindo os papéis de gerente de investimentos e analista de mercado, aproveitando a capacidade do modelo grande de processar dados em tempo real na blockchain, elaborando estratégias de negociação precisas e executando-as automaticamente. Em algumas plataformas, a IA já está integrada aos motores de negociação, aumentando significativamente a capacidade de julgamento do mercado e a eficiência operacional, realizando investimentos inteligentes verdadeiramente na blockchain.
As aplicações de agentes de IA estão se tornando cada vez mais diversas, abrangendo várias áreas, como interação social, gestão financeira e tomada de decisões de governança, com um nível crescente de autonomia e inteligência. Por isso, é crucial garantir que cada agente inteligente tenha uma identificação única e confiável (DID). A falta de validação de identidade eficaz pode levar ao uso indevido ou manipulação do agente de IA, resultando em colapso de confiança e riscos de segurança.
Num ecossistema Web3 totalmente impulsionado por agentes inteligentes no futuro, a autenticação de identidade não é apenas a pedra angular da segurança, mas também uma defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com seu forte poder tecnológico e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável de agentes inteligentes, prevenindo eficazmente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão geral do projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Concluída uma rodada de financiamento semente de 3 milhões de dólares, liderada por uma determinada instituição de investimento e um determinado capital, com a participação de várias instituições de investimento conhecidas.
Junho de 2025: conclusão de uma nova rodada de financiamento, incluindo investidores como uma certa empresa, uma certa blockchain e um certo laboratório.
2.3.2 Situação da Equipa
Peet Chen: co-fundador e CEO, ex-vice-presidente de um grupo, ex-diretor de produto de uma empresa de tecnologia de segurança, ex-gerente geral de uma plataforma.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança de IA de um determinado grupo, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial na segurança e gestão de riscos.
A equipe possui uma profunda acumulação técnica e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito tempo à aplicação aprofundada de grandes dados e algoritmos inteligentes na gestão de riscos de segurança, bem como ao design de protocolos de base e à otimização de segurança em ambientes de transações de alta concorrência, possuindo capacidades sólidas de engenharia e a capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único (DID) na cadeia, e o armazena de forma segura em um Ambiente de Execução Confiável (TEE). Neste ambiente de caixa-preta, os dados críticos e os processos de cálculo estão completamente ocultos, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança da informação do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, utilizamos um mecanismo de pontuação abrangente na blockchain para reconhecimento de identidade; enquanto os agentes que se conectam ao plugin novo podem obter diretamente o "certificado de identidade" emitido pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de manipulação.
3.1.2 Quantificação de identidade - Quadro SIGMA inovador
A equipa Trusta mantém sempre princípios rigorosos de avaliação e análise quantitativa, dedicando-se a criar um sistema de certificação de identidade profissional e confiável.
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains de destaque como um importante padrão de referência para a seleção de qualificações para a airdrop. Ele não apenas se concentra no valor das interações, mas também abrange indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor, aumentando a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida de um sistema de avaliação de usuários humanos, a Trusta transferiu e melhorou a experiência do MEDIA Score para o cenário do Agente de IA, estabelecendo um novo sistema de avaliação Sigma que se adequa melhor à lógica de comportamento dos agentes inteligentes.
O mecanismo de pontuação Sigma construiu um sistema de avaliação em um ciclo lógico de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação da multifacetada participação dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo o suporte chave para a construção de confiança e eficácia no futuro. A influência (Influence) é o feedback de reputação gerado após a participação, representando a credibilidade do agente e o efeito de disseminação. A monetariedade (Monetary) avalia se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo as bases para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é utilizada como uma representação abrangente, indicando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico do AI Agent, permitindo assim uma avaliação quantitativa do desempenho e do valor do AI, transformando a abstração de vantagens e desvantagens em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com várias redes de agentes de IA conhecidas, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Num sistema de IA verdadeiramente resiliente e confiável, o mais crucial não é apenas o estabelecimento da identidade, mas sim a verificação contínua dessa identidade. O Trusta.AI introduz um mecanismo de avaliação de confiança contínua, que permite monitorizar em tempo real agentes inteligentes já certificados, a fim de determinar se foram controlados ilegalmente, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante a operação do agente através de análise comportamental e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de vigilância de segurança sempre online, examinando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Apresentação do Produto
3.2.1 AgentGo
Trusta.AI atribui uma identidade descentralizada (DID) a cada agente de IA em blockchain e classifica-o com base nos dados de comportamento em blockchain e no índice de confiança, construindo uma verificação.