Trusta.AI construit une infrastructure d'agent AI fiable pour l'ère Web3.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

1. Introduction

Avec l'accélération de la maturation des infrastructures AI et le développement rapide des cadres de collaboration multi-agents, les agents on-chain alimentés par l'IA deviennent rapidement la principale force d'interaction dans le Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, ces agents AI dotés de capacités de décision autonome adoptent massivement les transactions et interactions on-chain, remplaçant même 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.

Ces agents d'IA ne sont pas simplement des "robots sorciers" exécutant des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils redéfinissent l'ordre sur la chaîne, favorisent les flux financiers et même orientent les votes en matière de gouvernance et les tendances du marché. L'émergence des agents d'IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine".

Cependant, l'essor rapide des agents IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?

Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine étape d'évolution du Web3. La conception de l'identification des identités, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration sans faille avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.

Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine

2. Analyse du projet

2.1 Présentation du projet

Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.

Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - MEDIA Score de réputation, construisant le plus grand protocole de certification en temps réel et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification en temps réel à plusieurs principales chaînes publiques, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications en temps réel ont été réalisées sur plusieurs chaînes principales, devenant ainsi le plus grand protocole d'identité de l'industrie.

Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant des mécanismes triples d'établissement d'identité, de quantification d'identité et de protection d'identité pour offrir des services financiers et sociaux en ligne pour les agents d'IA, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.

2.2 Infrastructure de confiance - Agent IA DID

Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial. Ils pourront non seulement effectuer des interactions et des transactions en chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la distinction entre un véritable agent IA et une intervention humaine est liée au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents sont facilement manipulables, victimes de fraude ou d'abus. C'est pourquoi les multiples applications des agents IA dans les domaines social, financier et de gouvernance doivent être fondées sur une base solide d'authentification d'identité.

  • Propriétés sociales de l'Agent IA : L'application de l'Agent IA dans les scénarios sociaux devient de plus en plus répandue. Par exemple, des idoles virtuelles AI peuvent gérer de manière autonome des comptes sociaux et publier du contenu ; certains analystes alimentés par l'IA rédigent des analyses de marché et des conseils d'investissement 24 heures sur 24. Ces agents intelligents établissent une interaction émotionnelle et informationnelle avec les utilisateurs grâce à un apprentissage continu et à la création de contenu, devenant de nouveaux "influenceurs de communauté numérique" et jouant un rôle important dans l'orientation de l'opinion publique au sein des réseaux sociaux basés sur la blockchain.

  • Attributes financiers de l'Agent IA:

  1. Gestion autonome des actifs : certains agents d'IA avancés ont déjà réalisé l'émission autonome de jetons. À l'avenir, grâce à l'intégration avec une architecture vérifiable sur la blockchain, ils disposeront des droits de garde des actifs, complétant ainsi l'ensemble du contrôle du processus, de la création d'actifs, de la reconnaissance des intentions à l'exécution automatique des transactions, et même à l'opération sans couture entre chaînes. Certains protocoles poussent les agents d'IA à émettre des jetons de manière autonome et à gérer des actifs, les rendant capables d'émettre des jetons en fonction de leur propre stratégie, devenant ainsi de véritables participants et bâtisseurs de l'économie en chaîne, ouvrant l'ère de "l'économie des sujets d'IA" d'une vaste portée.

  2. Décision d'investissement intelligente : L'Agent IA assume progressivement le rôle de gestionnaire d'investissement et d'analyste de marché, s'appuyant sur la capacité de traitement des données en temps réel de la blockchain grâce à de grands modèles, pour élaborer des stratégies de trading précises et les exécuter automatiquement. Sur certaines plateformes, l'IA a été intégrée dans les moteurs de trading, améliorant considérablement la capacité de jugement du marché et l'efficacité opérationnelle, réalisant un véritable investissement intelligent sur la blockchain.

  3. Paiement autonome sur la chaîne : L'acte de paiement est essentiellement une transmission de confiance, et cette confiance doit être établie sur des identités claires. Lorsqu'un agent AI effectue un paiement sur la chaîne, le DID deviendra une condition préalable nécessaire. Il peut non seulement prévenir la falsification et l'abus d'identité, réduire les risques financiers tels que le blanchiment d'argent, mais aussi répondre aux exigences de conformité et de traçabilité des DeFi, DAO, RWA à l'avenir. Parallèlement, en combinant un système de notation de réputation, le DID peut également aider à établir un crédit de paiement, fournissant ainsi une base de gestion des risques et de confiance pour le protocole.

  • Propriétés de gouvernance de l'Agent IA : Dans la gouvernance DAO, l'Agent IA peut analyser automatiquement les propositions, évaluer les opinions de la communauté et prédire les effets de mise en œuvre. Grâce à l'apprentissage profond des données de vote et de gouvernance historiques, l'agent peut fournir des conseils d'optimisation à la communauté, améliorer l'efficacité de la prise de décision et réduire les risques liés à la gouvernance humaine.

Les scénarios d'application des agents IA deviennent de plus en plus variés, couvrant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents IA peuvent être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques de sécurité.

Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.

En tant que pionnier dans ce domaine, Trusta.AI a construit en premier lieu un mécanisme complet de certification DID d'agent AI grâce à sa technologie de pointe et à son système de réputation rigoureux, garantissant le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.

Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine

2.3 Aperçu du projet

2.3.1 Situation de financement

Janvier 2023 : Achèvement d'un financement de 3 millions de dollars lors d'un tour de seed, dirigé par une certaine institution d'investissement et un certain capital, avec d'autres participants comprenant plusieurs grandes institutions d'investissement.

Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs comprennent une certaine entreprise, une certaine chaîne publique, certains laboratoires, etc.

2.3.2 Situation de l'équipe

Peet Chen : Co-fondateur et PDG, ancien vice-président d'un certain groupe, ancien directeur de produit en chef d'une certaine technologie de sécurité, ancien directeur général d'une certaine plateforme.

Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'un certain groupe, possède quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.

L'équipe a une solide accumulation technique et une expérience pratique dans les domaines de l'intelligence artificielle, de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à haute concurrence, possédant des capacités d'ingénierie solides et une capacité à mettre en œuvre des solutions innovantes.

3. Architecture technique

3.1 Analyse technique

3.1.1 Établissement de l'identité - DID + TEE

Grâce à un plugin dédié, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails de fonctionnement internes, établissant ainsi une barrière solide pour la sécurité de l'information de l'agent AI.

Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés avec le plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et immuable.

Trusta.AI : combler le fossé de confiance à l'ère de l'homme et de la machine

3.1.2 Quantification des identités - Cadre SIGMA innovant

L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'authentification des identités professionnel et fiable.

  • L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière complète le profil utilisateur sur la chaîne à partir de cinq dimensions, à savoir : montant des interactions (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).

Le score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes publiques comme une norme de référence importante pour le filtrage des qualifications d'airdrop. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs de haute valeur, améliorant ainsi l'efficacité et l'équité de la distribution des incitations, reflétant pleinement son autorité et sa reconnaissance dans l'industrie.

Sur la base de la réussite de la construction d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score vers le scénario des agents IA, établissant un système d'évaluation Sigma mieux adapté à la logique comportementale des agents intelligents.

  • Spécialisation de la spécification : connaissances et degré de spécialisation de l'agent.
  • Influence: l'influence sociale et numérique de l'agent.
  • Engagement: la cohérence et la fiabilité des interactions on-chain et off-chain.
  • Monétaire : santé financière et stabilité de l'écosystème des jetons d'agence.
  • Taux d'adoption : fréquence et efficacité de l'utilisation des agents AI.

Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de la "capacité" à la "valeur" en cinq dimensions. MEDIA met l'accent sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents IA dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, mieux adapté aux besoins des agents IA.

Tout d'abord, sur la base de la capacité professionnelle ( Specification ), le degré de participation ( Engagement ) reflète s'il s'engage de manière stable et continue dans des interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence ( Influence ) est le retour de réputation généré après la participation dans la communauté ou le réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La valeur monétaire ( Monetary ) évalue sa capacité à accumuler de la valeur et sa stabilité financière dans le système économique, jetant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption ( Adoption ) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans l'utilisation réelle, ce qui constitue la validation finale de toutes les capacités et performances antérieures.

Ce système est structuré de manière claire et progressive, capable de refléter de manière exhaustive la qualité globale et la valeur écologique des agents AI, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant des abstractions de qualité en un système de notation concret et mesurable.

Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec plusieurs réseaux d'agents AI connus, montrant son énorme potentiel d'application dans la gestion des identités d'agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion de l'infrastructure AI fiable.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance

Dans un véritable système d'IA à haute ténacité et à haute fiabilité, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de l'identité. Trusta.AI introduit un mécanisme d'évaluation de confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, subissent une attaque ou sont soumis à une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les stratégies et cadres établis. Cette approche proactive permet de détecter immédiatement tout écart par rapport au comportement prévu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.

Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque processus d'interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3.2 Introduction du produit

3.2.1 AgentGo

Trusta.AI attribue une identité décentralisée (DID) à chaque agent AI sur la chaîne, évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant ainsi un système vérifiable.

TA11.19%
AGENT2.79%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
GasFeeCryvip
· Il y a 18h
L'IA peut-elle remplacer mon prêt de liquidation ?
Voir l'originalRépondre0
OnChain_Detectivevip
· Il y a 18h
hum... un modèle à haut risque détecté ici. des agents d'IA remplaçant 80 % des transactions humaines ? surveillance étroite pour de potentielles vulnérabilités systémiques.
Voir l'originalRépondre0
DaoGovernanceOfficervip
· Il y a 18h
*soupir* empiriquement parlant, leurs kpis sur la confiance des agents sont assez insuffisants... quelqu'un a-t-il lu les derniers articles sur la valeur de Shapley ?
Voir l'originalRépondre0
BearMarketBardvip
· Il y a 18h
Les Bots vont tous nous écraser.
Voir l'originalRépondre0
GasFeeCrybabyvip
· Il y a 18h
On est dans une époque de Rug Pull et tu parles encore de confiance ?
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)