Trusta.AI construye la infraestructura de agentes de IA confiables para la era Web3

Trusta.AI: Superando la brecha de confianza entre humanos y máquinas

1. Introducción

Con la madurez acelerada de la infraestructura de IA y el rápido desarrollo de los marcos de colaboración entre múltiples agentes, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de las interacciones Web3. Se espera que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónoma sean los primeros en adoptar a gran escala las transacciones e interacciones en cadena, e incluso podrían reemplazar el 80% de las acciones humanas en cadena, convirtiéndose en verdaderos "usuarios" en cadena.

Estos Agentes de IA no son meramente "robots bruja" que ejecutan scripts, sino entidades capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los Agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" a un nuevo paradigma de "simbiosis hombre-máquina".

Sin embargo, el rápido auge de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo reconocer y certificar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de sus acciones? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean abusados, manipulados o utilizados para ataques?

Por lo tanto, establecer una infraestructura en la cadena que pueda verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima fase de evolución de Web3. El diseño de la identificación, los mecanismos de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración sin fisuras con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.

Trusta.AI : Superando la brecha de confianza entre humanos y máquinas

2. Análisis del proyecto

2.1 Descripción del proyecto

Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.

Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - la puntuación de reputación MEDIA, construyendo el mayor protocolo de autenticación real y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de autenticación real a múltiples cadenas públicas de primer nivel, intercambios y protocolos líderes. Se ha completado más de 2.5 millones de autenticaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.

Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros en cadena y redes sociales en cadena para AI Agents, construyendo una base de confianza confiable en la era de la inteligencia artificial.

2.2 Infraestructura de confianza - Agente AI DID

En el futuro ecosistema de Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y una intervención humana en las operaciones está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la cual las múltiples aplicaciones de los Agentes de IA en áreas como la social, financiera y de gobernanza deben basarse en una sólida base de autenticación de identidad.

  • Atributos sociales del Agente AI: La aplicación del Agente AI en escenarios sociales es cada vez más amplia. Por ejemplo, los ídolos virtuales AI pueden gestionar de manera autónoma cuentas sociales y publicar contenido; algunos analistas impulsados por AI redactan continuamente percepciones del mercado y recomendaciones de inversión. Estos agentes inteligentes, a través del aprendizaje continuo y la creación de contenido, establecen interacciones emocionales e informativas con los usuarios, convirtiéndose en nuevos "influencers de comunidades digitales", desempeñando un papel importante en la orientación de la opinión pública dentro de las redes sociales en la cadena.

  • Atributos financieros del Agente de IA:

    1. Gestión autónoma de activos: algunos agentes de IA avanzados ya han logrado emitir monedas de forma autónoma, y en el futuro, mediante la integración con una arquitectura verificable en la blockchain, podrán tener derecho de custodia de activos, completando el control del proceso completo desde la creación de activos, reconocimiento de intenciones hasta la ejecución automática de transacciones, e incluso operaciones sin interrupciones entre cadenas. Algunos protocolos están promoviendo la emisión autónoma de monedas y la gestión de activos por parte de agentes de IA, permitiendo que emitan tokens basados en sus propias estrategias, convirtiéndose verdaderamente en participantes y constructores de la economía en la cadena, inaugurando la era de "economía主体 AI" de amplio impacto.

    2. Decisiones de inversión inteligentes: el Agente AI está asumiendo gradualmente los roles de gerente de inversiones y analista de mercado, aprovechando la capacidad de los grandes modelos para procesar datos en tiempo real en la cadena, formulando estrategias de trading precisas y ejecutándolas automáticamente. En algunas plataformas, la IA ya está integrada en el motor de trading, mejorando significativamente la capacidad de juicio del mercado y la eficiencia operativa, logrando una verdadera inversión inteligente en la cadena.

  1. Pagos autónomos en la cadena: El acto de pago es en esencia una transferencia de confianza, y la confianza debe basarse en una identidad clara. Cuando un Agente AI realiza un pago en la cadena, el DID se convertirá en un requisito necesario. No solo puede prevenir la falsificación y el abuso de identidad, reducir los riesgos financieros como el lavado de dinero, sino que también satisface las necesidades de cumplimiento y trazabilidad de futuros DeFi, DAO, RWA, entre otros. Al mismo tiempo, combinado con un sistema de puntuación de reputación, el DID también puede ayudar a establecer el crédito de pago, proporcionando una base de gestión de riesgos y confianza para el protocolo.
  • Atributos de gobernanza del Agente de IA: En la gobernanza de DAO, el Agente de IA puede analizar automáticamente propuestas, evaluar la opinión de la comunidad y predecir los efectos de la implementación. A través del aprendizaje profundo de datos históricos de votación y gobernanza, el agente puede ofrecer recomendaciones de optimización a la comunidad, mejorar la eficiencia de la toma de decisiones y reducir el riesgo de decisiones arbitrarias.

Los escenarios de aplicación de los Agentes de IA son cada vez más variados, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por esta razón, es crucial asegurar que cada agente tenga una identidad única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los Agentes de IA sean usurpados o manipulados, lo que resultaría en una pérdida de confianza y en riesgos de seguridad.

En un futuro donde el ecosistema Web3 esté completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular de la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.

Como pionero en este campo, Trusta.AI, con su destacada capacidad tecnológica y un riguroso sistema de credibilidad, ha sido el primero en construir un mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente los riesgos potenciales y promoviendo el desarrollo robusto de la economía inteligente Web3.

Trusta.AI : El puente de confianza entre humanos y máquinas

2.3 Resumen del proyecto

2.3.1 Situación de financiamiento

Enero de 2023: Se completó una ronda de financiación inicial de 3 millones de dólares, con ciertas instituciones de inversión y capital liderando, y otros participantes incluyen varias instituciones de inversión reconocidas.

Junio de 2025: finalización de una nueva ronda de financiamiento, los inversores incluyen cierta empresa, cierta cadena pública, cierto laboratorio, etc.

2.3.2 Situación del equipo

Peet Chen: cofundador y CEO, ex vicepresidente de un grupo, ex director de producto en una empresa de tecnología de seguridad, ex gerente general de una plataforma.

Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de un grupo, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.

El equipo tiene una sólida acumulación de tecnología y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, así como en la arquitectura de sistemas de pago y mecanismos de autenticación. Se ha dedicado a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como al diseño de protocolos de bajo nivel y la optimización de la seguridad en entornos de transacciones de alta concurrencia, mostrando una sólida capacidad de ingeniería y la capacidad de implementar soluciones innovadoras.

3. Arquitectura Técnica

3.1 Análisis técnico

3.1.1 Establecimiento de identidad-DID+TEE

A través de un complemento especializado, cada Agente de IA obtiene un identificador descentralizado único en la cadena (DID) y lo almacena de manera segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas y el exterior no puede espiar los detalles internos de la operación, construyendo así una sólida barrera de seguridad de información para el Agente de IA.

Para los agentes que ya se habían generado antes de la integración del plugin, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación de identidad; mientras que los agentes que se integran con el nuevo plugin pueden obtener directamente el "certificado de identidad" emitido por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inalterable.

Trusta.AI : El puente de confianza entre humanos y máquinas

3.1.2 Cuantificación de identidad - Marco SIGMA pionero

El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de certificación de identidad profesional y confiable.

  • El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetario), participación (Compromiso), diversidad (Diversidad), identidad (Identidad) y edad (Edad).

El MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido adoptado ampliamente por múltiples cadenas de bloques de primer nivel como un estándar de referencia importante para la selección de inversores en proyectos. No solo se centra en la cantidad de interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los desarrolladores de proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y equidad en la distribución de incentivos, y reflejando su autoridad y amplio reconocimiento en la industria.

Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de Agentes de IA, estableciendo un sistema de evaluación Sigma que se adapta mejor a la lógica del comportamiento de los agentes inteligentes.

  • Especialización Especificación: el conocimiento y el grado de especialización del agente.
  • Influencia: la influencia social y digital del agente.
  • Participación: La consistencia y fiabilidad de sus interacciones en línea y fuera de línea.
  • Monetario: la salud financiera y la estabilidad del ecosistema de tokens de代理.
  • Tasa de adopción: Frecuencia y eficiencia en el uso de agentes de IA.

El mecanismo de puntuación Sigma construye un sistema de evaluación de circuito lógico que va de "capacidad" a "valor" a partir de cinco grandes dimensiones. MEDIA se centra en evaluar el nivel de participación multifacética de los usuarios humanos, mientras que Sigma se preocupa más por la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.

Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un apoyo clave para construir la confianza y el efecto posterior. La influencia (Influence) es el feedback de reputación generado en la comunidad o red después de la participación, lo que representa la credibilidad del agente y el efecto de difusión. La valoración monetaria (Monetary) evalúa si tiene capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una representación integral, que representa el grado de aceptación del agente en el uso práctico, siendo la validación final de todas las capacidades y rendimientos previos.

Este sistema es progresivo en capas, con una estructura clara, que puede reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, permitiendo así una evaluación cuantitativa del rendimiento y el valor de la IA, transformando la abstracción de la calidad en un sistema de puntuación concreto y medible.

Actualmente, el marco SIGMA ha avanzado en la colaboración con varias redes de agentes de IA reconocidas, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3.1.3 Protección de identidad - Mecanismo de evaluación de confianza

En un sistema de IA verdaderamente resiliente y confiable, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados para determinar si están siendo controlados ilegalmente, si han sufrido ataques o si están siendo intervenidos por humanos no autorizados. El sistema identifica las desviaciones que pueden ocurrir durante el funcionamiento del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.

Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.

Trusta.AI :Superar la brecha de confianza en la era humano-máquina

3.2 Introducción del producto

3.2.1 AgentGo

Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena y califica y crea un índice de confianza basado en los datos de comportamiento en la cadena, construyendo una verificación.

TA9.19%
AGENT7.74%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
GasFeeCryvip
· 08-06 05:29
¿La IA reemplazará mi obtener liquidación de préstamos?
Ver originalesResponder0
OnChain_Detectivevip
· 08-06 05:27
hmm... se ha detectado un patrón de alto riesgo aquí. ¿agentes de IA reemplazando el 80% de las transacciones humanas? monitoreando de cerca posibles vulnerabilidades sistémicas
Ver originalesResponder0
DaoGovernanceOfficervip
· 08-06 05:11
*sigh* empíricamente hablando, sus kpis sobre la confianza de los agentes son bastante deficientes... ¿alguien ha leído los últimos artículos sobre el valor de Shapley?
Ver originalesResponder0
BearMarketBardvip
· 08-06 05:09
Los Bots nos van a destrozar.
Ver originalesResponder0
GasFeeCrybabyvip
· 08-06 05:07
¿En qué época de Rug Pull estamos que todavía se habla de confianza?
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)