AI Layer1 líderes en el sector: Modelo OML Sentient construyendo un ecosistema de IA Descentralización

Informe de investigación de AI Layer1: buscando la tierra fértil de DeAI en la cadena

Resumen

En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando, en algunos escenarios, el potencial para reemplazar el trabajo humano. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con capital sólido y el control de costosos recursos computacionales, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.

Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública tiende a centrarse en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a cuestiones clave como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "hacer el bien" o "hacer el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar proactivamente estos desafíos.

La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ha proporcionado nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunas cadenas de bloques principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los aspectos clave y la infraestructura todavía dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún muestra limitaciones en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación deben mejorarse.

Para lograr verdaderamente la visión de una IA descentralizada, es necesario que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que compita en rendimiento con las soluciones centralizadas. Necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.

Biteye y PANews lanzan conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Las características clave de AI Layer 1

AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de AI, su arquitectura subyacente y el diseño del rendimiento están estrechamente alineados con las necesidades de las tareas de AI, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de AI en la cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades centrales:

  1. Mecanismos de incentivo eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros contables, los nodos de AI Layer 1 deben asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento y la inferencia de modelos de IA, sino también contribuir con recursos diversificados como almacenamiento, datos y ancho de banda, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, además de reducir de manera efectiva el costo total de la potencia de cálculo.

  2. Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altas exigencias en términos de rendimiento computacional y capacidad de procesamiento en paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La capa de IA Layer 1 debe realizar una profunda optimización en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo flexible, así como prever la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que todo tipo de tareas de IA puedan ejecutarse de manera eficiente y logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".

  3. Verificabilidad y garantía de salida confiable AI Layer 1 no solo debe prevenir la maldad del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo subyacente. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y computación segura multiparte (MPC), la plataforma puede hacer que cada inferencia del modelo, entrenamiento y proceso de manejo de datos sean verificables de forma independiente, asegurando la equidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de salida de IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción del usuario en los productos de IA.

  4. Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debería garantizar la verificabilidad mientras adopta tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.

  5. Capacidad poderosa de soporte y desarrollo de ecosistemas Como una infraestructura de capa 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos para desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de diversas aplicaciones nativas de IA, logrando una prosperidad continua del ecosistema de IA descentralizado.

Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, que incluyen Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en cadena

Sentient: Construyendo modelos de IA descentralizados de código abierto y leales

Resumen del proyecto

Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología de cadenas de bloques, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y participación en los beneficios de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.

El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y la protección de la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo campos como AI/ML, NLP, visión por computadora, colaborando para impulsar la implementación del proyecto.

Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un sólido respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de conocidas firmas de capital de riesgo, incluyendo Delphi, Hashkey y Spartan.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

arquitectura de diseño y capa de aplicación

Capa de infraestructura

Arquitectura central

La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.

La canalización de IA es la base para el desarrollo y entrenamiento de "artifacts de IA leales", e incluye dos procesos clave:​

  • Curación de datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación de modelos.
  • Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento consistente con la intención de la comunidad.

El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:

  • Capa de almacenamiento: almacenamiento de pesos de modelo y la información de registro de huellas dactilares;
  • Capa de distribución: entrada de llamada al modelo controlada por el contrato de autorización;
  • Capa de acceso: verifica si el usuario está autorizado a través de la prueba de permisos.
  • Capa de incentivos: el contrato de enrutamiento de ganancias asignará el pago a cada llamada a los entrenadores, implementadores y validadores.

Biteye y PANews publican conjuntamente el informe de investigación AI Layer1: buscando la tierra fértil para DeAI en la cadena

Marco de modelo OML

El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:

  • Apertura: El modelo debe ser de código abierto, con código y estructuras de datos transparentes, lo que facilita la reproducción, auditoría y mejora por parte de la comunidad.
  • Monetización: Cada vez que se llama al modelo, se activa un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, desplegadores y validadores.
  • Lealtad: El modelo pertenece a la comunidad de contribuidores, la dirección de la actualización y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.

Criptografía nativa de IA (AI-native Cryptography)

La criptografía nativa de IA es un mecanismo de seguridad ligero "verificable pero no removible" desarrollado utilizando la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades diferenciables de los modelos. Su tecnología central es:

  • Huella digital incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar la firma única del modelo;
  • Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva mediante un detector de terceros (Prover) en forma de consulta.
  • Mecanismo de llamada de permisos: se debe obtener un "certificado de autorización" emitido por el propietario del modelo antes de la llamada, y el sistema autorizará al modelo a decodificar la entrada y devolver la respuesta correcta.

Este método permite realizar "llamadas autorizadas basadas en comportamientos + verificación de pertenencia" sin el costo de volver a cifrar.

Marco de derechos de modelo y ejecución segura

Sentient actualmente utiliza la seguridad híbrida de Melange: combinando la verificación de huellas dactilares, la ejecución TEE y la distribución de beneficios de contratos on-chain. El método de huellas dactilares es la línea principal de implementación de OML 1.0, que enfatiza la idea de "seguridad optimista (Optimistic Security)", es decir, se asume cumplimiento y se puede detectar y castigar en caso de incumplimiento.

El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia y prevenir copias y comercializaciones no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro trazable de las acciones de uso del modelo en la cadena.

Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.

En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando una mejor implementación descentralizada de modelos de IA.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
JustHereForMemesvip
· hace23h
Los grandes jefes se han convertido en terratenientes.
Ver originalesResponder0
airdrop_huntressvip
· 07-16 18:59
ai otra vez tomar a la gente por tonta
Ver originalesResponder0
PerennialLeekvip
· 07-16 18:58
Los tontos también han comenzado a hacer IA.
Ver originalesResponder0
CrossChainBreathervip
· 07-16 18:56
La IA centralizada es demasiado peligrosa, ¿no?
Ver originalesResponder0
VirtualRichDreamvip
· 07-16 18:53
El tonto AI quiere comer tontos de nuevo.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)