Informe de investigación de AI Layer1: Buscando un terreno fértil para DeAI en la cadena
Resumen
En los últimos años, compañías tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital sólido y control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, haciendo que la gran mayoría de los desarrolladores y equipos de innovación tengan dificultades para competir.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas tendrán un profundo impacto en el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA está "en el camino del bien" o "en el camino del mal" se volverá cada vez más prominente, mientras que los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena presenta limitaciones en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación requieren mejoras.
Para lograr verdaderamente la visión de una IA descentralizada, y permitir que la blockchain soporte aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que compita en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centran en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe contar con las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia computacional y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia computacional y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y una distribución eficiente de los recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia computacional.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento e inferencia de LLM, exigen un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente elevados. Más aún, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizarse profundamente en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preconfigurar capacidades de soporte nativo para recursos de computación heterogéneos, asegurando que todo tipo de tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables La capa 1 de IA no solo debe prevenir problemas de seguridad como el comportamiento malicioso del modelo y la manipulación de datos, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de la IA desde la mecánica subyacente. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), la prueba de conocimiento cero (ZK) y el cálculo seguro multipartito (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sea verificado de forma independiente, asegurando la imparcialidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y los fundamentos de la salida de la IA, logrando que "lo que se obtiene sea lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crucial en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, para asegurar la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, evitando eficazmente las filtraciones y el uso indebido de datos, y eliminando la preocupación de los usuarios sobre la seguridad de los datos.
Capacidad de soporte y desarrollo del ecosistema potente Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino que también debe proporcionar a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Basado en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizando sistemáticamente los últimos avances en el sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain de IA Layer1 ( en su fase inicial como Layer 2, y luego migrará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y protección de la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto de segundo emprendimiento de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, con Founders Fund, Pantera y Framework Ventures como principales inversores, junto a otras decenas de conocidas firmas de capital de riesgo como Delphi, Hashkey y Spartan.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient está compuesta por dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
AI Pipeline es la base para el desarrollo y entrenamiento de artefactos de "AI leal", que incluye dos procesos centrales:
Curaduría de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada de modelo controlada por contrato de autorización;
Capa de acceso: Verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a cada llamada a los entrenadores, desplegadores y validadores.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que busca proporcionar una protección clara de la propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada vez que se invoca el modelo, se genera un flujo de ingresos, y el contrato on-chain distribuirá los ingresos entre el formador, el desplegador y el validador.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella dactilar incrustada: durante el entrenamiento se inserta un conjunto de pares clave-valor de consulta-respuesta ocultos para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva mediante un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada con permiso: antes de la llamada, se debe obtener un "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta correcta.
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costo adicional de re-encriptación.
Marco de ejecución seguro y de confirmación de derechos del modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación de huellas dactilares, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huellas dactilares se implementa a través de OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con capacidad de detección y penalización en caso de violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, previniendo la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de los comportamientos de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando accesos y usos no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
2
Compartir
Comentar
0/400
OptionWhisperer
· hace13h
experto hacer dinero inversor minorista arrodillado bebiendo sopa
Ver originalesResponder0
BearMarketBuyer
· hace13h
experto aún está estudiando el informe, el bull run está por llegar
Informe de investigación sobre AI Layer1: Análisis de la exploración de seis grandes proyectos para construir un ecosistema de AI Descentralización.
Informe de investigación de AI Layer1: Buscando un terreno fértil para DeAI en la cadena
Resumen
En los últimos años, compañías tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital sólido y control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, haciendo que la gran mayoría de los desarrolladores y equipos de innovación tengan dificultades para competir.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas tendrán un profundo impacto en el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA está "en el camino del bien" o "en el camino del mal" se volverá cada vez más prominente, mientras que los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena presenta limitaciones en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación requieren mejoras.
Para lograr verdaderamente la visión de una IA descentralizada, y permitir que la blockchain soporte aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que compita en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centran en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe contar con las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia computacional y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia computacional y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y una distribución eficiente de los recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia computacional.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento e inferencia de LLM, exigen un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente elevados. Más aún, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizarse profundamente en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preconfigurar capacidades de soporte nativo para recursos de computación heterogéneos, asegurando que todo tipo de tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables La capa 1 de IA no solo debe prevenir problemas de seguridad como el comportamiento malicioso del modelo y la manipulación de datos, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de la IA desde la mecánica subyacente. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), la prueba de conocimiento cero (ZK) y el cálculo seguro multipartito (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sea verificado de forma independiente, asegurando la imparcialidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y los fundamentos de la salida de la IA, logrando que "lo que se obtiene sea lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crucial en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, para asegurar la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, evitando eficazmente las filtraciones y el uso indebido de datos, y eliminando la preocupación de los usuarios sobre la seguridad de los datos.
Capacidad de soporte y desarrollo del ecosistema potente Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino que también debe proporcionar a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Basado en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizando sistemáticamente los últimos avances en el sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain de IA Layer1 ( en su fase inicial como Layer 2, y luego migrará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y protección de la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto de segundo emprendimiento de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, con Founders Fund, Pantera y Framework Ventures como principales inversores, junto a otras decenas de conocidas firmas de capital de riesgo como Delphi, Hashkey y Spartan.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient está compuesta por dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
AI Pipeline es la base para el desarrollo y entrenamiento de artefactos de "AI leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que busca proporcionar una protección clara de la propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costo adicional de re-encriptación.
Marco de ejecución seguro y de confirmación de derechos del modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación de huellas dactilares, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huellas dactilares se implementa a través de OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con capacidad de detección y penalización en caso de violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, previniendo la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de los comportamientos de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando accesos y usos no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.