Informe de investigación de AI Layer1: Explorando la Descentralización de AI
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana, e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Gracias a su sólido capital y al control de los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública tiende a centrarse en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente menor. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y la aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "hacer el bien" o "hacer el mal" se volverá cada vez más pronunciada, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de Descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, ya que los eslabones clave y la infraestructura todavía dependen de servicios en la nube centralizados, con una excesiva propiedad de meme, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena sigue siendo limitada en cuanto a capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la Descentralización de la inteligencia artificial, permitir que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1 como una blockchain diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y de Descentralización. El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento y la inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y los mecanismos de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y validar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando seguridad en la red y una distribución eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en la cadena a menudo debe admitir una variedad de tipos de tareas heterogéneas, incluidas diferentes estructuras de modelo, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe realizar una profunda optimización en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preestablecer capacidades de soporte nativas para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo fundamental. A través de la integración de tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y computación segura multipartita (MPC), la plataforma puede permitir que cada inferencia del modelo, entrenamiento y proceso de procesamiento de datos sean verificables de manera independiente, asegurando la equidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y la base de salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los campos de finanzas, salud y redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que adopta tecnologías de procesamiento de datos basadas en cifrado, protocolos de cálculo de privacidad y gestión de permisos de datos, entre otros métodos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de los datos, eliminando así la preocupación de los usuarios en cuanto a la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema. Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener un liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Basado en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizará sistemáticamente los últimos avances en el sector, analizará el estado actual del desarrollo de los proyectos y discutirá las tendencias futuras.
Sentient: Construir modelos de IA de código abierto y Descentralización leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología de blockchain, construye un ecosistema de inteligencia artificial descentralizado. Su objetivo principal es resolver los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado mediante el marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables respectivamente de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP, visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto emprendedor secundario de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras varias instituciones de inversión reconocidas como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
Planificación de datos (Data Curation): proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento consistente con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y Descentralización en el control de los protocolos, garantizando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlada por contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, desplegadores y validadores.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que tiene como objetivo proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología blockchain y la criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato en la cadena distribuirá los ingresos a los entrenadores, desplegadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de actualización y la gobernanza son decididas por la DAO, y el uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella digital incrustada: insertar un conjunto de pares de clave-valor query-response ocultos durante el entrenamiento para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada de permisos: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema autorizará al modelo para decodificar la entrada y devolver la respuesta precisa.
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución seguro y derechos de modelo
Sentient actualmente utiliza Melange mezclado seguro: combina la verificación de huellas dactilares, la ejecución de TEE y la distribución de beneficios de contratos en cadena. El método de huellas dactilares se basa en la implementación de OML 1.0, enfatizando la idea de "Seguridad Optimista", es decir, asumiendo cumplimiento por defecto, y en caso de incumplimiento, se puede detectar y sancionar.
El mecanismo de huellas digitales es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias no autorizadas y comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque el TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y capacidad en tiempo real lo convierten en el núcleo del despliegue de modelos actual.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Compartir
Comentar
0/400
MEVictim
· hace16h
El apetito de ai es un poco grande.
Ver originalesResponder0
PensionDestroyer
· hace16h
Oligopolio ¿Qué cosa hay que regular?
Ver originalesResponder0
CoinBasedThinking
· hace16h
Entonces, está monopolizado.
Ver originalesResponder0
OnchainFortuneTeller
· hace16h
La centralización es aterradora.
Ver originalesResponder0
BearMarketMonk
· hace16h
Los gigantes solo están recaudando dinero, tontos no se emocionen demasiado.
Evolución de la Capa 1 de IA: Nuevas oportunidades y desafíos de la Descentralización de IA
Informe de investigación de AI Layer1: Explorando la Descentralización de AI
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana, e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Gracias a su sólido capital y al control de los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública tiende a centrarse en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente menor. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y la aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "hacer el bien" o "hacer el mal" se volverá cada vez más pronunciada, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de Descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, ya que los eslabones clave y la infraestructura todavía dependen de servicios en la nube centralizados, con una excesiva propiedad de meme, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena sigue siendo limitada en cuanto a capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la Descentralización de la inteligencia artificial, permitir que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1 como una blockchain diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y de Descentralización. El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento y la inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y los mecanismos de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y validar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando seguridad en la red y una distribución eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en la cadena a menudo debe admitir una variedad de tipos de tareas heterogéneas, incluidas diferentes estructuras de modelo, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe realizar una profunda optimización en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preestablecer capacidades de soporte nativas para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo fundamental. A través de la integración de tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y computación segura multipartita (MPC), la plataforma puede permitir que cada inferencia del modelo, entrenamiento y proceso de procesamiento de datos sean verificables de manera independiente, asegurando la equidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y la base de salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los campos de finanzas, salud y redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que adopta tecnologías de procesamiento de datos basadas en cifrado, protocolos de cálculo de privacidad y gestión de permisos de datos, entre otros métodos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de los datos, eliminando así la preocupación de los usuarios en cuanto a la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema. Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener un liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Basado en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizará sistemáticamente los últimos avances en el sector, analizará el estado actual del desarrollo de los proyectos y discutirá las tendencias futuras.
Sentient: Construir modelos de IA de código abierto y Descentralización leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología de blockchain, construye un ecosistema de inteligencia artificial descentralizado. Su objetivo principal es resolver los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado mediante el marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables respectivamente de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP, visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto emprendedor secundario de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras varias instituciones de inversión reconocidas como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y Descentralización en el control de los protocolos, garantizando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que tiene como objetivo proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología blockchain y la criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución seguro y derechos de modelo
Sentient actualmente utiliza Melange mezclado seguro: combina la verificación de huellas dactilares, la ejecución de TEE y la distribución de beneficios de contratos en cadena. El método de huellas dactilares se basa en la implementación de OML 1.0, enfatizando la idea de "Seguridad Optimista", es decir, asumiendo cumplimiento por defecto, y en caso de incumplimiento, se puede detectar y sancionar.
El mecanismo de huellas digitales es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias no autorizadas y comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque el TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y capacidad en tiempo real lo convierten en el núcleo del despliegue de modelos actual.