Rapport de recherche AI Layer1 : à la recherche d'un terrain fertile pour DeAI hors chaîne
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continué à promouvoir le développement rapide des modèles de langage (LLM). Les LLM ont démontré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, ces technologies clés sont fermement contrôlées par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation presque impossible.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée à des questions cruciales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et sur son acceptation par la société. Si ces problèmes ne sont pas résolus de manière adéquate, la controverse sur la "bienveillance" ou la "malveillance" de l'IA deviendra de plus en plus évidente, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable du secteur de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures reposent toujours sur des services cloud centralisés, et les attributs meme sont trop présents, ce qui rend difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'accueillir des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques principales de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception des performances étroitement adaptées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur d'AI Layer 1 réside dans la construction d'un réseau ouvert de partage de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes. Ils doivent non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela pose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, afin d'assurer la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, et prévoir une capacité de prise en charge native des ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent s'exécuter efficacement, permettant une extension fluide de "tâches uniques" à "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable
L'IA Layer 1 doit non seulement prévenir les risques de malveillance des modèles et de falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de l'IA au niveau des mécanismes fondamentaux. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à zéro connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement de données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que vous obtenez est ce que vous souhaitez", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs en matière de sécurité des données.
Capacité de support au développement et d'hébergement d'écosystème puissant
En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement avoir une avance technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G. Il fera un état des lieux des dernières avancées dans ce domaine, analysera l'état actuel de développement des projets et discutera des tendances futures.
Sentient : Construire un modèle IA décentralisé open source et fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de créer une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis elle sera migrée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (, ouvert, rentable et loyal, permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI juste et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, dédiée à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de sciences, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ été auréolé d'une certaine réputation, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. Mi-2024, Sentient a achevé un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs comme Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure de base
Architecture centrale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI ### AI Pipeline ( et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Données de planification ) Data Curation ( : un processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation de fidélité)Loyalty Training( : Assurez-vous que le modèle maintienne un processus d'entraînement conforme à l'intention de la communauté.
Le système de blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : point d'entrée de l'appel du modèle contrôlé par le contrat d'autorisation ;
Couche d'accès : vérifie si l'utilisateur est autorisé par la preuve d'autorisation.
Couche d'incitation : le contrat de routage des revenus répartit le paiement à chaque appel entre les formateurs, les déployeurs et les validateurs.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML ### est ouvert, monétisable, et loyal. C'est le concept clé proposé par Sentient, visant à fournir une protection de propriété claire et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture: Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain distribuera les revenus aux entraîneurs, déployeurs et validateurs.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
(## Cryptographie native à l'IA)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Intégration des empreintes digitales : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former la signature unique du modèle ;
Protocole de vérification de propriété : Vérifier si l'empreinte digitale est conservée par le biais d'un détecteur tiers ###Prover( sous forme de questions par requête.
Mécanisme d'appel autorisé : avant d'appeler, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer une réponse précise.
Cette méthode permet d'implémenter "appel d'autorisation basé sur le comportement + validation d'appartenance" sans coût de réencryption.
)## Cadre d'exécution sécurisé et de confirmation des droits de modèle
Sentient utilise actuellement la sécurité hybride Melange : combinaison d'authentification par empreinte digitale, d'exécution TEE et de contrats intelligents de partage de bénéfices sur off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée "sécurité optimiste(Optimistic Security)", qui suppose la conformité par défaut, avec détection et sanction en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé de l'OML, qui permet au modèle de générer une signature unique lors de la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements traçables des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance ### tel que AWS Nitro Enclaves ( pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance )ZK( et des techniques de cryptographie homomorphe )FHE(, afin de renforcer davantage la protection de la vie privée et la vérifiabilité, et de fournir un déploiement décentralisé plus mature pour les modèles d'IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 J'aime
Récompense
12
4
Partager
Commentaire
0/400
MetaverseVagrant
· Il y a 5h
Hé fren, le nouveau secteur est très hot.
Voir l'originalRépondre0
GasWhisperer
· Il y a 12h
l'IA décentralisée pourrait être le seul moyen de briser le monopole... les données du mempool disent la vérité pour être honnête
Voir l'originalRépondre0
SeasonedInvestor
· Il y a 12h
Je ne comprends pas tout ça, autant faire un All in.
Voir l'originalRépondre0
Rugpull幸存者
· Il y a 12h
la révolution de l'IA a encore pris les gens pour des idiots une fois
Analyse approfondie de la couche AI Layer1 : six grands projets menant la révolution DeAI écosystème off-chain.
Rapport de recherche AI Layer1 : à la recherche d'un terrain fertile pour DeAI hors chaîne
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continué à promouvoir le développement rapide des modèles de langage (LLM). Les LLM ont démontré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, ces technologies clés sont fermement contrôlées par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation presque impossible.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée à des questions cruciales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et sur son acceptation par la société. Si ces problèmes ne sont pas résolus de manière adéquate, la controverse sur la "bienveillance" ou la "malveillance" de l'IA deviendra de plus en plus évidente, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable du secteur de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures reposent toujours sur des services cloud centralisés, et les attributs meme sont trop présents, ce qui rend difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'accueillir des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques principales de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception des performances étroitement adaptées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur d'AI Layer 1 réside dans la construction d'un réseau ouvert de partage de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes. Ils doivent non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela pose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, afin d'assurer la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, et prévoir une capacité de prise en charge native des ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent s'exécuter efficacement, permettant une extension fluide de "tâches uniques" à "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable L'IA Layer 1 doit non seulement prévenir les risques de malveillance des modèles et de falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de l'IA au niveau des mécanismes fondamentaux. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à zéro connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement de données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que vous obtenez est ce que vous souhaitez", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs en matière de sécurité des données.
Capacité de support au développement et d'hébergement d'écosystème puissant En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement avoir une avance technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G. Il fera un état des lieux des dernières avancées dans ce domaine, analysera l'état actuel de développement des projets et discutera des tendances futures.
Sentient : Construire un modèle IA décentralisé open source et fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de créer une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis elle sera migrée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (, ouvert, rentable et loyal, permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI juste et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, dédiée à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de sciences, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ été auréolé d'une certaine réputation, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. Mi-2024, Sentient a achevé un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs comme Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure de base
Architecture centrale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI ### AI Pipeline ( et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système de blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML ### est ouvert, monétisable, et loyal. C'est le concept clé proposé par Sentient, visant à fournir une protection de propriété claire et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
(## Cryptographie native à l'IA)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet d'implémenter "appel d'autorisation basé sur le comportement + validation d'appartenance" sans coût de réencryption.
)## Cadre d'exécution sécurisé et de confirmation des droits de modèle
Sentient utilise actuellement la sécurité hybride Melange : combinaison d'authentification par empreinte digitale, d'exécution TEE et de contrats intelligents de partage de bénéfices sur off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée "sécurité optimiste(Optimistic Security)", qui suppose la conformité par défaut, avec détection et sanction en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé de l'OML, qui permet au modèle de générer une signature unique lors de la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements traçables des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance ### tel que AWS Nitro Enclaves ( pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance )ZK( et des techniques de cryptographie homomorphe )FHE(, afin de renforcer davantage la protection de la vie privée et la vérifiabilité, et de fournir un déploiement décentralisé plus mature pour les modèles d'IA.