Fusion de l'IA et de DePIN : Émergence des réseaux GPU décentralisés et analyse des tendances futures

Intersection de l'IA et de DePIN : L'émergence des réseaux GPU décentralisés

Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection des deux et explore l'état de développement des protocoles associés.

Dans la pile technologique AI, le réseau DePIN fournit une utilité à l'AI grâce aux ressources de calcul. Le développement des grandes entreprises technologiques a entraîné une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela pousse souvent les développeurs à choisir des fournisseurs de cloud centralisés, mais en raison de la nécessité de signer des contrats rigides à long terme pour du matériel haute performance, l'efficacité est réduite.

DePIN offre essentiellement une alternative plus flexible et plus rentable en incitant à la contribution de ressources par des récompenses en tokens. Le DePIN dans le domaine de l'IA externalise les ressources GPU des propriétaires individuels vers des centres de données, formant une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Ces réseaux offrent non seulement aux développeurs ayant besoin de puissance de calcul de la personnalisation et un accès à la demande, mais aussi un revenu supplémentaire pour les propriétaires de GPU.

Il existe de nombreux réseaux AI DePIN sur le marché, et il peut être difficile de reconnaître les différences entre eux et de trouver le réseau approprié. Nous allons explorer les rôles, les objectifs et les résultats concrets obtenus par chaque protocole.

AI et le point de convergence de DePIN

Aperçu du réseau AI DePIN

Chaque projet mentionné ici a des objectifs similaires - le réseau de calcul GPU. Cette section vise à étudier les points forts, les priorités du marché et les réalisations de chaque projet. En comprenant leur infrastructure clé et leurs produits, nous pouvons analyser en profondeur les différences entre eux.

Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu graphique pour la création de contenu, puis a élargi son champ d'application pour inclure diverses tâches de calcul AI allant des champs de radiation neurale (NeRF) à l'IA générative.

Akash se positionne comme une alternative "super cloud" aux plateformes traditionnelles de stockage, de calcul GPU et CPU telles qu'AWS(. Grâce à des outils conviviaux pour les développeurs comme la plateforme de conteneurs Akash et les nœuds de calcul gérés par Kubernetes, il est capable de déployer des logiciels de manière transparente à travers les environnements, permettant ainsi d'exécuter n'importe quelle application cloud native.

io.net fournit un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation de l'IA et du ML. Il agrège des GPU provenant de centres de données, de mineurs de crypto-monnaies et d'autres réseaux décentralisés.

Gensyn offre des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Il affirme avoir réalisé un mécanisme de validation plus efficace en combinant des concepts tels que l'utilisation de preuves de travail pour la validation, des protocoles de localisation précise basés sur des graphiques pour la relance des validations, ainsi que des jeux d'incitations impliquant des fournisseurs de calcul, des mises et des réductions.

Aethir est spécialement conçu pour les GPU d'entreprise, se concentrant sur les domaines intensifs en calcul, principalement l'intelligence artificielle, l'apprentissage automatique )ML(, les jeux en cloud, etc. Les conteneurs dans son réseau servent de points de terminaison virtuels pour exécuter des applications basées sur le cloud, déplaçant les charges de travail des appareils locaux vers les conteneurs pour une expérience à faible latence.

Phala Network agit en tant que couche d'exécution pour des solutions AI Web3. Sa blockchain est une solution de cloud computing sans confiance, conçue pour traiter les problèmes de confidentialité grâce à son environnement d'exécution de confiance )TEE(. Sa couche d'exécution n'est pas utilisée comme couche de calcul pour les modèles AI, mais permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.

![AI et le point de convergence de DePIN])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(

Comparaison de projet

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | Intelligence artificielle, cloud gaming et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Raisonnement | Prendre en compte | Prendre en compte | Entraînement | Entraînement | Exécution | | Tarification du travail | Tarification basée sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&hachage | Authentification mTLS | Cryptage des données | Cartographie sécurisée | Cryptage | TEE | | Coût du travail | 0,5-5% par tâche | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Coûts bas | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœud vérificateur | Preuve à distance | | Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |

) importance

Disponibilité du calcul en cluster et parallèle

Le cadre de calcul distribué a mis en place un cluster GPU, offrant un entraînement plus efficace sans affecter la précision du modèle, tout en améliorant l'évolutivité. Entraîner des modèles d'IA complexes nécessite une puissance de calcul importante, qui doit souvent s'appuyer sur le calcul distribué pour répondre à ses besoins. D'un point de vue intuitif, le modèle GPT-4 d'OpenAI possède plus de 1,8 trillion de paramètres, entraîné en 3 à 4 mois en utilisant environ 25 000 GPU Nvidia A100 répartis sur 128 clusters.

Auparavant, Render et Akash ne proposaient que des GPU à usage unique, ce qui pouvait limiter leur demande sur le marché des GPU. Cependant, la plupart des projets clés ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec Render, Filecoin et d'autres projets comme Aethir pour intégrer davantage de GPU dans son réseau, et a réussi à déployer plus de 3 800 clusters au premier trimestre de 2024. Bien que Render ne prenne pas en charge les clusters, son fonctionnement est similaire à celui des clusters, décomposant une seule image en plusieurs nœuds différents pour traiter simultanément différentes plages d'images. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.

Il est très important d'intégrer le cadre de cluster dans le réseau de flux de travail de l'IA, mais le nombre et le type de GPU de cluster nécessaires pour répondre aux besoins des développeurs d'IA est une question distincte.

Protection des données

Le développement de modèles d'IA nécessite l'utilisation de vastes ensembles de données, qui peuvent provenir de diverses sources et prendre différentes formes. Les ensembles de données sensibles, tels que les dossiers médicaux personnels et les données financières des utilisateurs, peuvent être exposés au risque d'être divulgués aux fournisseurs de modèles. Samsung a interdit l'utilisation de ChatGPT en interne par crainte que le téléchargement de codes sensibles sur la plateforme ne porte atteinte à la vie privée, et l'incident de fuite de 38 To de données privées de Microsoft souligne encore l'importance de prendre des mesures de sécurité adéquates lors de l'utilisation de l'IA. Par conséquent, disposer de diverses méthodes de protection de la vie privée des données est essentiel pour restituer le contrôle des données aux fournisseurs de données.

La plupart des projets couverts utilisent une forme de cryptage des données pour protéger la confidentialité des données. Le cryptage des données garantit que le transfert de données entre le fournisseur de données et le fournisseur de modèle ###, et le récepteur de données ( est protégé dans le réseau. Render utilise le cryptage et le hachage lors de la publication des résultats de rendu sur le réseau, tandis que io.net et Gensyn adoptent une forme de cryptage des données. Akash utilise l'authentification mTLS, permettant uniquement aux fournisseurs choisis par le locataire de recevoir des données.

Cependant, io.net a récemment collaboré avec Mind Network pour lancer le chiffrement complètement homomorphe )FHE(, permettant de traiter des données chiffrées sans avoir besoin de les déchiffrer au préalable. En rendant les données capables d'être transmises en toute sécurité à des fins de formation sans révéler l'identité et le contenu des données, cette innovation peut mieux garantir la confidentialité des données que les technologies de chiffrement existantes.

Phala Network a introduit le TEE, c'est-à-dire une zone sécurisée dans le processeur principal de l'appareil connecté. Grâce à ce mécanisme d'isolement, il peut empêcher les processus externes d'accéder ou de modifier les données, quel que soit leur niveau d'autorisation, même pour les personnes ayant un accès physique à la machine. En plus du TEE, il a également intégré l'utilisation de zk-proofs dans son validateur zkDCAP et son interface de ligne de commande jtee, afin de permettre l'intégration de programmes avec RiscZero zkVM.

![AI et le point de convergence de DePIN])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(

) Preuve de calcul terminé et contrôle de qualité

Les GPU fournis par ces projets peuvent offrir des capacités de calcul pour une gamme de services. Étant donné que ces services varient considérablement, allant du rendu graphique au calcul AI, la qualité finale de telles tâches peut ne pas toujours répondre aux normes des utilisateurs. Une preuve d'achèvement peut être utilisée pour indiquer que le GPU spécifique loué par l'utilisateur a effectivement été utilisé pour exécuter les services requis, et un contrôle de qualité est bénéfique pour les utilisateurs demandant l'achèvement de tels travaux.

Après le calcul, Gensyn et Aethir génèreront des preuves pour indiquer que le travail est terminé, tandis que la preuve d'io.net indique que les performances du GPU loué ont été pleinement utilisées sans problème. Gensyn et Aethir effectueront un contrôle de qualité sur les calculs terminés. Pour Gensyn, il utilise des validateurs pour réexécuter une partie du contenu des preuves générées afin de les vérifier, tandis que le dénonciateur sert de contrôle supplémentaire sur les validateurs. En même temps, Aethir utilise des nœuds de vérification pour évaluer la qualité du service et pénaliser les services en dessous des normes. Render recommande d'utiliser un processus de résolution de litige ; si le comité d'examen trouve des problèmes avec un nœud, celui-ci sera réduit. Phala générera une preuve TEE une fois terminé, garantissant que l'agent AI exécute les opérations requises sur la chaîne.

![AI et le point de convergence de DePIN]###https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(

Statistiques matérielles

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ) prévu ( | $0.33 ) prévu ( | - |

) Exigences en matière de GPU haute performance

En raison des besoins de performance optimale pour l'entraînement des modèles d'IA, il y a une préférence pour les GPU tels que les A100 et H100 de Nvidia. Bien que ce dernier soit très coûteux sur le marché, il offre la meilleure qualité. L'A100 peut non seulement entraîner toutes les charges de travail, mais elle le fait également à une vitesse supérieure, ce qui témoigne de l'importance accordée à ce type de matériel sur le marché. Étant donné que les performances d'inférence du H100 sont quatre fois plus rapides que celles de l'A100, il est désormais devenu le GPU de choix, en particulier pour les grandes entreprises qui entraînent leurs propres LLM.

Pour un fournisseur de marché GPU décentralisé, pour rivaliser avec ses homologues de Web2, il doit non seulement offrir des prix plus bas, mais aussi répondre aux besoins réels du marché. En 2023, Nvidia a livré plus de 500 000 H100 à de grandes entreprises technologiques centralisées, rendant l'acquisition d'autant de matériel équivalent pour rivaliser avec les grands fournisseurs de cloud coûteuse et difficile. Ainsi, il est essentiel de considérer le nombre de matériel que ces projets peuvent intégrer à leur réseau à faible coût pour étendre ces services à une plus grande clientèle.

Bien que chaque projet ait des activités liées à l'IA et au ML, ils diffèrent dans leur capacité à fournir des calculs. Akash n'a au total que plus de 150 unités H100 et A100, tandis qu'io.net et Aethir ont respectivement plus de 2000 unités. En général, préentraîner un LLM ou un modèle génératif à partir de zéro nécessite au moins 248 à plus de 2000 GPU dans le cluster, donc les deux derniers projets sont plus adaptés au calcul de grands modèles.

Selon la taille du cluster requise par les développeurs, le coût de ces services GPU décentralisés sur le marché est déjà beaucoup plus bas que celui des services GPU centralisés. Gensyn et Aethir affirment pouvoir louer du matériel équivalent à l'A100 pour moins de 1 dollar de l'heure, mais cela devra encore être prouvé avec le temps.

Le cluster GPU connecté au réseau possède de nombreux GPU, avec un coût horaire relativement bas, mais par rapport aux GPU connectés via NVLink,

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
BearMarketMonkvip
· Il y a 14h
Encore une bulle de valorisation imaginaire, laissons les investisseurs détaillants devenir des pigeons une fois de plus~
Voir l'originalRépondre0
TokenGuruvip
· Il y a 20h
Mining se faire prendre pour des cons cette fois-ci en prenant les GPU.
Voir l'originalRépondre0
ChainSpyvip
· Il y a 20h
Le bull run des GPU arrive ?
Voir l'originalRépondre0
RumbleValidatorvip
· Il y a 20h
Tout le monde ne mérite pas la décentralisation, le nœud est la vérité.
Voir l'originalRépondre0
Ser_Liquidatedvip
· Il y a 20h
GPU suffisamment pour manger et boire, l'investisseur détaillant ose-t-il encore vendre ?
Voir l'originalRépondre0
SolidityStrugglervip
· Il y a 20h
Ne raconte pas d'histoires, c'est juste de la spéculation.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)