Ascensão da rede DePIN de IA: a computação GPU descentralizada lidera uma nova tendência

Rede DePIN de IA: O futuro da computação GPU descentralizada

Desde 2023, a IA e o DePIN tornaram-se tendências populares no domínio do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca a interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.

Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. A escassez de GPUs causada por grandes empresas de tecnologia dificulta que outros desenvolvedores de IA obtenham potência computacional suficiente de GPU. A abordagem tradicional é optar por prestadores de serviços de nuvem centralizados, mas é necessário assinar contratos de longo prazo inflexíveis e ineficientes.

DePIN oferece uma alternativa mais flexível e economicamente viável, incentivando contribuições de recursos que atendem aos objetivos da rede através de tokens. O DePIN no campo da IA integra recursos de GPU pessoais em data centers, proporcionando uma oferta unificada aos usuários. Isso não só oferece aos desenvolvedores acesso personalizado e sob demanda, mas também cria receitas adicionais para os proprietários de GPUs.

Existem muitos redes DePIN de IA no mercado, este artigo irá explorar o papel, os objetivos e os destaques de cada protocolo, bem como as suas diferenças.

AI e o ponto de interseção do DePIN

Visão Geral da Rede DePIN de IA

Render

Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização gráfica, e depois expandiu-se para tarefas de computação de IA.

Destaques:

  • Fundada pela OTOY, uma empresa premiada com o Oscar da Tecnologia
  • A rede GPU é utilizada por grandes empresas de entretenimento como a Paramount e PUBG
  • Colaborar com a Stability AI e integrar modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
  • Aprovar múltiplos clientes de computação, integrar mais GPUs da rede DePIN.

Akash

Akash é posicionado como uma plataforma de "super nuvem" que suporta armazenamento, computação em GPU e CPU, servindo como uma alternativa a plataformas tradicionais como a AWS. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar qualquer aplicação nativa da nuvem de forma integrada.

Destaques:

  • Voltado para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na web
  • AkashML permite executar mais de 15.000 modelos na Hugging Face
  • Aplicações importantes como o chatbot LLM da Mistral AI, SDXL da Stability AI, entre outras.
  • A plataforma de metaverso, implementação de IA e aprendizado federado está utilizando sua supernuvem

io.net

A io.net oferece acesso a um cluster de GPU em nuvem distribuído, especificamente para AI e ML, agregando recursos de GPU de centros de dados, mineradores e outros.

Destaques:

  • O IO-SDK é compatível com frameworks como PyTorch e Tensorflow, podendo ser automaticamente escalado conforme a necessidade.
  • Suporta a criação de 3 tipos diferentes de clusters, podendo ser iniciado em 2 minutos.
  • Integrar GPUs de outras redes DePIN em colaboração com Render, Filecoin e outros

Gensyn

A Gensyn oferece capacidade de computação em GPU focada em aprendizado de máquina e aprendizado profundo. Através de tecnologias como provas de aprendizado, implementa um mecanismo de validação mais eficiente.

Destaques:

  • O custo por hora do GPU V100 é de aproximadamente 0,40 dólares, o que representa uma grande economia.
  • Pode ajustar o modelo base pré-treinado para realizar tarefas mais específicas
  • O modelo básico será descentralizado, globalmente compartilhado, proporcionando funcionalidades adicionais

Aethir

Aethir é especializado na implementação de GPU de nível empresarial, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Os contêineres na rede atuam como pontos finais virtuais para a execução de aplicações em nuvem, proporcionando uma experiência de baixa latência.

Destaques:

  • Expandir para o serviço de telefone na nuvem, lançar um telefone na nuvem descentralizado em colaboração com a APhone.
  • Estabelecer ampla colaboração com grandes empresas Web2 como NVIDIA e HPE.
  • Com vários parceiros Web3, como CARV, Magic Eden

Phala Network

A Phala Network, como camada de execução para soluções de IA Web3, utiliza o ambiente de execução confiável (TEE) para lidar com questões de privacidade. Isso permite que agentes de IA sejam controlados por contratos inteligentes na blockchain.

Destaques:

  • Como um protocolo de coprocessador de computação verificável, capacita os agentes de IA com recursos na blockchain.
  • Os contratos de AI代理 podem ser obtidos através da Redpill, incluindo os principais modelos de linguagem como o OpenAI.
  • O futuro incluirá sistemas de múltiplas provas como zk-proofs, MPC, FHE, entre outros.
  • Futuramente suportará GPU TEE como H100, melhorando a capacidade de cálculo

Comparação de Projetos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA em Blockchain | | Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço de Trabalho | Preço Baseado em Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Custos baixos | 20% por sessão | Proporcional ao valor em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizado | Prova de trabalho de renderização | Prova de TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó de Verificação | Prova Remota | | Cluster de GPU | Não | Sim | Sim | Sim | Sim | Não |

AI e o ponto de interseção com DePIN

Importância

Disponibilidade de computação em cluster e paralela

A estrutura de computação distribuída implementou um cluster de GPU, proporcionando um treinamento mais eficiente e ao mesmo tempo melhorando a escalabilidade. Treinar modelos de IA complexos requer uma potência de cálculo robusta, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhão de parâmetros, e foi treinado em cerca de 25.000 GPUs Nvidia A100 em 128 clusters ao longo de 3-4 meses.

A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, incorporou mais GPUs à rede e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, ela divide um único quadro em vários nós para processamento simultâneo, funcionando de forma semelhante. A Phala atualmente suporta apenas CPU, mas permite a formação de clusters de trabalhadores CPU.

AI e o ponto de intersecção com DePIN

privacidade de dados

O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem conter informações sensíveis. A Samsung desativou o ChatGPT devido ao receio de vazamento de código, e o incidente de vazamento de 38TB de dados da Microsoft destacou a importância das medidas de segurança em IA. Portanto, vários métodos de privacidade de dados são cruciais para proteger o controle sobre os dados.

A maioria dos projetos utiliza alguma forma de criptografia de dados. O Render utiliza criptografia e hash ao publicar os resultados de renderização, io.net e Gensyn adotam criptografia de dados, e o Akash utiliza autenticação mTLS para restringir o acesso aos dados.

A io.net recentemente colaborou com a Mind Network para lançar a criptografia homomórfica completamente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de descriptografar, protegendo a privacidade dos dados melhor do que as tecnologias de criptografia existentes.

A Phala Network introduz um ambiente de execução confiável ( TEE ), para impedir que processos externos acessem ou modifiquem dados. Ela também integra provas zk no zkDCAP verificador e na jtee CLI, para integrar o RiscZero zkVM.

AI e o ponto de interseção do DePIN

Prova de cálculo concluído e inspeção de qualidade

Devido à ampla gama de serviços, desde rendering até computação AI, a qualidade final pode não corresponder sempre aos padrões dos usuários. A conclusão de provas e verificações de qualidade é benéfica para os usuários.

A Gensyn e a Aethir geram provas de conclusão, a prova do io.net indica que o desempenho da GPU está sendo totalmente aproveitado. A Gensyn e a Aethir realizam verificações de qualidade, a Gensyn utiliza validadores e denunciantes, enquanto a Aethir utiliza nós de verificação. O Render sugere o uso de um processo de resolução de disputas. A Phala gera provas de TEE, garantindo que os agentes de IA executem as operações necessárias.

Estatísticas de Hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | Quantidade H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |

AI e o ponto de interseção do DePIN

Demanda por GPU de alto desempenho

Os modelos de IA tendem a usar GPUs de alto desempenho, como a Nvidia A100 e H100, para treinamento. O desempenho de inferência da H100 é 4 vezes superior ao da A100, tornando-se a escolha preferida das grandes empresas para treinar LLMs.

Os fornecedores de mercado de GPU descentralizados precisam oferecer preços mais baixos e atender à demanda real. Em 2023, a Nvidia entregou mais de 500.000 H100 para grandes empresas de tecnologia, tornando difícil a obtenção de hardware equivalente. Portanto, considerar o número de hardware que esses projetos podem introduzir a um custo baixo é crucial para expandir a base de clientes.

Akash tem apenas mais de 150 H100 e A100, enquanto io.net e Aethir têm mais de 2000 cada. Modelos de linguagem pré-treinados ou modelos geradores normalmente requerem de 248 a mais de 2000 clusters de GPU, portanto, os dois últimos projetos são mais adequados para computação de modelos grandes.

O custo dos serviços de GPU descentralizados já é inferior ao dos serviços centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware de nível A100 por menos de 1 dólar por hora, mas ainda será necessário tempo para verificar.

Em comparação com GPUs conectadas por NVLink, a memória dos clusters de GPUs conectados por rede é limitada. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLM com grandes parâmetros e grandes conjuntos de dados. Apesar disso, as redes de GPUs descentralizadas ainda oferecem uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, criando oportunidades para construir mais casos de uso em IA e ML.

AI e o ponto de intersecção do DePIN

fornece GPU/CPU de nível de consumo

A CPU também desempenha um papel importante no treinamento de modelos de IA, desde o pré-processamento de dados até a gestão de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou treinar modelos de pequena escala.

Considerando que mais de 85% dos recursos da GPU dos consumidores estão ociosos, projetos como Render, Akash e io.net também atendem a este mercado. Oferecer essas opções permite que eles desenvolvam nichos de mercado, focando em computação intensiva em larga escala, renderização em pequena escala ou uma combinação de ambos.

AI e o ponto de interseção do DePIN

Conclusão

O campo DePIN de IA ainda é relativamente emergente e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar a quantidade de GPUs, mas resolveu o problema ao introduzir um processo de prova de trabalho.

Apesar disso, o número de tarefas executadas e de hardware nas redes GPU descentralizadas aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Ao mesmo tempo, o aumento dos fornecedores de hardware reflete uma oferta que antes não havia sido totalmente aproveitada. Isso comprova ainda mais o ajuste do mercado de produtos das redes AI DePIN, resolvendo efetivamente os desafios de demanda e oferta.

Olhando para o futuro, a IA desenvolver-se-á num mercado de trilhões de dólares em rápida expansão. Estas redes de GPU descentralizadas desempenharão um papel crucial em fornecer soluções de computação econômicas e eficientes para os desenvolvedores. Ao continuar a reduzir a lacuna entre a demanda e a oferta, estas redes farão contribuições significativas para o futuro da IA e da infraestrutura de computação.

AI e o ponto de interseção do DePIN

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Compartilhar
Comentário
0/400
SpeakWithHatOnvip
· 08-06 07:46
Ainda a negociar depin? Quanto mais cedo morrer, mais cedo renascer.
Ver originalResponder0
SmartContractPlumbervip
· 08-06 07:46
Este código ainda precisa ser auditado, não deixe vulnerabilidades à vista.
Ver originalResponder0
HodlNerdvip
· 08-06 07:45
teoria dos jogos fascinante em ação... pools de GPU descentralizados são a próxima evolução lógica, para ser honesto
Ver originalResponder0
PanicSellervip
· 08-06 07:34
Só falta uma placa gráfica, olha o que essa gente consegue.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)