2023'ten bu yana, AI ve DePIN Web3 alanında popüler eğilimler haline geldi ve piyasa değerleri sırasıyla 30 milyar dolar ve 23 milyar dolara ulaştı. Bu makale, her ikisinin kesişim alanına odaklanarak ilgili protokollerin gelişimini tartışmaktadır.
AI teknoloji yığını içerisinde, DePIN ağı AI'yi güçlendirmek için hesaplama kaynakları sağlayarak önemli bir rol oynamaktadır. Büyük teknoloji şirketlerinin neden olduğu GPU kıtlığı, diğer AI geliştiricilerinin yeterli GPU hesaplama gücüne erişimini zorlaştırdı. Geleneksel yaklaşım, merkezi bulut hizmet sağlayıcılarını seçmekti, ancak bu da esnek olmayan uzun vadeli sözleşmeler imzalamayı ve düşük verimliliği gerektiriyordu.
DePIN, ağ hedeflerine uygun kaynak katkılarını teşvik etmek için token teşvikleri aracılığıyla daha esnek ve maliyet etkin bir alternatif sunar. AI alanındaki DePIN, bireysel GPU kaynaklarını veri merkezlerine entegre ederek kullanıcılara birleşik bir tedarik sunar. Bu, yalnızca geliştiricilere özelleştirilmiş ve talebe dayalı erişim sağlamakla kalmaz, aynı zamanda GPU sahiplerine ek gelir yaratır.
Piyasada birçok AI DePIN ağı bulunmaktadır. Bu yazıda, çeşitli protokollerin işlevleri, hedefleri ve öne çıkan özellikleri ile bunlar arasındaki farklar ele alınacaktır.
AI DePIN Ağı Genel Görünümü
Render
Render, P2P GPU hesaplama ağının öncüsüdür, başlangıçta grafik renderlamaya odaklanmış, daha sonra AI hesaplama görevlerine genişlemiştir.
Öne Çıkanlar:
Oscar Teknik Ödülü'nü kazanan OTOY şirketi tarafından kuruldu
GPU ağı Paramount, PUBG gibi büyük eğlence şirketleri tarafından kullanılmaktadır
Stability AI gibi ortaklıklar kurarak, AI modelini 3D içerik render iş akışına entegre etmek
Birden fazla hesaplama istemcisini onayla, daha fazla DePIN ağı GPU'sunu entegre et.
Akash
Akash, depolama, GPU ve CPU hesaplamalarını destekleyen bir "süper bulut" platformu olarak konumlandırılmakta ve AWS gibi geleneksel platformların alternatifidir. Konteyner platformu ve Kubernetes yönetimindeki hesaplama düğümleri kullanılarak, herhangi bir bulut yerel uygulama sorunsuz bir şekilde dağıtılabilir.
Öne Çıkanlar:
Genel hesaplamadan ağ barındırmaya kadar geniş bir hesaplama görevine yöneliktir.
AkashML, Hugging Face üzerinde 15.000'den fazla modeli çalıştırmanıza olanak tanır.
Mistral AI'nın LLM sohbet robotu, Stability AI'nın SDXL gibi önemli uygulamaları.
Metaverse, AI dağıtımı ve federated öğrenme platformu süper bulutunu kullanıyor
io.net
io.net, AI ve ML için dağıtılmış GPU bulut kümesine erişim sağlar ve veri merkezleri, madenciler gibi kaynaklardan GPU kaynaklarını bir araya getirir.
Öne Çıkanlar:
IO-SDK, PyTorch ve Tensorflow gibi çerçevelerle uyumludur ve ihtiyaçlara göre otomatik olarak genişleyebilir.
3 farklı türde küme oluşturmayı destekler, 2 dakika içinde başlatılabilir.
Render, Filecoin gibi diğer DePIN ağlarının GPU'larıyla entegrasyon sağlamak
Gensyn
Gensyn, makine öğrenimi ve derin öğrenmeye odaklanmış GPU hesaplama yetenekleri sunmaktadır. Öğrenme kanıtı gibi teknolojiler aracılığıyla daha verimli bir doğrulama mekanizması gerçekleştirmektedir.
Öne Çıkanlar:
V100 GPU'nun saatlik maliyeti yaklaşık 0.40 dolar, maliyetleri önemli ölçüde azaltır.
Önceden eğitilmiş temel model üzerinde ince ayar yaparak daha spesifik görevler tamamlanabilir.
Temel model, merkeziyetsiz, küresel olarak paylaşılacak ve ek fonksiyonlar sunacaktır.
Aethir
Aethir, kurumsal düzeyde GPU'ları özel olarak dağıtır ve AI, ML, bulut oyunları gibi hesaplama yoğun alanlara odaklanır. Ağdaki konteynerler, bulut uygulamalarını çalıştıran sanal uç noktalar olarak işlev görür ve düşük gecikme süresi deneyimi sağlar.
Öne Çıkanlar:
Bulut telefon hizmetine genişleme, APHONE ile işbirliği yaparak merkeziyetsiz bulut telefonu piyasaya sürme
NVIDIA, HPE gibi büyük Web2 şirketleri ile geniş iş birlikleri kurmak
CARV, Magic Eden gibi birçok Web3 iş ortağıyla
Phala Ağı
Phala Network, Web3 AI çözümlerinin yürütme katmanı olarak, güvenilir yürütme ortamı ( TEE ) kullanarak gizlilik sorunlarını işler. AI ajanlarının zincir üzerindeki akıllı sözleşmelerle kontrol edilmesini sağlar.
Öne Çıkanlar:
Doğrulanabilir hesaplama için bir yardımcı işlemci protokolü, AI ajanlarını zincir üzerindeki kaynaklarla güçlendirir.
AI aracılığı sözleşmeleri Redpill üzerinden OpenAI gibi en iyi büyük dil modellerine erişilebilir.
Gelecek, zk-kanıtları, MPC, FHE gibi çoklu kanıt sistemlerini içerecek.
Gelecekte H100 gibi TEE GPU'ları destekleyecek, hesaplama gücünü artıracak.
Proje Karşılaştırması
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Donanım | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| İş Öncelikleri | Grafik Rendering ve AI | Bulut Bilişim, Rendering ve AI | AI | AI | AI, Bulut Oyun ve Telekomünikasyon | Zincir Üzeri AI Uygulaması |
| AI Görev Türü | Çıkarım | Her ikisi de | Her ikisi de | Eğitim | Eğitim | Uygulama |
| Çalışma Fiyatlandırması | Performansa Dayalı Fiyatlandırma | Ters Açık Artırma | Piyasa Fiyatlandırması | Piyasa Fiyatlandırması | İhale Sistemi | Hak Hesaplama |
| Blok Zinciri | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Veri Gizliliği | Şifreleme&Hashleme | mTLS Kimlik Doğrulama | Veri Şifreleme | Güvenli Harita | Şifreleme | TEE |
| İş Ücretleri | Her iş için %0.5-5 | %20 USDC, %4 AKT | %2 USDC, %0.25 rezerv ücreti | Düşük ücretler | Her oturumda %20 | Teminat miktarı ile orantılı |
| Güvenlik | Görselleştirme Kanıtı | Hak Kanıtı | Hesaplama Kanıtı | Hak Kanıtı | Görselleştirme Kapasite Kanıtı | Ara Zincirden Devralınmıştır |
| Tamamlama Kanıtı | - | - | Zaman Kilidi Kanıtı | Öğrenme Kanıtı | Render Çalışma Kanıtı | TEE Kanıtı |
| Kalite Güvencesi | İhtilaf | - | - | Doğrulayıcı ve Bildirici | Kontrol Düğümü | Uzak Kanıt |
| GPU kümesi | Hayır | Evet | Evet | Evet | Evet | Hayır |
Önemi
küme ve paralel hesaplamanın kullanılabilirliği
Dağıtık hesaplama çerçevesi GPU kümesi gerçekleştirdi, daha verimli bir eğitim sağlarken ölçeklenebilirliği artırdı. Karmaşık AI modellerini eğitmek güçlü bir hesaplama gücü gerektirir ve genellikle dağıtık hesaplamaya dayanır. Örneğin, OpenAI'nin GPT-4 modeli 18 trilyondan fazla parametreye sahiptir ve 128 kümede yaklaşık 25.000 Nvidia A100 GPU kullanarak 3-4 ay içinde eğitilmiştir.
Çoğu proje artık küme entegrasyonu ile paralel hesaplama gerçekleştirmektedir. io.net, diğer projelerle işbirliği yaparak daha fazla GPU'yu ağa dahil etti ve 24. yılın ilk çeyreğinde 3,800'den fazla küme dağıtımı yaptı. Render küme desteği olmamasına rağmen, tek bir kareyi birden fazla düğüme ayırarak aynı anda işlenmesini sağlamakta, çalışma prensibi benzer bir şekilde işlemektedir. Phala şu anda yalnızca CPU desteklemektedir, ancak CPU işleyicilerin kümeleşmesine izin vermektedir.
veri gizliliği
Yapay zeka modeli geliştirmek büyük miktarda veri seti gerektirir ve bu setler hassas bilgiler içerebilir. Samsung, kod sızıntısı endişesi nedeniyle ChatGPT'yi devre dışı bıraktı; Microsoft'un 38TB veri sızıntısı olayı, yapay zeka güvenlik önlemlerinin önemini vurguladı. Bu nedenle, çeşitli veri gizliliği yöntemleri, veri kontrol hakkının korunması açısından hayati önem taşımaktadır.
Çoğu proje, bir tür veri şifrelemesi kullanır. Render, render sonuçlarını yayınlarken şifreleme ve hash kullanır, io.net ve Gensyn veri şifrelemesi benimser, Akash veri erişimini kısıtlamak için mTLS kimlik doğrulaması kullanır.
io.net, son zamanlarda Mind Network ile iş birliği yaparak tamamen homomorfik şifreleme (FHE)'i tanıttı. Bu, verileri şifrelerini çözmeden işleme imkanı sunarak mevcut şifreleme teknolojilerinden daha iyi veri gizliliği koruması sağlamaktadır.
Phala Network, dış süreçlerin verilere erişimini veya verileri değiştirmesini önlemek için güvenilir yürütme ortamı ( TEE )'i tanıttı. Ayrıca, RiscZero zkVM'yi entegre etmek için zkDCAP doğrulayıcısı ve jtee CLI'de zk-proofs ile birleştirilmiştir.
hesaplama tamamlama belgesi ve kalite kontrol
Hizmet kapsamı geniş olduğu için, renderdan AI hesaplamasına kadar, son kalite her zaman kullanıcı standartlarına uymayabilir. Tamamlama kanıtı ve kalite kontrolü kullanıcılar için faydalıdır.
Gensyn ve Aethir, io.net’in kanıtı GPU performansının tam olarak kullanıldığını gösteren üretim tamamlanma kanıtı oluşturdu. Gensyn ve Aethir kalite kontrolü gerçekleştiriyor, Gensyn doğrulayıcılar ve rapor edenler kullanıyor, Aethir kontrol düğümleri kullanıyor. Render, ihtilaf çözüm sürecinin kullanılmasını öneriyor. Phala, AI ajanının gerekli işlemleri gerçekleştirmesini sağlamak için TEE kanıtı üretiyor.
AI model eğitimi, Nvidia A100 ve H100 gibi yüksek performanslı GPU'ları kullanmaya eğilimlidir. H100'ün çıkarım performansı A100'ün 4 katıdır ve büyük şirketlerin LLM eğitimi için tercih edilen seçenektir.
Merkezi olmayan GPU pazar sağlayıcıları, daha düşük fiyatlar sunmalı ve gerçek ihtiyaçları karşılamalıdır. 2023 yılında Nvidia, büyük teknoloji şirketlerine 500.000'den fazla H100 teslim etti ve bu da eşdeğer donanımlara erişimi zorlaştırdı. Bu nedenle, bu projelerin düşük maliyetle sunabileceği donanım miktarını dikkate almak, müşteri tabanını genişletmek için kritik öneme sahiptir.
Akash sadece 150'den fazla H100 ve A100'e sahipken, io.net ve Aethir'in her birinde 2000'den fazla bulunmaktadır. Önceden eğitilmiş LLM veya üretim modelleri genellikle 248 ile 2000'den fazla GPU kümesine ihtiyaç duyar, bu nedenle son iki proje büyük model hesaplamaları için daha uygundur.
Merkezi olmayan GPU hizmetlerinin maliyeti, merkezi hizmetlerden daha düşük olmuştur. Gensyn ve Aethir, A100 seviyesindeki donanımları saatte 1 dolardan daha düşük bir fiyatla kiralayabileceklerini iddia ediyor, ancak bunun doğrulanması zaman alacaktır.
NVLink ile bağlantılı GPU'lara kıyasla, ağ bağlantılı GPU kümelerinin bellek sınırlıdır. NVLink, GPU'ların doğrudan iletişimini destekler ve büyük parametreler ile büyük veri setleri için LLM'ye uygundur. Yine de, merkeziyetsiz GPU ağı, dağıtık hesaplama görevleri için güçlü bir işlem gücü ve ölçeklenebilirlik sunarak daha fazla AI ve ML kullanım durumu oluşturma fırsatları yaratmaktadır.
Tüketici sınıfı GPU/CPU sağlıyor
CPU, AI model eğitimi sırasında, veri ön işleme ve bellek yönetimi için önemli bir rol oynar. Tüketici düzeyindeki GPU'lar, önceden eğitilmiş modellerin ince ayarını yapmak veya küçük ölçekli modelleri eğitmek için kullanılabilir.
%85'ten fazla tüketicinin GPU kaynaklarının atıl kaldığını göz önünde bulundurarak, Render, Akash ve io.net gibi projeler de bu pazara hizmet ediyor. Bu seçenekleri sunmak, onların niş pazarlar geliştirmelerine, büyük ölçekli yoğun hesaplama, küçük ölçekli render veya her ikisini birden odaklanmalarına olanak tanır.
Sonuç
AI DePIN alanı hala nispeten yeni ve zorluklarla karşı karşıya. Örneğin, io.net GPU sayısını sahte belge ile artırmakla suçlanmıştı, daha sonra sorunları çözmek için iş kanıtı sürecini tanıttı.
Buna rağmen, bu merkeziyetsiz GPU ağlarında gerçekleştirilen görevler ve donanım sayısı önemli ölçüde artmıştır, bu da Web2 bulut sağlayıcılarının donanım kaynakları için bir alternatif talebinin arttığını göstermektedir. Aynı zamanda, donanım sağlayıcılarının artması daha önce yeterince kullanılmamış bir arzı yansıtmaktadır. Bu, AI DePIN ağlarının ürün pazar uyumunu daha da kanıtlamakta ve talep ile arz zorluklarını etkili bir şekilde çözmektedir.
Geleceğe baktığımızda, AI'nın hızla büyüyen trilyonlarca dolarlık bir piyasa haline geleceği bekleniyor. Bu dağıtılmış GPU ağları, geliştiricilere ekonomik açıdan verimli hesaplama alternatifleri sunmada kritik bir rol oynayacak. Talep ve arz arasındaki farkı sürekli kapatarak, bu ağlar AI ve hesaplama altyapısının gelecekteki manzarasına önemli katkılarda bulunacak.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
10 Likes
Reward
10
4
Share
Comment
0/400
SpeakWithHatOn
· 08-06 07:46
Hala depin mi yapıyorsun? Erken öl, erken yeniden doğ.
View OriginalReply0
SmartContractPlumber
· 08-06 07:46
Bu kodun hala incelenmesi gerekiyor, açık açık bir güvenlik açığı yaratmayın.
View OriginalReply0
HodlNerd
· 08-06 07:45
büyüleyici oyun teorisi devrede... merkeziyetsiz gpu havuzları bir sonraki mantıklı evrim aslında
View OriginalReply0
PanicSeller
· 08-06 07:34
Sadece bir ekran kartı eksik, şu insanların ne yapabileceğine bak!
AI DePIN ağı yükseliyor: Dağıtık GPU hesaplama yeni bir trendi yönlendiriyor
AI DePIN Ağı: Dağıtık GPU Hesaplamanın Geleceği
2023'ten bu yana, AI ve DePIN Web3 alanında popüler eğilimler haline geldi ve piyasa değerleri sırasıyla 30 milyar dolar ve 23 milyar dolara ulaştı. Bu makale, her ikisinin kesişim alanına odaklanarak ilgili protokollerin gelişimini tartışmaktadır.
AI teknoloji yığını içerisinde, DePIN ağı AI'yi güçlendirmek için hesaplama kaynakları sağlayarak önemli bir rol oynamaktadır. Büyük teknoloji şirketlerinin neden olduğu GPU kıtlığı, diğer AI geliştiricilerinin yeterli GPU hesaplama gücüne erişimini zorlaştırdı. Geleneksel yaklaşım, merkezi bulut hizmet sağlayıcılarını seçmekti, ancak bu da esnek olmayan uzun vadeli sözleşmeler imzalamayı ve düşük verimliliği gerektiriyordu.
DePIN, ağ hedeflerine uygun kaynak katkılarını teşvik etmek için token teşvikleri aracılığıyla daha esnek ve maliyet etkin bir alternatif sunar. AI alanındaki DePIN, bireysel GPU kaynaklarını veri merkezlerine entegre ederek kullanıcılara birleşik bir tedarik sunar. Bu, yalnızca geliştiricilere özelleştirilmiş ve talebe dayalı erişim sağlamakla kalmaz, aynı zamanda GPU sahiplerine ek gelir yaratır.
Piyasada birçok AI DePIN ağı bulunmaktadır. Bu yazıda, çeşitli protokollerin işlevleri, hedefleri ve öne çıkan özellikleri ile bunlar arasındaki farklar ele alınacaktır.
AI DePIN Ağı Genel Görünümü
Render
Render, P2P GPU hesaplama ağının öncüsüdür, başlangıçta grafik renderlamaya odaklanmış, daha sonra AI hesaplama görevlerine genişlemiştir.
Öne Çıkanlar:
Akash
Akash, depolama, GPU ve CPU hesaplamalarını destekleyen bir "süper bulut" platformu olarak konumlandırılmakta ve AWS gibi geleneksel platformların alternatifidir. Konteyner platformu ve Kubernetes yönetimindeki hesaplama düğümleri kullanılarak, herhangi bir bulut yerel uygulama sorunsuz bir şekilde dağıtılabilir.
Öne Çıkanlar:
io.net
io.net, AI ve ML için dağıtılmış GPU bulut kümesine erişim sağlar ve veri merkezleri, madenciler gibi kaynaklardan GPU kaynaklarını bir araya getirir.
Öne Çıkanlar:
Gensyn
Gensyn, makine öğrenimi ve derin öğrenmeye odaklanmış GPU hesaplama yetenekleri sunmaktadır. Öğrenme kanıtı gibi teknolojiler aracılığıyla daha verimli bir doğrulama mekanizması gerçekleştirmektedir.
Öne Çıkanlar:
Aethir
Aethir, kurumsal düzeyde GPU'ları özel olarak dağıtır ve AI, ML, bulut oyunları gibi hesaplama yoğun alanlara odaklanır. Ağdaki konteynerler, bulut uygulamalarını çalıştıran sanal uç noktalar olarak işlev görür ve düşük gecikme süresi deneyimi sağlar.
Öne Çıkanlar:
Phala Ağı
Phala Network, Web3 AI çözümlerinin yürütme katmanı olarak, güvenilir yürütme ortamı ( TEE ) kullanarak gizlilik sorunlarını işler. AI ajanlarının zincir üzerindeki akıllı sözleşmelerle kontrol edilmesini sağlar.
Öne Çıkanlar:
Proje Karşılaştırması
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Donanım | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | İş Öncelikleri | Grafik Rendering ve AI | Bulut Bilişim, Rendering ve AI | AI | AI | AI, Bulut Oyun ve Telekomünikasyon | Zincir Üzeri AI Uygulaması | | AI Görev Türü | Çıkarım | Her ikisi de | Her ikisi de | Eğitim | Eğitim | Uygulama | | Çalışma Fiyatlandırması | Performansa Dayalı Fiyatlandırma | Ters Açık Artırma | Piyasa Fiyatlandırması | Piyasa Fiyatlandırması | İhale Sistemi | Hak Hesaplama | | Blok Zinciri | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Veri Gizliliği | Şifreleme&Hashleme | mTLS Kimlik Doğrulama | Veri Şifreleme | Güvenli Harita | Şifreleme | TEE | | İş Ücretleri | Her iş için %0.5-5 | %20 USDC, %4 AKT | %2 USDC, %0.25 rezerv ücreti | Düşük ücretler | Her oturumda %20 | Teminat miktarı ile orantılı | | Güvenlik | Görselleştirme Kanıtı | Hak Kanıtı | Hesaplama Kanıtı | Hak Kanıtı | Görselleştirme Kapasite Kanıtı | Ara Zincirden Devralınmıştır | | Tamamlama Kanıtı | - | - | Zaman Kilidi Kanıtı | Öğrenme Kanıtı | Render Çalışma Kanıtı | TEE Kanıtı | | Kalite Güvencesi | İhtilaf | - | - | Doğrulayıcı ve Bildirici | Kontrol Düğümü | Uzak Kanıt | | GPU kümesi | Hayır | Evet | Evet | Evet | Evet | Hayır |
Önemi
küme ve paralel hesaplamanın kullanılabilirliği
Dağıtık hesaplama çerçevesi GPU kümesi gerçekleştirdi, daha verimli bir eğitim sağlarken ölçeklenebilirliği artırdı. Karmaşık AI modellerini eğitmek güçlü bir hesaplama gücü gerektirir ve genellikle dağıtık hesaplamaya dayanır. Örneğin, OpenAI'nin GPT-4 modeli 18 trilyondan fazla parametreye sahiptir ve 128 kümede yaklaşık 25.000 Nvidia A100 GPU kullanarak 3-4 ay içinde eğitilmiştir.
Çoğu proje artık küme entegrasyonu ile paralel hesaplama gerçekleştirmektedir. io.net, diğer projelerle işbirliği yaparak daha fazla GPU'yu ağa dahil etti ve 24. yılın ilk çeyreğinde 3,800'den fazla küme dağıtımı yaptı. Render küme desteği olmamasına rağmen, tek bir kareyi birden fazla düğüme ayırarak aynı anda işlenmesini sağlamakta, çalışma prensibi benzer bir şekilde işlemektedir. Phala şu anda yalnızca CPU desteklemektedir, ancak CPU işleyicilerin kümeleşmesine izin vermektedir.
veri gizliliği
Yapay zeka modeli geliştirmek büyük miktarda veri seti gerektirir ve bu setler hassas bilgiler içerebilir. Samsung, kod sızıntısı endişesi nedeniyle ChatGPT'yi devre dışı bıraktı; Microsoft'un 38TB veri sızıntısı olayı, yapay zeka güvenlik önlemlerinin önemini vurguladı. Bu nedenle, çeşitli veri gizliliği yöntemleri, veri kontrol hakkının korunması açısından hayati önem taşımaktadır.
Çoğu proje, bir tür veri şifrelemesi kullanır. Render, render sonuçlarını yayınlarken şifreleme ve hash kullanır, io.net ve Gensyn veri şifrelemesi benimser, Akash veri erişimini kısıtlamak için mTLS kimlik doğrulaması kullanır.
io.net, son zamanlarda Mind Network ile iş birliği yaparak tamamen homomorfik şifreleme (FHE)'i tanıttı. Bu, verileri şifrelerini çözmeden işleme imkanı sunarak mevcut şifreleme teknolojilerinden daha iyi veri gizliliği koruması sağlamaktadır.
Phala Network, dış süreçlerin verilere erişimini veya verileri değiştirmesini önlemek için güvenilir yürütme ortamı ( TEE )'i tanıttı. Ayrıca, RiscZero zkVM'yi entegre etmek için zkDCAP doğrulayıcısı ve jtee CLI'de zk-proofs ile birleştirilmiştir.
hesaplama tamamlama belgesi ve kalite kontrol
Hizmet kapsamı geniş olduğu için, renderdan AI hesaplamasına kadar, son kalite her zaman kullanıcı standartlarına uymayabilir. Tamamlama kanıtı ve kalite kontrolü kullanıcılar için faydalıdır.
Gensyn ve Aethir, io.net’in kanıtı GPU performansının tam olarak kullanıldığını gösteren üretim tamamlanma kanıtı oluşturdu. Gensyn ve Aethir kalite kontrolü gerçekleştiriyor, Gensyn doğrulayıcılar ve rapor edenler kullanıyor, Aethir kontrol düğümleri kullanıyor. Render, ihtilaf çözüm sürecinin kullanılmasını öneriyor. Phala, AI ajanının gerekli işlemleri gerçekleştirmesini sağlamak için TEE kanıtı üretiyor.
Donanım İstatistik Verileri
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU Sayısı | 5600 | 384 | 38177 | - | 40000+ | - | | CPU Sayısı | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 Miktarı | - | 157 | 2330 | - | 2000+ | - | | H100 Ücreti/Saat | - | $1.46 | $1.19 | - | - | - | | A100 Ücret/Saat | - | $1.37 | $1.50 | $0.55 ( tahmini ) | $0.33 ( tahmini ) | - |
Yüksek performanslı GPU talebi
AI model eğitimi, Nvidia A100 ve H100 gibi yüksek performanslı GPU'ları kullanmaya eğilimlidir. H100'ün çıkarım performansı A100'ün 4 katıdır ve büyük şirketlerin LLM eğitimi için tercih edilen seçenektir.
Merkezi olmayan GPU pazar sağlayıcıları, daha düşük fiyatlar sunmalı ve gerçek ihtiyaçları karşılamalıdır. 2023 yılında Nvidia, büyük teknoloji şirketlerine 500.000'den fazla H100 teslim etti ve bu da eşdeğer donanımlara erişimi zorlaştırdı. Bu nedenle, bu projelerin düşük maliyetle sunabileceği donanım miktarını dikkate almak, müşteri tabanını genişletmek için kritik öneme sahiptir.
Akash sadece 150'den fazla H100 ve A100'e sahipken, io.net ve Aethir'in her birinde 2000'den fazla bulunmaktadır. Önceden eğitilmiş LLM veya üretim modelleri genellikle 248 ile 2000'den fazla GPU kümesine ihtiyaç duyar, bu nedenle son iki proje büyük model hesaplamaları için daha uygundur.
Merkezi olmayan GPU hizmetlerinin maliyeti, merkezi hizmetlerden daha düşük olmuştur. Gensyn ve Aethir, A100 seviyesindeki donanımları saatte 1 dolardan daha düşük bir fiyatla kiralayabileceklerini iddia ediyor, ancak bunun doğrulanması zaman alacaktır.
NVLink ile bağlantılı GPU'lara kıyasla, ağ bağlantılı GPU kümelerinin bellek sınırlıdır. NVLink, GPU'ların doğrudan iletişimini destekler ve büyük parametreler ile büyük veri setleri için LLM'ye uygundur. Yine de, merkeziyetsiz GPU ağı, dağıtık hesaplama görevleri için güçlü bir işlem gücü ve ölçeklenebilirlik sunarak daha fazla AI ve ML kullanım durumu oluşturma fırsatları yaratmaktadır.
Tüketici sınıfı GPU/CPU sağlıyor
CPU, AI model eğitimi sırasında, veri ön işleme ve bellek yönetimi için önemli bir rol oynar. Tüketici düzeyindeki GPU'lar, önceden eğitilmiş modellerin ince ayarını yapmak veya küçük ölçekli modelleri eğitmek için kullanılabilir.
%85'ten fazla tüketicinin GPU kaynaklarının atıl kaldığını göz önünde bulundurarak, Render, Akash ve io.net gibi projeler de bu pazara hizmet ediyor. Bu seçenekleri sunmak, onların niş pazarlar geliştirmelerine, büyük ölçekli yoğun hesaplama, küçük ölçekli render veya her ikisini birden odaklanmalarına olanak tanır.
Sonuç
AI DePIN alanı hala nispeten yeni ve zorluklarla karşı karşıya. Örneğin, io.net GPU sayısını sahte belge ile artırmakla suçlanmıştı, daha sonra sorunları çözmek için iş kanıtı sürecini tanıttı.
Buna rağmen, bu merkeziyetsiz GPU ağlarında gerçekleştirilen görevler ve donanım sayısı önemli ölçüde artmıştır, bu da Web2 bulut sağlayıcılarının donanım kaynakları için bir alternatif talebinin arttığını göstermektedir. Aynı zamanda, donanım sağlayıcılarının artması daha önce yeterince kullanılmamış bir arzı yansıtmaktadır. Bu, AI DePIN ağlarının ürün pazar uyumunu daha da kanıtlamakta ve talep ile arz zorluklarını etkili bir şekilde çözmektedir.
Geleceğe baktığımızda, AI'nın hızla büyüyen trilyonlarca dolarlık bir piyasa haline geleceği bekleniyor. Bu dağıtılmış GPU ağları, geliştiricilere ekonomik açıdan verimli hesaplama alternatifleri sunmada kritik bir rol oynayacak. Talep ve arz arasındaki farkı sürekli kapatarak, bu ağlar AI ve hesaplama altyapısının gelecekteki manzarasına önemli katkılarda bulunacak.