صعود شبكة DePIN الذكية: الحوسبة الموزعة عبر وحدات معالجة الرسوميات تقود الاتجاه الجديد

شبكة AI DePIN: مستقبل الحوسبة الموزعة باستخدام وحدات معالجة الرسوميات

منذ عام 2023، أصبحت الذكاء الاصطناعي وDePIN اتجاهات شائعة في مجال Web3، حيث وصلت قيمتها السوقية إلى 30 مليار دولار و23 مليار دولار على التوالي. تركز هذه المقالة على المجال المتقاطع بين الاثنين، وتستكشف حالة تطوير البروتوكولات ذات الصلة.

في مجموعة تقنيات الذكاء الاصطناعي، تمكّن شبكة DePIN الذكاء الاصطناعي من خلال توفير موارد الحوسبة. أدت نقص وحدات معالجة الرسوميات (GPU) الناتج عن الشركات التكنولوجية الكبرى إلى صعوبة حصول مطوري الذكاء الاصطناعي الآخرين على قوة معالجة GPU كافية. الطريقة التقليدية هي اختيار مزودي خدمة السحاب المركزية، ولكن يتطلب الأمر توقيع عقود طويلة الأجل غير مرنة وذات كفاءة منخفضة.

يوفر DePIN بديلاً أكثر مرونة وبتكلفة أقل من خلال تحفيز المساهمات في الموارد التي تتوافق مع أهداف الشبكة بواسطة الرموز. في مجال الذكاء الاصطناعي، يقوم DePIN بدمج موارد GPU الشخصية في مراكز البيانات، مما يوفر للمستخدمين إمدادات موحدة. لا يوفر هذا فقط للمطورين الوصول المخصص حسب الطلب، بل يخلق أيضًا عائدات إضافية لمالكي GPU.

توجد العديد من شبكات DePIN المدعومة بالذكاء الاصطناعي في السوق، وسيناقش هذا المقال دور كل بروتوكول وأهدافه وميزاته، بالإضافة إلى الفروق بينها.

! تقاطع الذكاء الاصطناعي و DePIN

نظرة عامة على شبكة AI DePIN

رندر

Render هو رائد شبكة حساب GPU من نظير إلى نظير، بدأ في التركيز على عرض الرسوميات، ثم توسع ليشمل مهام حساب الذكاء الاصطناعي.

مضيئه:

  • تأسست شركة OTOY الحائزة على جائزة الأوسكار التقنية
  • تستخدم الشبكة GPU من قبل شركات الترفيه الكبرى مثل باراماونت و PUBG.
  • التعاون مع Stability AI وغيرها، لدمج نماذج الذكاء الاصطناعي مع سير عمل عرض المحتوى ثلاثي الأبعاد
  • الموافقة على عدة عملاء حسابيين، ودمج المزيد من شبكات DePIN GPU

أكاش

يتم تحديد Akash كمنصة "سوبر كلاود" تدعم التخزين والحوسبة باستخدام GPU و CPU، وهي بديل لمنصات تقليدية مثل AWS. من خلال استخدام منصة الحاويات وعقد الحوسبة المدارة بواسطة Kubernetes، يمكن نشر أي تطبيق سحابي أصلي بسلاسة.

المميزات:

  • موجهة لمجموعة واسعة من مهام الحوسبة من الحوسبة العامة إلى استضافة الشبكة
  • AkashML يسمح بتشغيل أكثر من 15,000 نموذج على Hugging Face
  • التطبيقات المهمة مثل روبوت الدردشة LLM من Mistral AI و SDXL من Stability AI
  • منصة الميتافيرس، ونشر الذكاء الاصطناعي، والتعلم الفيدرالي تستخدم سحابة فائقة لها

io.net

توفر io.net الوصول إلى مجموعة سحابية موزعة من وحدات معالجة الرسوميات (GPU) المصممة خصيصًا للذكاء الاصطناعي (AI) وتعلم الآلة (ML)، لتجميع موارد وحدات معالجة الرسوميات من مراكز البيانات وعمال المناجم وغيرها.

الميزات البارزة:

  • IO-SDK متوافق مع أطر مثل PyTorch و Tensorflow، ويمكن توسيعه تلقائيًا حسب الحاجة
  • يدعم إنشاء 3 أنواع مختلفة من المجموعات، يمكن تشغيلها في غضون دقيقتين
  • التعاون مع Render و Filecoin لدمج شبكات DePIN الأخرى باستخدام GPU

جينسن

تقدم Gensyn قدرة حسابية على وحدات معالجة الرسوميات (GPU) تركز على التعلم الآلي والتعلم العميق. من خلال تقنيات مثل إثبات التعلم، يتم تحقيق آليات تحقق أكثر كفاءة.

مضيئه:

  • تكلفة ساعة استخدام V100 GPU حوالي 0.40 دولار، مما يوفر بشكل كبير.
  • يمكن ضبط النموذج الأساسي المدرب مسبقًا لإكمال مهام أكثر تحديدًا
  • النموذج الأساسي سيكون لامركزي ومشترك عالميًا، وسيقدم ميزات إضافية

أثير

Aethir مخصص لنشر وحدات معالجة الرسومات من المستوى المؤسسي، مع التركيز على المجالات كثيفة الحساب مثل الذكاء الاصطناعي، وتعلم الآلة، والألعاب السحابية. تعمل الحاويات في الشبكة كنقاط نهاية افتراضية لتطبيقات السحابة، مما يحقق تجربة ذات زمن انتقال منخفض.

مضيئه:

  • توسيع خدمات الهاتف السحابي، التعاون مع APhone لإطلاق هاتف سحابي لامركزي
  • إقامة شراكات واسعة مع شركات Web2 الكبرى مثل NVIDIA و HPE
  • مع عدة شركاء في Web3 مثل CARV و Magic Eden

شبكة فالا

تعمل شبكة Phala كطبقة تنفيذ لحلول Web3 AI، وتستخدم بيئات التنفيذ الموثوقة (TEE) لمعالجة قضايا الخصوصية. مما يسمح لوكلاء الذكاء الاصطناعي بأن يتم التحكم بهم بواسطة العقود الذكية على السلسلة.

الميزات البارزة:

  • ك بروتوكول لمعالجة الحسابات القابلة للتحقق، يمكّن موارد وكلاء الذكاء الاصطناعي على السلسلة.
  • يمكن الحصول على نماذج اللغة الكبيرة الرائدة مثل OpenAI من خلال عقود الوكلاء الذكية
  • المستقبل سيشمل أنظمة إثبات متعددة مثل zk-proofs وMPC وFHE
  • دعم H100 وغيرها من وحدات معالجة الرسوميات TEE في المستقبل، لتعزيز القدرة الحاسوبية

مقارنة المشاريع

| | عرض | أكاش | io.net | جينسين | أثير | فالا | |--------|-------------|------------------|---------------------|---------|---------------|----------| | الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية | |重点 الأعمال |rendering والذكاء الاصطناعي | الحوسبة السحابية،rendering والذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي،الألعاب السحابية والاتصالات | تنفيذ الذكاء الاصطناعي على السلسلة | | نوع مهمة AI | استدلال | كلاهما ممكن | كلاهما ممكن | تدريب | تدريب | تنفيذ | | تسعير العمل | تسعير يعتمد على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق | | بلوكتشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت | | خصوصية البيانات | تشفير&تجزئة | مصادقة المTLS | تشفير البيانات | رسم آمن | تشفير | TEE | | تكلفة العمل | 0.5-5% لكل عمل | 20% USDC، 4% AKT | 2% USDC، 0.25% رسوم احتياطي | رسوم منخفضة | 20% لكل جلسة | تتناسب مع مبلغ الرهن | | الأمان | إثبات التجسيد | إثبات الحقوق | إثبات الحسابات | إثبات الحقوق | إثبات القدرة على التجسيد | موروث من سلسلة الوسيط | | إثبات الإنجاز | - | - | إثبات القفل الزمني | إثبات التعلم | إثبات العمل في التجسيد | إثبات TEE | | ضمان الجودة | النزاع | - | - | المراجع والمبلغين | عقدة الفاحص | إثبات عن بُعد | | تجمع GPU | لا | نعم | نعم | نعم | نعم | لا |

! تقاطع الذكاء الاصطناعي و DePIN

الأهمية

توفر الحوسبة المتوازية والمجمعة

إطار الحوسبة الموزعة يحقق تجمعات GPU، مما يوفر تدريبًا أكثر كفاءة، مع تعزيز القابلية للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وغالبًا ما يعتمد على الحوسبة الموزعة. على سبيل المثال، نموذج GPT-4 من OpenAI يحتوي على أكثر من 1.8 تريليون معلمة، وتم تدريبه باستخدام حوالي 25,000 وحدة معالجة رسومات Nvidia A100 في 128 تجمعًا على مدى 3-4 أشهر.

تم دمج معظم المشاريع الآن في مجموعات لتحقيق الحوسبة المتوازية. تتعاون io.net مع مشاريع أخرى لإدخال المزيد من وحدات معالجة الرسوميات في الشبكة، وقد تم نشر أكثر من 3,800 مجموعة في الربع الأول من عام 24. على الرغم من أن Render لا تدعم المجموعات، إلا أنها تقوم بتفكيك إطار واحد إلى عدة عقد لمعالجته في وقت واحد، وتعمل بطريقة مشابهة. تدعم Phala حاليًا وحدات المعالجة المركزية فقط، ولكنها تسمح بتجميع وحدات المعالجة المركزية.

! تقاطع الذكاء الاصطناعي و DePIN

خصوصية البيانات

يتطلب تطوير نماذج الذكاء الاصطناعي مجموعات بيانات كبيرة، قد تحتوي على معلومات حساسة. قامت شركة سامسونغ بتعطيل ChatGPT بسبب مخاوف من تسرب الشيفرة، وأبرزت حادثة تسرب بيانات مايكروسوفت التي تبلغ 38 تيرابايت أهمية تدابير أمان الذكاء الاصطناعي. لذلك، تعتبر طرق خصوصية البيانات المختلفة حيوية لحماية السيطرة على البيانات.

تستخدم معظم المشاريع نوعًا ما من تشفير البيانات. تستخدم Render التشفير والتجزئة عند إصدار نتائج التجسيد، بينما تعتمد io.net و Gensyn على تشفير البيانات، وتستخدم Akash مصادقة mTLS للحد من الوصول إلى البيانات.

أطلقت io.net مؤخرًا بالتعاون مع Mind Network تشفيرًا متجانسًا تمامًا (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك التشفير، مما يوفر حماية أفضل لخصوصية البيانات مقارنةً بتقنيات التشفير الحالية.

تقدم شبكة فالا بيئة تنفيذ موثوقة ( TEE )، لمنع العمليات الخارجية من الوصول إلى البيانات أو تعديلها. كما أنها تجمع بين zk-proofs في zkDCAP المدقق و jtee CLI، لدمج RiscZero zkVM.

! تقاطع الذكاء الاصطناعي و DePIN

إثبات إتمام الحساب وفحص الجودة

نظرًا لنطاق الخدمة الواسع، من التقديم إلى حسابات الذكاء الاصطناعي، قد لا تتوافق الجودة النهائية دائمًا مع معايير المستخدمين. إن إكمال التحقق من صحة العمل وفحص الجودة مفيد للمستخدمين.

تُظهر إثباتات Gensyn و Aethir أن أداء GPU يتم استغلاله بشكل كامل. يقوم Gensyn و Aethir بإجراء فحص الجودة، حيث يستخدم Gensyn المصدقين والمبلغين، بينما تستخدم Aethir نقاط الفحص. تقترح Render استخدام عملية حل النزاعات. تُنتج Phala إثباتات TEE، مما يضمن تنفيذ الوكلاء الذكاء الاصطناعي للعمليات المطلوبة.

إحصائيات الأجهزة

| | التقديم | عكاش | io.net | جينسين | أثير | فالا | |-------------|--------|-------|--------|------------|------------|--------| | عدد وحدات معالجة الرسومات | 5600 | 384 | 38177 | - | 40000+ | - | | عدد المعالجات | 114 | 14672 | 5433 | - | - | 30000+ | | عدد H100/A100 | - | 157 | 2330 | - | 2000+ | - | | تكاليف H100/ساعة | - | $1.46 | $1.19 | - | - | - | | تكلفة A100/ساعة | - | $1.37 | $1.50 | $0.55 ( متوقع ) | $0.33 ( متوقع ) | - |

! تقاطع الذكاء الاصطناعي و DePIN

طلب على GPUs عالية الأداء

تميل نماذج الذكاء الاصطناعي إلى استخدام وحدات معالجة الرسوميات عالية الأداء مثل Nvidia A100 و H100. أداء الاستدلال لـ H100 هو 4 مرات من A100، مما يجعله الخيار المفضل للشركات الكبيرة لتدريب LLM.

يجب على مزودي السوق اللامركزية لـ GPU تقديم أسعار أقل وتلبية الاحتياجات الفعلية. في عام 2023، قامت Nvidia بتسليم أكثر من 500,000 جهاز H100 لشركات التكنولوجيا الكبرى، مما جعل الحصول على أجهزة مماثلة أمرًا صعبًا. لذلك، فإن النظر في عدد الأجهزة التي يمكن أن تقدمها هذه المشاريع بتكلفة منخفضة أمر بالغ الأهمية لتوسيع قاعدة العملاء.

تحتوي Akash على أكثر من 150 H100 و A100 فقط، بينما تحتوي io.net و Aethir على أكثر من 2000. عادةً ما تتطلب نماذج LLM المدربة مسبقًا أو نماذج التوليد من 248 إلى أكثر من 2000 مجموعة GPU، لذلك فإن المشروعين الأخيرين أكثر ملاءمة لحساب النماذج الكبيرة.

تكاليف خدمة GPU اللامركزية تقل عن تكاليف الخدمة المركزية. تدعي Gensyn و Aethir أنه يمكن استئجار أجهزة من فئة A100 بسعر يقل عن 1 دولار في الساعة، ولكن لا يزال يتعين الوقت للتحقق.

بالمقارنة مع الشبكات المتصلة بـ NVLink، فإن ذاكرة مجموعة وحدات معالجة الرسومات المتصلة بالشبكة تكون محدودة. يدعم NVLink الاتصال المباشر بين وحدات معالجة الرسومات، مما يجعله مناسبًا لنماذج LLM ذات المعلمات الكبيرة ومجموعات البيانات الكبيرة. ومع ذلك، لا يزال الشبكة اللامركزية لوحدات معالجة الرسومات توفر قوة حوسبة قوية وقابلية للتوسع لمهام الحوسبة الموزعة، مما يخلق فرصًا لبناء المزيد من حالات الاستخدام في الذكاء الاصطناعي والتعلم الآلي.

نقطة التقاء الذكاء الاصطناعي و DePIN

يوفر GPU/CPU من فئة المستهلك

تلعب وحدة المعالجة المركزية أيضًا دورًا مهمًا في تدريب نماذج الذكاء الاصطناعي، حيث تُستخدم من معالجة البيانات إلى إدارة الذاكرة. يمكن استخدام وحدات معالجة الرسومات من فئة المستهلك لضبط النماذج المدربة مسبقًا أو تدريب نماذج صغيرة الحجم.

نظرًا لوجود أكثر من 85% من موارد GPU غير المستخدمة من قبل المستهلكين، فإن مشاريع مثل Render وAkash وio.net تخدم أيضًا هذه السوق. توفر هذه الخيارات لهم القدرة على تطوير أسواق متخصصة، والتركيز على الحوسبة الكثيفة على نطاق واسع، أو العرض على نطاق صغير، أو مزيج من الاثنين.

! تقاطع الذكاء الاصطناعي و DePIN

الخاتمة

لا يزال مجال DePIN الذكاء الاصطناعي حديثًا نسبيًا ويواجه تحديات. على سبيل المثال، اتُهمت io.net بتزوير عدد وحدات معالجة الرسوميات، ثم حلت المشكلة من خلال إدخال عملية إثبات العمل.

على الرغم من ذلك، فإن المهام وعدد الأجهزة المنفذة على هذه الشبكات اللامركزية لـ GPU قد زادت بشكل ملحوظ، مما يبرز زيادة الطلب على بدائل موارد الأجهزة من مقدمي خدمات السحابة Web2. في الوقت نفسه، فإن الزيادة في عدد مزودي الأجهزة تعكس العرض غير المستغل بشكل كافٍ في السابق. وهذا يثبت بشكل أكبر توافق سوق المنتجات لشبكات AI DePIN، حيث تعالج بشكل فعال تحديات الطلب والعرض.

نتطلع إلى المستقبل، ستتطور الذكاء الاصطناعي ليصبح سوقًا مزدهرًا بقيمة تريليونات الدولارات. ستلعب هذه الشبكات الموزعة من وحدات معالجة الرسوميات دورًا رئيسيًا في توفير بدائل حسابية فعالة من حيث التكلفة للمطورين. من خلال تقليص الفجوة باستمرار بين الطلب والعرض، ستساهم هذه الشبكات بشكل كبير في الشكل المستقبلي للبنية التحتية للذكاء الاصطناعي والحوسبة.

! تقاطع الذكاء الاصطناعي و DePIN

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
SpeakWithHatOnvip
· منذ 9 س
لا تزال تتداول في depin؟ الموت المبكر يعني الحياة بعد الموت.
شاهد النسخة الأصليةرد0
SmartContractPlumbervip
· منذ 9 س
هذا الرمز يحتاج إلى مراجعة، لا تترك ثغرات واضحة
شاهد النسخة الأصليةرد0
HodlNerdvip
· منذ 9 س
نظرية الألعاب المثيرة في العمل... تجمعات GPU اللامركزية هي التطور المنطقي التالي بصراحة
شاهد النسخة الأصليةرد0
PanicSellervip
· منذ 9 س
إنه ينقصنا بطاقة رسومية فقط، انظر إلى مدى قدرة هؤلاء الناس.
شاهد النسخة الأصليةرد0
  • تثبيت