Пересечение AI и DePIN: Восход распределенной сети GPU вычислений
С 2023 года AI и DePIN стали популярными трендами в области Web3, рыночная капитализация AI составляет около 30 миллиардов долларов, а DePIN – около 23 миллиардов долларов. В данной статье рассматривается пересечение этих двух областей и обсуждаются разработки соответствующих протоколов.
В технологическом стеке ИИ сеть DePIN предоставляет практичность для ИИ за счет вычислительных ресурсов. Развитие крупных технологических компаний привело к нехватке GPU, что затрудняет другим разработчикам получение достаточного количества GPU для вычислений. Это обычно приводит к тому, что разработчики выбирают централизованных облачных провайдеров, но из-за необходимости подписания не гибких долгосрочных контрактов на высокопроизводительное оборудование эффективность снижается.
DePIN в своей сути предлагает более гибкое и экономически эффективное решение, используя токенизированные награды для стимулирования вкладов в ресурсы, соответствующие целям сети. DePIN в области ИИ краудсорсит GPU-ресурсы от частных владельцев к дата-центрам, создавая унифицированное предложение для пользователей, которым нужен доступ к аппаратному обеспечению. Эти сети DePIN не только предоставляют разработчикам, нуждающимся в вычислительной мощности, возможность кастомизации и доступ по запросу, но также обеспечивают владельцам GPU дополнительный доход.
На рынке существует множество AI DePIN сетей, в этой статье будут рассмотрены функции, цели и достигнутые результаты различных протоколов.
Render является pionером P2P-сетей, предоставляющих вычислительную мощность GPU, ранее сосредоточенным на рендеринге графики для создания контента, а затем через интеграцию таких инструментов, как Stable Diffusion, расширил диапазон задач до вычислительных задач, включая нейронные радиационные поля (NeRF) и генеративный ИИ.
Основные моменты:
Основана облачной графической компанией OTOY с технологией, удостоенной премии Оскар.
GPU-сеть была использована такими крупными компаниями развлекательной индустрии, как Paramount Pictures, PUBG, Star Trek и другими.
Сотрудничая с Stability AI и Endeavor, интегрируйте рабочий процесс рендеринга 3D-контента с AI-моделями с использованием GPU Render.
Утвердить несколько вычислительных клиентов, интегрировать больше GPU для сетей DePIN
Akash позиционирует себя как альтернативу «супероблаку» традиционных платформ, таких как AWS(, поддерживающую хранение, GPU и CPU вычисления ). Используя дружественные к разработчикам инструменты, такие как контейнерная платформа Akash и вычислительные узлы, управляемые Kubernetes, она позволяет бесшовно развертывать программное обеспечение в разных средах, что позволяет запускать любые облачные нативные приложения.
Основные моменты:
Широкий спектр вычислительных задач от универсальных вычислений до хостинга в сети
AkashML позволяет своей GPU сети запускать более 15,000 моделей на Hugging Face, одновременно интегрируясь с Hugging Face.
На Akash размещены некоторые заметные приложения, такие как чат-бот на модели LLM от Mistral AI, текстово-изображенческая модель SDXL от Stability AI и новая базовая модель AT-1 от Thumper AI.
Платформа для построения метавселенной, развертывания ИИ и федеративного обучения использует Supercloud
io.net предоставляет доступ к распределенным кластером GPU в облаке, которые специально предназначены для случаев использования AI и ML. Он агрегирует GPU из таких областей, как центры обработки данных, криптошахтеры и другие децентрализованные сети. Компания ранее была компанией по количественной торговле и переключилась на текущую деятельность после резкого роста цен на высокопроизводительные GPU.
Основные моменты:
Его IO-SDK совместим с такими фреймворками, как PyTorch и Tensorflow, его многоуровневая архитектура может автоматически динамически расширяться в зависимости от вычислительных потребностей.
Поддержка создания 3 различных типов кластеров, которые можно запустить за 2 минуты
Сотрудничество с другими DePIN сетями (, такими как Render, Filecoin, Aethir и Exabits ), интеграция ресурсов GPU.
Gensyn предоставляет вычислительные возможности GPU, сосредоточенные на машинном обучении и глубоких вычислениях. Он утверждает, что добился более эффективного механизма верификации по сравнению с существующими методами, сочетая концепции, такие как использование доказательства обучения, протоколы точной локализации на основе графиков, а также игровые стимулы, связанные с ставками и сокращениями для поставщиков вычислений.
Яркие моменты:
Ожидается, что стоимость GPU эквивалента V100 составит около 0,40 доллара в час, что значительно снизит затраты.
Через доказательство стеков можно дообучить заранее обученную базовую модель для выполнения более конкретных задач.
Эти базовые модели будут децентрализованными, глобально принадлежащими, помимо аппаратной вычислительной сети, также предоставляющими дополнительные функции.
Aethir специально разработан для работы с корпоративными GPU и сосредоточен на вычислительно интенсивных областях, в основном AI, машинное обучение ( ML ), облачные игры и т.д. Контейнеры в их сети служат виртуальными конечными точками для выполнения облачных приложений, перемещая рабочие нагрузки с локальных устройств в контейнеры для обеспечения низкой задержки. Чтобы гарантировать высокое качество обслуживания пользователей, они перемещают GPU ближе к источникам данных в зависимости от требований и местоположения, тем самым регулируя ресурсы.
Яркие моменты:
Кроме AI и облачных игр, Aethir также расширяется на услуги облачного телефона, сотрудничая с APhone для запуска децентрализованного облачного смартфона.
Установление широкого сотрудничества с крупными компаниями Web2, такими как NVIDIA, Super Micro, HPE, Foxconn и Well Link
С несколькими партнерами в Web3 (, такими как CARV, Magic Eden, Sequence, Impossible Finance и другими ).
Phala Network выступает в качестве исполнительного слоя решения Web3 AI. Его блокчейн представляет собой облачное вычислительное решение без необходимости доверия, разработанное с использованием надежной среды выполнения (TEE) для решения проблем конфиденциальности. Его исполнительный слой не используется в качестве вычислительного слоя для AI-моделей, а позволяет AI-агентам управляться смарт-контрактами на блокчейне.
Основные моменты:
Выступает в роли протокола сопроцессора для проверяемых вычислений, одновременно позволяя AI-агентам использовать ресурсы на блокчейне.
Его AI-агентский контракт может получить доступ к таким ведущим крупным языковым моделям, как OpenAI, Llama, Claude и Hugging Face через Redpill.
Будущее будет включать zk-доказательства, многопартийные вычисления (MPC), полностью однородное шифрование (FHE) и другие многослойные системы доказательств.
В будущем поддержка других TEE GPU, таких как H100, для повышения вычислительной мощности
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Оборудование | GPU и CPU | GPU и CPU | GPU и CPU | GPU | GPU | CPU |
| Основные направления бизнеса | Графическая визуализация и ИИ | Облачные вычисления, визуализация и ИИ | ИИ | ИИ | ИИ, облачные игры и телекоммуникации | Исполнение ИИ на блокчейне |
| Тип задачи ИИ | Вывод | Оба | Оба | Обучение | Обучение | Выполнение |
| Цены на работу | Цены на основе производительности | Обратные торги | Рыночная цена | Рыночная цена | Система тендеров | Расчет прав |
| Блокчейн | Солана | Космос | Солана | Генсин | Арбитраж | Горошек |
| Защита данных | Шифрование&хеширование | mTLS аутентификация | Шифрование данных | Безопасная карта | Шифрование | TEE |
| Рабочие расходы | Каждая работа 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% сбор резервов | Низкие расходы | Каждый сеанс 20% | Пропорционально сумме залога |
| Безопасность | Доказательство рендеринга | Доказательство прав | Доказательство вычислений | Доказательство прав | Доказательство рендеринговых мощностей | Унаследовано от промежуточной цепи |
| Подтверждение завершения | - | - | Подтверждение временной блокировки | Подтверждение обучения | Подтверждение рендеринга | Подтверждение TEE |
| Гарантия качества | Споры | - | - | Проверяющий и заявитель | Узел проверяющего | Удаленное доказательство |
| GPU кластер | Нет | Да | Да | Да | Да | Нет |
важность
Доступность кластеров и параллельных вычислений
Распределенная вычислительная система реализует кластер GPU, обеспечивая более эффективное обучение без ущерба для точности модели, одновременно увеличивая масштабируемость. Обучение сложных AI моделей требует мощных вычислительных ресурсов, и, как правило, необходимо полагаться на распределенные вычисления для удовлетворения этих потребностей. Модель GPT-4 от OpenAI имеет более 1,8 триллионов параметров и обучалась в течение 3-4 месяцев на 128 кластерах с примерно 25 000 Nvidia A100 GPU.
Ранее Render и Akash предоставляли только одноцелевые GPU, что могло ограничить спрос на GPU на рынке. Однако большинство ключевых проектов уже объединили кластеры для реализации параллельных вычислений. io.net сотрудничает с такими проектами, как Render, Filecoin и Aethir, чтобы интегрировать больше GPU в свою сеть и уже успешно развернули более 3,800 кластеров в первом квартале 2024 года. Хотя Render не поддерживает кластеры, его работа схожа с кластерами, разбивая отдельный кадр на несколько различных узлов для одновременной обработки различных диапазонов кадров. Phala в настоящее время поддерживает только CPU, но позволяет кластеризацию CPU-воркеров.
Включение кластерной структуры в сеть рабочих процессов ИИ является очень важным, но количество и типы кластерных GPU, необходимые для удовлетворения потребностей разработчиков ИИ, являются другой проблемой.
Конфиденциальность данных
Разработка AI-моделей требует использования больших объемов данных, которые могут поступать из различных источников и иметь разные формы. Чувствительные наборы данных могут подвергаться риску раскрытия поставщику модели. Принятие достаточных мер безопасности имеет жизненно важное значение для использования AI. Поэтому наличие различных методов защиты данных имеет решающее значение для восстановления контроля над данными у поставщиков данных.
Большинство проектов используют ту или иную форму шифрования данных для защиты конфиденциальности данных. Render использует шифрование и хэширование при публикации результатов рендеринга обратно в сеть, в то время как io.net и Gensyn применяют ту или иную форму шифрования данных. Akash использует mTLS-аутентификацию, позволяя только выбранным арендатором провайдерам получать данные.
io.net недавно сотрудничала с Mind Network для выпуска полностью гомоморфного шифрования (FHE), позволяющего обрабатывать зашифрованные данные без необходимости предварительной расшифровки. Это нововведение может лучше обеспечить конфиденциальность данных, чем существующие технологии шифрования.
Сеть Phala внедрила доверенную вычислительную среду ( TEE ), то есть безопасную область в главном процессоре подключенного устройства. Благодаря этому механизм изоляции она может предотвратить доступ или изменение данных внешними процессами, независимо от их уровня разрешений. Кроме TEE, она также интегрировала использование zk-доказательств в своем валидаторе zkDCAP и командной строке jtee для совместимости с программами, интегрированными в RiscZero zkVM.
Подтверждение завершения расчётов и проверка качества
Эти проекты предлагают GPU, которые могут обеспечить вычислительную мощность для ряда услуг. Поскольку спектр услуг широк, от рендеринга графики до вычислений ИИ, конечное качество таких задач может не всегда соответствовать стандартам пользователей. Можно использовать форму подтверждения выполнения, чтобы указать, что конкретный GPU, арендованный пользователем, действительно использовался для запуска требуемых услуг; проверка качества будет полезна для пользователей, запрашивающих выполнение таких работ.
После завершения расчетов Gensyn и Aethir создадут доказательства, подтверждающие, что работа выполнена, а доказательство io.net подтверждает, что производительность арендованного GPU была полностью использована и не возникло проблем. Gensyn и Aethir проведут проверку качества завершенных расчетов. Для Gensyn используется повторный запуск части сгенерированных доказательств валидатором для сверки с доказательством, а доносчик выступает в качестве дополнительного уровня проверки для валидатора. Aethir использует проверочные узлы для определения качества обслуживания и накладывает штрафы за услуги, которые ниже стандартов. Render предлагает использовать процесс разрешения споров: если ревизионная комиссия обнаружит проблемы с узлом, узел будет сокращен. После завершения Phala будет создано доказательство TEE, чтобы гарантировать, что AI-агент выполняет необходимые операции в цепочке.
Поскольку для обучения AI моделей требуются графические процессоры с наилучшей производительностью, разработчики склонны использовать графические процессоры Nvidia, такие как A100 и H100. Производительность H100 в режиме вывода в 4 раза выше, чем у A100.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
19 Лайков
Награда
19
4
Поделиться
комментарий
0/400
GasFeeCrier
· 07-11 21:11
Почему все проекты стремятся к ИИ?
Посмотреть ОригиналОтветить0
MissedTheBoat
· 07-11 21:09
Это действительно надежно? Моя небольшая мастерская не может добыть ничего.
Посмотреть ОригиналОтветить0
HodlNerd
· 07-11 21:08
статистически говоря, распределенные сети ГПУ могут быть нашим лучшим шансом на разрушение олигархии ИИ... здесь, если честно, играет захватывающая теория игр
Посмотреть ОригиналОтветить0
SatoshiSherpa
· 07-11 21:05
Сразу говорите, что это работа по обжарке видеокарт.
Слияние AI и DePIN: восходящая дистрибутивная сеть GPU вычислений
Пересечение AI и DePIN: Восход распределенной сети GPU вычислений
С 2023 года AI и DePIN стали популярными трендами в области Web3, рыночная капитализация AI составляет около 30 миллиардов долларов, а DePIN – около 23 миллиардов долларов. В данной статье рассматривается пересечение этих двух областей и обсуждаются разработки соответствующих протоколов.
В технологическом стеке ИИ сеть DePIN предоставляет практичность для ИИ за счет вычислительных ресурсов. Развитие крупных технологических компаний привело к нехватке GPU, что затрудняет другим разработчикам получение достаточного количества GPU для вычислений. Это обычно приводит к тому, что разработчики выбирают централизованных облачных провайдеров, но из-за необходимости подписания не гибких долгосрочных контрактов на высокопроизводительное оборудование эффективность снижается.
DePIN в своей сути предлагает более гибкое и экономически эффективное решение, используя токенизированные награды для стимулирования вкладов в ресурсы, соответствующие целям сети. DePIN в области ИИ краудсорсит GPU-ресурсы от частных владельцев к дата-центрам, создавая унифицированное предложение для пользователей, которым нужен доступ к аппаратному обеспечению. Эти сети DePIN не только предоставляют разработчикам, нуждающимся в вычислительной мощности, возможность кастомизации и доступ по запросу, но также обеспечивают владельцам GPU дополнительный доход.
На рынке существует множество AI DePIN сетей, в этой статье будут рассмотрены функции, цели и достигнутые результаты различных протоколов.
! Пересечение AI и DePIN
Обзор сети DePIN на основе ИИ
Render является pionером P2P-сетей, предоставляющих вычислительную мощность GPU, ранее сосредоточенным на рендеринге графики для создания контента, а затем через интеграцию таких инструментов, как Stable Diffusion, расширил диапазон задач до вычислительных задач, включая нейронные радиационные поля (NeRF) и генеративный ИИ.
Основные моменты:
Основана облачной графической компанией OTOY с технологией, удостоенной премии Оскар.
GPU-сеть была использована такими крупными компаниями развлекательной индустрии, как Paramount Pictures, PUBG, Star Trek и другими.
Сотрудничая с Stability AI и Endeavor, интегрируйте рабочий процесс рендеринга 3D-контента с AI-моделями с использованием GPU Render.
Утвердить несколько вычислительных клиентов, интегрировать больше GPU для сетей DePIN
Akash позиционирует себя как альтернативу «супероблаку» традиционных платформ, таких как AWS(, поддерживающую хранение, GPU и CPU вычисления ). Используя дружественные к разработчикам инструменты, такие как контейнерная платформа Akash и вычислительные узлы, управляемые Kubernetes, она позволяет бесшовно развертывать программное обеспечение в разных средах, что позволяет запускать любые облачные нативные приложения.
Основные моменты:
Широкий спектр вычислительных задач от универсальных вычислений до хостинга в сети
AkashML позволяет своей GPU сети запускать более 15,000 моделей на Hugging Face, одновременно интегрируясь с Hugging Face.
На Akash размещены некоторые заметные приложения, такие как чат-бот на модели LLM от Mistral AI, текстово-изображенческая модель SDXL от Stability AI и новая базовая модель AT-1 от Thumper AI.
Платформа для построения метавселенной, развертывания ИИ и федеративного обучения использует Supercloud
io.net предоставляет доступ к распределенным кластером GPU в облаке, которые специально предназначены для случаев использования AI и ML. Он агрегирует GPU из таких областей, как центры обработки данных, криптошахтеры и другие децентрализованные сети. Компания ранее была компанией по количественной торговле и переключилась на текущую деятельность после резкого роста цен на высокопроизводительные GPU.
Основные моменты:
Его IO-SDK совместим с такими фреймворками, как PyTorch и Tensorflow, его многоуровневая архитектура может автоматически динамически расширяться в зависимости от вычислительных потребностей.
Поддержка создания 3 различных типов кластеров, которые можно запустить за 2 минуты
Сотрудничество с другими DePIN сетями (, такими как Render, Filecoin, Aethir и Exabits ), интеграция ресурсов GPU.
Gensyn предоставляет вычислительные возможности GPU, сосредоточенные на машинном обучении и глубоких вычислениях. Он утверждает, что добился более эффективного механизма верификации по сравнению с существующими методами, сочетая концепции, такие как использование доказательства обучения, протоколы точной локализации на основе графиков, а также игровые стимулы, связанные с ставками и сокращениями для поставщиков вычислений.
Яркие моменты:
Ожидается, что стоимость GPU эквивалента V100 составит около 0,40 доллара в час, что значительно снизит затраты.
Через доказательство стеков можно дообучить заранее обученную базовую модель для выполнения более конкретных задач.
Эти базовые модели будут децентрализованными, глобально принадлежащими, помимо аппаратной вычислительной сети, также предоставляющими дополнительные функции.
Aethir специально разработан для работы с корпоративными GPU и сосредоточен на вычислительно интенсивных областях, в основном AI, машинное обучение ( ML ), облачные игры и т.д. Контейнеры в их сети служат виртуальными конечными точками для выполнения облачных приложений, перемещая рабочие нагрузки с локальных устройств в контейнеры для обеспечения низкой задержки. Чтобы гарантировать высокое качество обслуживания пользователей, они перемещают GPU ближе к источникам данных в зависимости от требований и местоположения, тем самым регулируя ресурсы.
Яркие моменты:
Кроме AI и облачных игр, Aethir также расширяется на услуги облачного телефона, сотрудничая с APhone для запуска децентрализованного облачного смартфона.
Установление широкого сотрудничества с крупными компаниями Web2, такими как NVIDIA, Super Micro, HPE, Foxconn и Well Link
С несколькими партнерами в Web3 (, такими как CARV, Magic Eden, Sequence, Impossible Finance и другими ).
Phala Network выступает в качестве исполнительного слоя решения Web3 AI. Его блокчейн представляет собой облачное вычислительное решение без необходимости доверия, разработанное с использованием надежной среды выполнения (TEE) для решения проблем конфиденциальности. Его исполнительный слой не используется в качестве вычислительного слоя для AI-моделей, а позволяет AI-агентам управляться смарт-контрактами на блокчейне.
Основные моменты:
Выступает в роли протокола сопроцессора для проверяемых вычислений, одновременно позволяя AI-агентам использовать ресурсы на блокчейне.
Его AI-агентский контракт может получить доступ к таким ведущим крупным языковым моделям, как OpenAI, Llama, Claude и Hugging Face через Redpill.
Будущее будет включать zk-доказательства, многопартийные вычисления (MPC), полностью однородное шифрование (FHE) и другие многослойные системы доказательств.
В будущем поддержка других TEE GPU, таких как H100, для повышения вычислительной мощности
! Пересечение AI и DePIN
Сравнение проектов
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Оборудование | GPU и CPU | GPU и CPU | GPU и CPU | GPU | GPU | CPU | | Основные направления бизнеса | Графическая визуализация и ИИ | Облачные вычисления, визуализация и ИИ | ИИ | ИИ | ИИ, облачные игры и телекоммуникации | Исполнение ИИ на блокчейне | | Тип задачи ИИ | Вывод | Оба | Оба | Обучение | Обучение | Выполнение | | Цены на работу | Цены на основе производительности | Обратные торги | Рыночная цена | Рыночная цена | Система тендеров | Расчет прав | | Блокчейн | Солана | Космос | Солана | Генсин | Арбитраж | Горошек | | Защита данных | Шифрование&хеширование | mTLS аутентификация | Шифрование данных | Безопасная карта | Шифрование | TEE | | Рабочие расходы | Каждая работа 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% сбор резервов | Низкие расходы | Каждый сеанс 20% | Пропорционально сумме залога | | Безопасность | Доказательство рендеринга | Доказательство прав | Доказательство вычислений | Доказательство прав | Доказательство рендеринговых мощностей | Унаследовано от промежуточной цепи | | Подтверждение завершения | - | - | Подтверждение временной блокировки | Подтверждение обучения | Подтверждение рендеринга | Подтверждение TEE | | Гарантия качества | Споры | - | - | Проверяющий и заявитель | Узел проверяющего | Удаленное доказательство | | GPU кластер | Нет | Да | Да | Да | Да | Нет |
важность
Доступность кластеров и параллельных вычислений
Распределенная вычислительная система реализует кластер GPU, обеспечивая более эффективное обучение без ущерба для точности модели, одновременно увеличивая масштабируемость. Обучение сложных AI моделей требует мощных вычислительных ресурсов, и, как правило, необходимо полагаться на распределенные вычисления для удовлетворения этих потребностей. Модель GPT-4 от OpenAI имеет более 1,8 триллионов параметров и обучалась в течение 3-4 месяцев на 128 кластерах с примерно 25 000 Nvidia A100 GPU.
Ранее Render и Akash предоставляли только одноцелевые GPU, что могло ограничить спрос на GPU на рынке. Однако большинство ключевых проектов уже объединили кластеры для реализации параллельных вычислений. io.net сотрудничает с такими проектами, как Render, Filecoin и Aethir, чтобы интегрировать больше GPU в свою сеть и уже успешно развернули более 3,800 кластеров в первом квартале 2024 года. Хотя Render не поддерживает кластеры, его работа схожа с кластерами, разбивая отдельный кадр на несколько различных узлов для одновременной обработки различных диапазонов кадров. Phala в настоящее время поддерживает только CPU, но позволяет кластеризацию CPU-воркеров.
Включение кластерной структуры в сеть рабочих процессов ИИ является очень важным, но количество и типы кластерных GPU, необходимые для удовлетворения потребностей разработчиков ИИ, являются другой проблемой.
Конфиденциальность данных
Разработка AI-моделей требует использования больших объемов данных, которые могут поступать из различных источников и иметь разные формы. Чувствительные наборы данных могут подвергаться риску раскрытия поставщику модели. Принятие достаточных мер безопасности имеет жизненно важное значение для использования AI. Поэтому наличие различных методов защиты данных имеет решающее значение для восстановления контроля над данными у поставщиков данных.
Большинство проектов используют ту или иную форму шифрования данных для защиты конфиденциальности данных. Render использует шифрование и хэширование при публикации результатов рендеринга обратно в сеть, в то время как io.net и Gensyn применяют ту или иную форму шифрования данных. Akash использует mTLS-аутентификацию, позволяя только выбранным арендатором провайдерам получать данные.
io.net недавно сотрудничала с Mind Network для выпуска полностью гомоморфного шифрования (FHE), позволяющего обрабатывать зашифрованные данные без необходимости предварительной расшифровки. Это нововведение может лучше обеспечить конфиденциальность данных, чем существующие технологии шифрования.
Сеть Phala внедрила доверенную вычислительную среду ( TEE ), то есть безопасную область в главном процессоре подключенного устройства. Благодаря этому механизм изоляции она может предотвратить доступ или изменение данных внешними процессами, независимо от их уровня разрешений. Кроме TEE, она также интегрировала использование zk-доказательств в своем валидаторе zkDCAP и командной строке jtee для совместимости с программами, интегрированными в RiscZero zkVM.
! Пересечение AI и DePIN
Подтверждение завершения расчётов и проверка качества
Эти проекты предлагают GPU, которые могут обеспечить вычислительную мощность для ряда услуг. Поскольку спектр услуг широк, от рендеринга графики до вычислений ИИ, конечное качество таких задач может не всегда соответствовать стандартам пользователей. Можно использовать форму подтверждения выполнения, чтобы указать, что конкретный GPU, арендованный пользователем, действительно использовался для запуска требуемых услуг; проверка качества будет полезна для пользователей, запрашивающих выполнение таких работ.
После завершения расчетов Gensyn и Aethir создадут доказательства, подтверждающие, что работа выполнена, а доказательство io.net подтверждает, что производительность арендованного GPU была полностью использована и не возникло проблем. Gensyn и Aethir проведут проверку качества завершенных расчетов. Для Gensyn используется повторный запуск части сгенерированных доказательств валидатором для сверки с доказательством, а доносчик выступает в качестве дополнительного уровня проверки для валидатора. Aethir использует проверочные узлы для определения качества обслуживания и накладывает штрафы за услуги, которые ниже стандартов. Render предлагает использовать процесс разрешения споров: если ревизионная комиссия обнаружит проблемы с узлом, узел будет сокращен. После завершения Phala будет создано доказательство TEE, чтобы гарантировать, что AI-агент выполняет необходимые операции в цепочке.
Аппаратная статистика
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала | |-------------|--------|-------|--------|------------|------------|--------| | Количество GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Количество ЦПУ | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 количество | - | 157 | 2330 | - | 2000+ | - | | H100 стоимость/час | - | $1.46 | $1.19 | - | - | - | | A100 стоимость/час | - | $1.37 | $1.50 | $0.55 ( ожидается ) | $0.33 ( ожидается ) | - |
! Пересечение искусственного интеллекта и DePIN
Требования к высокопроизводительным GPU
Поскольку для обучения AI моделей требуются графические процессоры с наилучшей производительностью, разработчики склонны использовать графические процессоры Nvidia, такие как A100 и H100. Производительность H100 в режиме вывода в 4 раза выше, чем у A100.