Недавний бурный рост индустрии искусственного интеллекта рассматривается как четвертая промышленная революция. Появление крупных языковых моделей значительно повысило эффективность во многих отраслях, и, по оценкам, принесло около 20% прироста общей производительности труда в США. В то же время, обобщающая способность больших моделей считается новой парадигмой в проектировании программного обеспечения; в отличие от прошлых точных кодов, современное программное обеспечение в большей степени использует обобщенные рамки больших моделей, что поддерживает более широкий спектр входных и выходных модальностей. Технология глубокого обучения действительно принесла новый виток процветания в индустрию ИИ, и этот бум также распространился на рынок криптовалют.
В данной статье подробно рассматривается развитие AI-индустрии, классификация технологий, а также глубокое влияние глубокого обучения на отрасль. Мы глубоко проанализируем вверх и вниз по цепочке поставок глубокого обучения, включая GPU, облачные вычисления, источники данных, устройства на краю и т.д., а также проанализируем текущее состояние и тенденции развития. Кроме того, мы по сути рассмотрим отношения между криптовалютой и AI-индустрией, а также упорядочим структуру AI-цепочки поставок, связанной с криптовалютой.
Индустрия искусственного интеллекта начала развиваться в 1950-х годах. Для реализации видения искусственного интеллекта академическая и промышленная сферы разработали различные пути достижения в зависимости от исторического контекста.
Современные технологии искусственного интеллекта в основном используют термин "машинное обучение", основная идея которого заключается в том, чтобы позволить машинам улучшать производительность системы через итерации данных. Основные этапы включают ввод данных в алгоритм, обучение модели, тестирование и развертывание модели, а затем использование для автоматизации предсказательных задач.
В настоящее время в машинном обучении существует три основных направления: коннекционизм, символизм и бихевиоризм, которые соответственно имитируют нервную систему человека, мышление и поведение. В настоящее время коннекционизм, представленный нейронными сетями, занимает доминирующее положение ( также известный как глубокое обучение ). Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; когда количество слоев и нейронов ( параметров ) достаточно велико, она может моделировать сложные универсальные задачи.
Технология глубокого обучения на основе нейронных сетей также пережила множество итераций, от самых ранних нейронных сетей до перцептронов, RNN, CNN, GAN и, наконец, эволюционировала в современные большие модели, такие как GPT, использующие технологию Transformer. Технология Transformer является одним из направлений эволюции нейронных сетей, добавляя преобразователь для кодирования данных различных модальностей (, таких как аудио, видео, изображения и т. д. ) в соответствующее числовое представление, которое затем вводится в нейронную сеть, позволяя реализовать возможности обработки мультимодальных данных.
Развитие ИИ прошло через три технологические волны:
1960-е годы: развитие символистских технологий решило проблему обработки естественного языка и диалога между человеком и машиной. В это же время появились экспертные системы.
90-е годы XX века: предложены байесовские сети и поведенческая робототехника, что ознаменовало рождение бихевиоризма. В 1997 году IBM Deep Blue победил чемпиона мира по шахматам, что считается вехой в истории ИИ.
С 2006 года: концепция глубокого обучения была предложена, алгоритмы на основе искусственных нейронных сетей постепенно эволюционировали от RNN, GAN до Transformer и Stable Diffusion, это золотой век коннекционизма.
В последние годы в области ИИ произошло несколько знаковых событий:
В 2015 году алгоритмы глубокого обучения были опубликованы в журнале «Природа», что вызвало огромный резонанс в академической и промышленной сферах.
В 2016 году AlphaGo победил чемпиона мира по го Ли Сидо.
В 2017 году Google опубликовал статью об алгоритме Transformer, начали появляться крупномасштабные языковые модели.
В 2018-2020 годах OpenAI выпустила серию моделей GPT, размер параметров которых постоянно увеличивался.
Январь 2023 года, запущен ChatGPT на основе GPT-4, в марте достиг 100 миллионов пользователей, став приложением, быстрее всего достигнувшим 100 миллионов пользователей в истории.
В настоящее время крупные языковые модели в основном используют методы глубокого обучения на основе нейронных сетей. Модели, такие как GPT, вызвали новую волну интереса к ИИ, и большое количество игроков пришло в эту область. Рынок быстро растет в потребности в данных и вычислительной мощности, поэтому мы обсудим состав цепочки производства алгоритмов глубокого обучения, а также текущее состояние, соотношение спроса и предложения и будущее развитие вверх и вниз по цепочке.
Основные этапы обучения крупных языковых моделей, таких как GPT, ( LLMs ), делятся на три шага:
Предварительное обучение: ввод большого объема данных для поиска лучших параметров нейронов, этот процесс требует наибольших вычислительных ресурсов.
Тонкая настройка: использование небольшого, но качественного объема данных для обучения, улучшает качество вывода модели.
Укрепляющее обучение: создание "модели вознаграждения" для сортировки выходных результатов, используемой для итерации параметров большой модели.
Тремя ключевыми факторами, влияющими на производительность больших моделей, являются: количество параметров, объем и качество данных, вычислительная мощность. Предположим, что количество параметров равно p, объем данных равен n(, рассчитываемый по количеству токенов ), тогда необходимое количество вычислений можно оценить по эмпирическому правилу.
Производительность обычно измеряется в Flops, что представляет собой одно плавающее вычисление. Согласно эмпирическому правилу, предварительная тренировка большой модели требует около 6np Flops. В то время как процесс вывода ( входных данных и ожидания выхода модели ) требует примерно 2np Flops.
В начале в основном использовались процессоры CPU для обучения, затем постепенно перешли на GPU, такие как чипы A100 и H100 от NVIDIA. GPU выполняют вычисления с плавающей запятой с помощью модуля Tensor Core, а данные Flops при точности FP16/FP32 являются важным показателем вычислительной способности чипа.
Например, GPT-3 имеет 175 миллиардов параметров и объем данных в 180 миллиардов токенов. Для одной предобучения требуется примерно 3.1510^22 Flops, то есть 3.1510^10 TFLOPS. Для предобучения GPT-3 с использованием одного чипа NVIDIA H100 SXM требуется около 584 дней.
Можно увидеть, что обучение больших моделей требует огромного объема вычислений, для этого необходимо совместное использование нескольких самых современных чипов. Количество параметров и объем данных GPT-4 в десять раз больше, чем у GPT-3, возможно, потребуется более 100 раз большая вычислительная мощность чипов.
В обучении больших моделей хранение данных также сталкивается с проблемами. Данные GPT-3 занимают около 570 ГБ, параметры занимают около 700 ГБ. Память GPU обычно небольшая, например, A100 составляет 80 ГБ, что не позволяет вместить все данные, поэтому необходимо учитывать пропускную способность чипа. При обучении на нескольких GPU также учитывается скорость передачи данных между чипами. Иногда ограничивающим фактором скорости обучения является не вычислительная способность, а скорость передачи данных.
Индустриальная цепочка глубокого обучения в основном включает в себя следующие этапы:
( 1. Провайдеры аппаратного обеспечения GPU
NVIDIA занимает абсолютное лидирующее положение в области AI GPU-чипов. Академическая среда в основном использует потребительские GPU ), такие как серия RTX ###, а промышленность в основном использует коммерческие чипы, такие как H100 и A100. Google также имеет свои собственные TPU-чипы, но они в основном используются для услуг Google Cloud.
С момента выпуска в 2023 году чипа H100 от NVIDIA было получено множество заказов, спрос превышает предложение. По состоянию на конец 2023 года объем заказов на H100 превысил 500 тысяч штук. Чтобы избавиться от зависимости от NVIDIA, Google возглавила создание альянса CUDA, надеясь совместно разрабатывать GPU.
Поставщики облачных услуг приобретают большое количество GPU для создания высокопроизводительных вычислительных кластеров, чтобы предоставить гибкие вычислительные мощности и управляемые решения для обучения предприятиям ИИ с ограниченным бюджетом. В основном делится на три категории:
Традиционные крупные облачные провайдеры: AWS, Google Cloud, Azure и т.д.
Вертикальная AI облачная вычислительная платформа: CoreWeave, Lambda и др.
Провайдеры ИИ как сервиса: Together.ai, Fireworks.ai и другие
) 3. Поставщики обучающих данных
Для обучения больших моделей требуется огромное количество данных. Некоторые компании специально предоставляют данные для обучения в различных отраслях, таких как финансы, медицина, химия и т.д.
4. Поставщик баз данных
Обучение ИИ требует эффективного хранения и обработки огромного объема неструктурированных данных, поэтому появились специализированные "векторные базы данных". Основные игроки включают Chroma, Zilliz, Pinecone и другие.
5. Устройства на краю
GPU кластеры производят большое количество тепла, что требует системы охлаждения для обеспечения стабильной работы. В настоящее время в основном используется воздушное охлаждение, но системы жидкостного охлаждения пользуются популярностью у инвесторов. Что касается поставок энергии, некоторые технологические компании начали инвестировать в геотермальную, водородную, ядерную и другие чистые источники энергии.
6. Приложения ИИ
В настоящее время развитие приложений ИИ похоже на индустрию Блокчейн: инфраструктура переполнена, но разработка приложений относительно отстает. В десяти лучших приложениях ИИ с активными пользователями в месяц большинство являются продуктами поиска, в то время как другие типы приложений, такие как социальные, встречаются реже. Уровень удержания пользователей приложений ИИ также, как правило, ниже, чем у традиционных интернет-приложений.
В общем, индустрия глубокого обучения быстро развивается, но также сталкивается с множеством вызовов. Спрос на вычислительные мощности продолжает расти, потребление данных и энергии огромное, а области применения требуют дальнейшего расширения. В будущем все этапы цепочки поставок будут продолжать оптимизироваться и обновляться, чтобы поддерживать более крупные и более эффективные модели ИИ для обучения и применения.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###
Отношения между криптовалютой и ИИ
Ядром технологии Блокчейн является децентрализация и дест trusted. От Биткойна как системы электронных наличных с одноранговой передачей до платформы смарт-контрактов Эфириума, Блокчейн по сути представляет собой сеть ценностей, где каждая транзакция основана на обмене ценностью базового токена.
В традиционном интернете ценность преобразуется в цену акций и рыночную капитализацию через такие показатели, как P/E. В Блокчейн-сети нативные токены являются многомерным выражением ценности, которые не только могут приносить доход от стейкинга, но и служить средством обмена ценностью, средством хранения ценности и товарами для потребления в сетевой активности.
Важность токеномики заключается в том, что она может придать ценность любым функциям или идеям в сети. Токены позволяют перераспределить ценность на всех этапах цепочки поставок в индустрии ИИ, стимулируя больше людей углубляться в узкие ниши ИИ. В то же время синергетический эффект токенов повысит ценность инфраструктуры, формируя структуру "толстый протокол - тонкое приложение".
Блокчейн технологии, такие как необратимость и отсутствие необходимости в доверии, также могут принести реальную ценность для AI индустрии:
Реализация обучения и вывода моделей с защитой конфиденциальности данных
Распределение через глобальную сеть и использование неактивной вычислительной мощности GPU
Обеспечить достоверный механизм обнаружения и обмена ценностями на всех этапах цепочки AI-индустрии
В общем, токеномика может способствовать переосмыслению и открытию ценности в AI-индустрии, децентрализованный реестр может решить проблему доверия и восстановить глобальное движение ценностей. Это сочетание принесет новые стимулы и возможности для AI-индустрии.
В настоящее время основными проектами облачных вычислений на GPU в Блокчейн являются Render, Golem и другие. Render, как более зрелый проект, в основном ориентирован на традиционные задачи видеорендеринга и строго говоря не относится к сегменту ИИ. Однако рынок облачных вычислений на GPU может быть направлен не только на обучение и вывод AI моделей, но также может применяться для традиционного рендеринга, уменьшая зависимость от одного рынка.
Согласно прогнозам отрасли, спрос на вычислительную мощность GPU в 2024 году составит около 75 миллиардов долларов, а к 2032 году достигнет 773 миллиардов долларов, с годовыми темпами роста 33,86%. С ускорением итерации GPU потребность в совместном использовании вычислительной мощности GPU значительно возрастет, поскольку будет образовываться большое количество устаревших неиспользуемых ресурсов GPU.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###
( Аппаратная пропускная способность
Пропускная способность часто является ключевым фактором, влияющим на производительность облачных вычислений, особенно для децентрализованных сетей общего доступа к GPU. Некоторые проекты, такие как Meson Network, пытаются решить эту проблему, делясь пропускной способностью, но реальный эффект ограничен, поскольку задержки, вызванные географическим положением, по-прежнему трудно избежать.
) Данные
Поставщики данных AI включают EpiK Protocol, Synesis One, Masa и другие. В отличие от традиционных компаний Web2, блокчейн-проекты имеют преимущества в сборе данных и могут предоставлять стимулы за вклад личных данных. В сочетании с такими технологиями, как доказательства с нулевым разглашением, есть надежда на более широкое разделение данных.
ЗКМЛ
Для реализации обучения и вывода моделей с защитой конфиденциальности данных некоторые проекты используют схемы нулевых знаний. Типичные проекты включают Axiom, Risc Zero и другие, которые могут предоставлять ZK-доказательства для внецепочечных вычислений и данных. Такие универсальные ZK-проекты имеют более широкие границы применения и более привлекательны для инвесторов.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
5
Поделиться
комментарий
0/400
MetaNeighbor
· 13ч назад
Торговля криптовалютой必备 AI,干啥都靠AI
Посмотреть ОригиналОтветить0
ILCollector
· 13ч назад
Кто сказал, что бычий рынок обязательно не сокращает потери? Сокращение потерь — это тоже способ роста.
Посмотреть ОригиналОтветить0
ColdWalletGuardian
· 13ч назад
GPU大哥又要 На луну咯~
Посмотреть ОригиналОтветить0
HodlOrRegret
· 14ч назад
Хорошо, хорошо, снова говорят об ИИ. Бык есть бык, а риг для майнинга не пользуется спросом.
AI и Блокчейн: Полный анализ от цепочки поставок до токеномики
Интеграция ИИ и Блокчейн: от нуля до вершины
Недавний бурный рост индустрии искусственного интеллекта рассматривается как четвертая промышленная революция. Появление крупных языковых моделей значительно повысило эффективность во многих отраслях, и, по оценкам, принесло около 20% прироста общей производительности труда в США. В то же время, обобщающая способность больших моделей считается новой парадигмой в проектировании программного обеспечения; в отличие от прошлых точных кодов, современное программное обеспечение в большей степени использует обобщенные рамки больших моделей, что поддерживает более широкий спектр входных и выходных модальностей. Технология глубокого обучения действительно принесла новый виток процветания в индустрию ИИ, и этот бум также распространился на рынок криптовалют.
В данной статье подробно рассматривается развитие AI-индустрии, классификация технологий, а также глубокое влияние глубокого обучения на отрасль. Мы глубоко проанализируем вверх и вниз по цепочке поставок глубокого обучения, включая GPU, облачные вычисления, источники данных, устройства на краю и т.д., а также проанализируем текущее состояние и тенденции развития. Кроме того, мы по сути рассмотрим отношения между криптовалютой и AI-индустрией, а также упорядочим структуру AI-цепочки поставок, связанной с криптовалютой.
! Новичок в науке丨AI x Crypto: от нуля до пика
История развития индустрии ИИ
Индустрия искусственного интеллекта начала развиваться в 1950-х годах. Для реализации видения искусственного интеллекта академическая и промышленная сферы разработали различные пути достижения в зависимости от исторического контекста.
Современные технологии искусственного интеллекта в основном используют термин "машинное обучение", основная идея которого заключается в том, чтобы позволить машинам улучшать производительность системы через итерации данных. Основные этапы включают ввод данных в алгоритм, обучение модели, тестирование и развертывание модели, а затем использование для автоматизации предсказательных задач.
В настоящее время в машинном обучении существует три основных направления: коннекционизм, символизм и бихевиоризм, которые соответственно имитируют нервную систему человека, мышление и поведение. В настоящее время коннекционизм, представленный нейронными сетями, занимает доминирующее положение ( также известный как глубокое обучение ). Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; когда количество слоев и нейронов ( параметров ) достаточно велико, она может моделировать сложные универсальные задачи.
Технология глубокого обучения на основе нейронных сетей также пережила множество итераций, от самых ранних нейронных сетей до перцептронов, RNN, CNN, GAN и, наконец, эволюционировала в современные большие модели, такие как GPT, использующие технологию Transformer. Технология Transformer является одним из направлений эволюции нейронных сетей, добавляя преобразователь для кодирования данных различных модальностей (, таких как аудио, видео, изображения и т. д. ) в соответствующее числовое представление, которое затем вводится в нейронную сеть, позволяя реализовать возможности обработки мультимодальных данных.
! Новичок в популярной науке丨AI x Crypto: от нуля до пика
Развитие ИИ прошло через три технологические волны:
1960-е годы: развитие символистских технологий решило проблему обработки естественного языка и диалога между человеком и машиной. В это же время появились экспертные системы.
90-е годы XX века: предложены байесовские сети и поведенческая робототехника, что ознаменовало рождение бихевиоризма. В 1997 году IBM Deep Blue победил чемпиона мира по шахматам, что считается вехой в истории ИИ.
С 2006 года: концепция глубокого обучения была предложена, алгоритмы на основе искусственных нейронных сетей постепенно эволюционировали от RNN, GAN до Transformer и Stable Diffusion, это золотой век коннекционизма.
В последние годы в области ИИ произошло несколько знаковых событий:
! Newcomer Science丨AI x Crypto: от нуля до пика
Индустриальная цепочка глубокого обучения
В настоящее время крупные языковые модели в основном используют методы глубокого обучения на основе нейронных сетей. Модели, такие как GPT, вызвали новую волну интереса к ИИ, и большое количество игроков пришло в эту область. Рынок быстро растет в потребности в данных и вычислительной мощности, поэтому мы обсудим состав цепочки производства алгоритмов глубокого обучения, а также текущее состояние, соотношение спроса и предложения и будущее развитие вверх и вниз по цепочке.
Основные этапы обучения крупных языковых моделей, таких как GPT, ( LLMs ), делятся на три шага:
Предварительное обучение: ввод большого объема данных для поиска лучших параметров нейронов, этот процесс требует наибольших вычислительных ресурсов.
Тонкая настройка: использование небольшого, но качественного объема данных для обучения, улучшает качество вывода модели.
Укрепляющее обучение: создание "модели вознаграждения" для сортировки выходных результатов, используемой для итерации параметров большой модели.
Тремя ключевыми факторами, влияющими на производительность больших моделей, являются: количество параметров, объем и качество данных, вычислительная мощность. Предположим, что количество параметров равно p, объем данных равен n(, рассчитываемый по количеству токенов ), тогда необходимое количество вычислений можно оценить по эмпирическому правилу.
Производительность обычно измеряется в Flops, что представляет собой одно плавающее вычисление. Согласно эмпирическому правилу, предварительная тренировка большой модели требует около 6np Flops. В то время как процесс вывода ( входных данных и ожидания выхода модели ) требует примерно 2np Flops.
В начале в основном использовались процессоры CPU для обучения, затем постепенно перешли на GPU, такие как чипы A100 и H100 от NVIDIA. GPU выполняют вычисления с плавающей запятой с помощью модуля Tensor Core, а данные Flops при точности FP16/FP32 являются важным показателем вычислительной способности чипа.
Например, GPT-3 имеет 175 миллиардов параметров и объем данных в 180 миллиардов токенов. Для одной предобучения требуется примерно 3.1510^22 Flops, то есть 3.1510^10 TFLOPS. Для предобучения GPT-3 с использованием одного чипа NVIDIA H100 SXM требуется около 584 дней.
Можно увидеть, что обучение больших моделей требует огромного объема вычислений, для этого необходимо совместное использование нескольких самых современных чипов. Количество параметров и объем данных GPT-4 в десять раз больше, чем у GPT-3, возможно, потребуется более 100 раз большая вычислительная мощность чипов.
В обучении больших моделей хранение данных также сталкивается с проблемами. Данные GPT-3 занимают около 570 ГБ, параметры занимают около 700 ГБ. Память GPU обычно небольшая, например, A100 составляет 80 ГБ, что не позволяет вместить все данные, поэтому необходимо учитывать пропускную способность чипа. При обучении на нескольких GPU также учитывается скорость передачи данных между чипами. Иногда ограничивающим фактором скорости обучения является не вычислительная способность, а скорость передачи данных.
Индустриальная цепочка глубокого обучения в основном включает в себя следующие этапы:
( 1. Провайдеры аппаратного обеспечения GPU
NVIDIA занимает абсолютное лидирующее положение в области AI GPU-чипов. Академическая среда в основном использует потребительские GPU ), такие как серия RTX ###, а промышленность в основном использует коммерческие чипы, такие как H100 и A100. Google также имеет свои собственные TPU-чипы, но они в основном используются для услуг Google Cloud.
С момента выпуска в 2023 году чипа H100 от NVIDIA было получено множество заказов, спрос превышает предложение. По состоянию на конец 2023 года объем заказов на H100 превысил 500 тысяч штук. Чтобы избавиться от зависимости от NVIDIA, Google возглавила создание альянса CUDA, надеясь совместно разрабатывать GPU.
! Newcomer Science丨AI x Crypto: от нуля до пика
( 2. Поставщик облачных услуг
Поставщики облачных услуг приобретают большое количество GPU для создания высокопроизводительных вычислительных кластеров, чтобы предоставить гибкие вычислительные мощности и управляемые решения для обучения предприятиям ИИ с ограниченным бюджетом. В основном делится на три категории:
) 3. Поставщики обучающих данных
Для обучения больших моделей требуется огромное количество данных. Некоторые компании специально предоставляют данные для обучения в различных отраслях, таких как финансы, медицина, химия и т.д.
4. Поставщик баз данных
Обучение ИИ требует эффективного хранения и обработки огромного объема неструктурированных данных, поэтому появились специализированные "векторные базы данных". Основные игроки включают Chroma, Zilliz, Pinecone и другие.
5. Устройства на краю
GPU кластеры производят большое количество тепла, что требует системы охлаждения для обеспечения стабильной работы. В настоящее время в основном используется воздушное охлаждение, но системы жидкостного охлаждения пользуются популярностью у инвесторов. Что касается поставок энергии, некоторые технологические компании начали инвестировать в геотермальную, водородную, ядерную и другие чистые источники энергии.
6. Приложения ИИ
В настоящее время развитие приложений ИИ похоже на индустрию Блокчейн: инфраструктура переполнена, но разработка приложений относительно отстает. В десяти лучших приложениях ИИ с активными пользователями в месяц большинство являются продуктами поиска, в то время как другие типы приложений, такие как социальные, встречаются реже. Уровень удержания пользователей приложений ИИ также, как правило, ниже, чем у традиционных интернет-приложений.
В общем, индустрия глубокого обучения быстро развивается, но также сталкивается с множеством вызовов. Спрос на вычислительные мощности продолжает расти, потребление данных и энергии огромное, а области применения требуют дальнейшего расширения. В будущем все этапы цепочки поставок будут продолжать оптимизироваться и обновляться, чтобы поддерживать более крупные и более эффективные модели ИИ для обучения и применения.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###
Отношения между криптовалютой и ИИ
Ядром технологии Блокчейн является децентрализация и дест trusted. От Биткойна как системы электронных наличных с одноранговой передачей до платформы смарт-контрактов Эфириума, Блокчейн по сути представляет собой сеть ценностей, где каждая транзакция основана на обмене ценностью базового токена.
В традиционном интернете ценность преобразуется в цену акций и рыночную капитализацию через такие показатели, как P/E. В Блокчейн-сети нативные токены являются многомерным выражением ценности, которые не только могут приносить доход от стейкинга, но и служить средством обмена ценностью, средством хранения ценности и товарами для потребления в сетевой активности.
Важность токеномики заключается в том, что она может придать ценность любым функциям или идеям в сети. Токены позволяют перераспределить ценность на всех этапах цепочки поставок в индустрии ИИ, стимулируя больше людей углубляться в узкие ниши ИИ. В то же время синергетический эффект токенов повысит ценность инфраструктуры, формируя структуру "толстый протокол - тонкое приложение".
Блокчейн технологии, такие как необратимость и отсутствие необходимости в доверии, также могут принести реальную ценность для AI индустрии:
В общем, токеномика может способствовать переосмыслению и открытию ценности в AI-индустрии, децентрализованный реестр может решить проблему доверия и восстановить глобальное движение ценностей. Это сочетание принесет новые стимулы и возможности для AI-индустрии.
! Новичок в науке丨AI x Crypto: от нуля до пика
Обзор проектов AI в индустрии криптовалют
( Сторона предложения GPU
В настоящее время основными проектами облачных вычислений на GPU в Блокчейн являются Render, Golem и другие. Render, как более зрелый проект, в основном ориентирован на традиционные задачи видеорендеринга и строго говоря не относится к сегменту ИИ. Однако рынок облачных вычислений на GPU может быть направлен не только на обучение и вывод AI моделей, но также может применяться для традиционного рендеринга, уменьшая зависимость от одного рынка.
Согласно прогнозам отрасли, спрос на вычислительную мощность GPU в 2024 году составит около 75 миллиардов долларов, а к 2032 году достигнет 773 миллиардов долларов, с годовыми темпами роста 33,86%. С ускорением итерации GPU потребность в совместном использовании вычислительной мощности GPU значительно возрастет, поскольку будет образовываться большое количество устаревших неиспользуемых ресурсов GPU.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###
( Аппаратная пропускная способность
Пропускная способность часто является ключевым фактором, влияющим на производительность облачных вычислений, особенно для децентрализованных сетей общего доступа к GPU. Некоторые проекты, такие как Meson Network, пытаются решить эту проблему, делясь пропускной способностью, но реальный эффект ограничен, поскольку задержки, вызванные географическим положением, по-прежнему трудно избежать.
) Данные
Поставщики данных AI включают EpiK Protocol, Synesis One, Masa и другие. В отличие от традиционных компаний Web2, блокчейн-проекты имеют преимущества в сборе данных и могут предоставлять стимулы за вклад личных данных. В сочетании с такими технологиями, как доказательства с нулевым разглашением, есть надежда на более широкое разделение данных.
ЗКМЛ
Для реализации обучения и вывода моделей с защитой конфиденциальности данных некоторые проекты используют схемы нулевых знаний. Типичные проекты включают Axiom, Risc Zero и другие, которые могут предоставлять ZK-доказательства для внецепочечных вычислений и данных. Такие универсальные ZK-проекты имеют более широкие границы применения и более привлекательны для инвесторов.