AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, активно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя человеческое воображение и даже показывая потенциал замены человеческого труда в некоторых ситуациях. Однако ядро этих технологий по-прежнему прочно контролируется несколькими централизованными технологическими гигантами. Обладая мощным капиталом и контролем над дорогими вычислительными ресурсами, эти компании создают непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточено на прорывах и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти проблемы будут глубоко влиять на здоровое развитие индустрии ИИ и общественное принятие. Если их не удастся надлежащим образом решить, споры о том, будет ли ИИ "на благо" или "на зло", будут становиться все более актуальными, в то время как централизованные гиганты, движимые инстинктом прибыли, часто не имеют достаточной мотивации для активного решения этих вызовов.
Технология блокчейн, благодаря своим характеристикам децентрализации, прозрачности и устойчивости к цензуре, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что эти проекты все еще имеют множество проблем: с одной стороны, уровень децентрализации ограничен, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных услуг, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI на блокчейне по-прежнему ограничен в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций требуют улучшения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо сделать так, чтобы в блокчейне безопасно, эффективно и демократично могли работать масштабные приложения ИИ, а по производительности они могли бы соперничать с централизованными решениями. Нам нужно разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с требованиями AI-задач, с целью эффективно поддерживать устойчивое развитие и процветание AI-экосистемы в блокчейне. Более конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные механизмы стимулов и децентрализованный консенсус. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерского учета, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов в инфраструктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная высокая производительность и поддержка гетерогенных задач. Задачи ИИ, особенно обучение и вывод LLM, предъявляют очень высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многогранные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру под требования высокой пропускной способности, низкой задержки и эластичной параллельности, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных задач ИИ и достичь плавного расширения от "однородных задач" до "сложной многогранной экосистемы".
Проверяемость и гарантии доверительного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, фальсификации данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как доверительная вычислительная среда (TEE), нулевое знание (ZK), многопартитные безопасные вычисления (MPC), платформа может позволить каждому этапу вывода модели, обучения и обработки данных быть независимо проверяемым, что обеспечивает справедливость и прозрачность системы AI. В то же время такая проверяемость может помочь пользователям четко понять логику и обоснования вывода AI, реализуя "что получено, то и пожелано", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, и в финансовой, медицинской, социальной и других областях защита конфиденциальности данных особенно важна. AI Layer 1 должен обеспечивать проверяемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычислений с соблюдением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, таких как вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя беспокойство пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки В качестве инфраструктуры Layer 1, изначально предназначенной для ИИ, платформа должна обладать не только техническим превосходством, но и предоставлять полные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулов для таких участников экосистемы, как разработчики, операторы узлов и поставщики ИИ-услуг. Путем постоянной оптимизации доступности платформы и опыта разработчика, содействовать внедрению разнообразных приложений, основанных на ИИ, и обеспечивать устойчивое процветание децентрализованной ИИ-экосистемы.
Исходя из вышеизложенного контекста и ожиданий, в данной статье будет подробно рассмотрено шесть проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически изложены последние достижения в данной области, проанализировано текущее состояние развития проектов и обсуждены будущие тенденции.
Sentient: создание лояльной открытой децентрализованной модели ИИ
Обзор проекта
Sentient - это платформа с открытым протоколом, которая разрабатывает AI Layer1 в блокчейне (, на начальном этапе это Layer 2, после чего будет осуществлен переход на Layer 1). Объединяя AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, преданность), чтобы обеспечить структуру владения моделями на блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient состоит в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, тем самым способствуя возникновению справедливой и открытой экосистемы сети AI-агентов.
Команда Sentient Foundation объединила ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. В состав ключевых участников входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность AI и защиту конфиденциальности, а стратегию блокчейна и экосистемное планирование возглавляет соучредитель Polygon Sandeep Nailwal. Участники команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих университетах, таких как Принстонский университет и Индийский институт технологий, охватывая области AI/ML, NLP, компьютерного зрения и совместно способствуя реализации проекта.
Как проект второго стартапа соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал аурой, имея богатые ресурсы, связи и рыночную осведомленность, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершил финансирование на сумму 85 миллионов долларов в рамках посевного раунда, который возглавили Founders Fund, Pantera и Framework Ventures, а другие инвестиционные компании включают Delphi, Hashkey и Spartan, среди десятков известных венчурных капиталистов.
Проектирование архитектуры и уровень приложений
Инфраструктурный слой
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного ИИ" артефактов, включает два ключевых процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, используемый для выравнивания модели.
Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель проходила процесс обучения, соответствующий намерениям сообщества.
Система в блокчейне обеспечивает прозрачность и децентрализованный контроль для протоколов, гарантируя право собственности на искусственные объекты ИИ, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков.
Уровень распределения: контроль модели вызова контракта авторизации;
Уровень доступа: проверка авторизации пользователя через подтверждение прав.
Стимулирующий уровень: контракт маршрутизации доходов будет распределять платежи при каждом вызове между тренерами, развертывателями и верификаторами.
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является основной концепцией, предложенной Sentient, и нацелен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Он сочетает в себе технологии в блокчейне и нативную криптографию AI, обладая следующими характеристиками:
Открытость: Модель должна быть открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, проверять и улучшать её.
Монетизация: каждый вызов модели будет генерировать поток дохода, в блокчейне контракт будет распределять доход между обучающими, развертывателями и валидаторами.
Лояльность: Модель принадлежит сообществу участников, направление обновления и управление определяются DAO, использование и модификация контролируются криптографическим механизмом.
AI родная криптография (AI-native Cryptography)
AI-нативное шифрование использует непрерывность моделей ИИ, структуру многомерных потоков и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Его ключевая технология заключается в том, что:
Встраивание отпечатка: во время обучения вставляется набор скрытых пар ключ-значение для формирования уникальной подписи модели;
Протокол проверки прав собственности: проверка сохранения отпечатков пальцев с помощью третьей стороны (Prover) в форме запроса;
Механизм разрешенного вызова: перед вызовом необходимо получить "сертификат разрешения", выданный владельцем модели, после чего система дает разрешение модели декодировать данный ввод и возвращать точный ответ.
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + проверка принадлежности" без дополнительных затрат на переобучение.
Модель правового подтверждения и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав на основе отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализуется через OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", что подразумевает предположение о соответствии, с возможностью обнаружения и наказания в случае нарушения.
Механизм отпечатков пальцев является ключевой реализацией OML, он позволяет модели генерировать уникальные подписи на этапе обучения, внедряя определенные «вопрос-ответ» пары. С помощью этих подписей обладатели модели могут подтвердить право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков моделей, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные среды выполнения (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели реагируют только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
2
Поделиться
комментарий
0/400
OptionWhisperer
· 13ч назад
про делает деньги розничный инвестор стоит на коленях и пьет суп
Посмотреть ОригиналОтветить0
BearMarketBuyer
· 13ч назад
про еще серьезно изучает отчеты Бычий рынок скоро появится
AI Layer1 исследование: анализ шести проектов по созданию Децентрализация AI экосистемы.
AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, активно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя человеческое воображение и даже показывая потенциал замены человеческого труда в некоторых ситуациях. Однако ядро этих технологий по-прежнему прочно контролируется несколькими централизованными технологическими гигантами. Обладая мощным капиталом и контролем над дорогими вычислительными ресурсами, эти компании создают непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточено на прорывах и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти проблемы будут глубоко влиять на здоровое развитие индустрии ИИ и общественное принятие. Если их не удастся надлежащим образом решить, споры о том, будет ли ИИ "на благо" или "на зло", будут становиться все более актуальными, в то время как централизованные гиганты, движимые инстинктом прибыли, часто не имеют достаточной мотивации для активного решения этих вызовов.
Технология блокчейн, благодаря своим характеристикам децентрализации, прозрачности и устойчивости к цензуре, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что эти проекты все еще имеют множество проблем: с одной стороны, уровень децентрализации ограничен, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных услуг, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI на блокчейне по-прежнему ограничен в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций требуют улучшения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо сделать так, чтобы в блокчейне безопасно, эффективно и демократично могли работать масштабные приложения ИИ, а по производительности они могли бы соперничать с централизованными решениями. Нам нужно разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с требованиями AI-задач, с целью эффективно поддерживать устойчивое развитие и процветание AI-экосистемы в блокчейне. Более конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные механизмы стимулов и децентрализованный консенсус. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерского учета, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов в инфраструктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная высокая производительность и поддержка гетерогенных задач. Задачи ИИ, особенно обучение и вывод LLM, предъявляют очень высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многогранные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру под требования высокой пропускной способности, низкой задержки и эластичной параллельности, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных задач ИИ и достичь плавного расширения от "однородных задач" до "сложной многогранной экосистемы".
Проверяемость и гарантии доверительного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, фальсификации данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как доверительная вычислительная среда (TEE), нулевое знание (ZK), многопартитные безопасные вычисления (MPC), платформа может позволить каждому этапу вывода модели, обучения и обработки данных быть независимо проверяемым, что обеспечивает справедливость и прозрачность системы AI. В то же время такая проверяемость может помочь пользователям четко понять логику и обоснования вывода AI, реализуя "что получено, то и пожелано", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, и в финансовой, медицинской, социальной и других областях защита конфиденциальности данных особенно важна. AI Layer 1 должен обеспечивать проверяемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычислений с соблюдением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, таких как вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя беспокойство пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки В качестве инфраструктуры Layer 1, изначально предназначенной для ИИ, платформа должна обладать не только техническим превосходством, но и предоставлять полные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулов для таких участников экосистемы, как разработчики, операторы узлов и поставщики ИИ-услуг. Путем постоянной оптимизации доступности платформы и опыта разработчика, содействовать внедрению разнообразных приложений, основанных на ИИ, и обеспечивать устойчивое процветание децентрализованной ИИ-экосистемы.
Исходя из вышеизложенного контекста и ожиданий, в данной статье будет подробно рассмотрено шесть проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически изложены последние достижения в данной области, проанализировано текущее состояние развития проектов и обсуждены будущие тенденции.
Sentient: создание лояльной открытой децентрализованной модели ИИ
Обзор проекта
Sentient - это платформа с открытым протоколом, которая разрабатывает AI Layer1 в блокчейне (, на начальном этапе это Layer 2, после чего будет осуществлен переход на Layer 1). Объединяя AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, преданность), чтобы обеспечить структуру владения моделями на блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient состоит в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, тем самым способствуя возникновению справедливой и открытой экосистемы сети AI-агентов.
Команда Sentient Foundation объединила ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. В состав ключевых участников входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность AI и защиту конфиденциальности, а стратегию блокчейна и экосистемное планирование возглавляет соучредитель Polygon Sandeep Nailwal. Участники команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих университетах, таких как Принстонский университет и Индийский институт технологий, охватывая области AI/ML, NLP, компьютерного зрения и совместно способствуя реализации проекта.
Как проект второго стартапа соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал аурой, имея богатые ресурсы, связи и рыночную осведомленность, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершил финансирование на сумму 85 миллионов долларов в рамках посевного раунда, который возглавили Founders Fund, Pantera и Framework Ventures, а другие инвестиционные компании включают Delphi, Hashkey и Spartan, среди десятков известных венчурных капиталистов.
Проектирование архитектуры и уровень приложений
Инфраструктурный слой
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного ИИ" артефактов, включает два ключевых процесса:
Система в блокчейне обеспечивает прозрачность и децентрализованный контроль для протоколов, гарантируя право собственности на искусственные объекты ИИ, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является основной концепцией, предложенной Sentient, и нацелен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Он сочетает в себе технологии в блокчейне и нативную криптографию AI, обладая следующими характеристиками:
AI родная криптография (AI-native Cryptography)
AI-нативное шифрование использует непрерывность моделей ИИ, структуру многомерных потоков и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Его ключевая технология заключается в том, что:
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + проверка принадлежности" без дополнительных затрат на переобучение.
Модель правового подтверждения и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав на основе отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализуется через OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", что подразумевает предположение о соответствии, с возможностью обнаружения и наказания в случае нарушения.
Механизм отпечатков пальцев является ключевой реализацией OML, он позволяет модели генерировать уникальные подписи на этапе обучения, внедряя определенные «вопрос-ответ» пары. С помощью этих подписей обладатели модели могут подтвердить право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков моделей, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные среды выполнения (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели реагируют только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.