Запуск открытого тестирования сети Mira: сможет ли уровень доверия AI решить проблему иллюзорных предвзятостей?

Уровень доверия ИИ: Как сеть Mira решает проблемы предвзятости и иллюзий ИИ

Недавно публичная тестовая сеть Mira была официально запущена. Этот проект нацелен на создание уровня доверия для ИИ, чтобы решить проблемы предвзятости и "галлюцинаций" в системах ИИ. Так почему ИИ необходимо доверять? Как Mira решает эту проблему?

При обсуждении ИИ люди часто больше сосредотачиваются на его мощных возможностях. Однако проблемы «галлюцинаций» или предвзятости ИИ часто игнорируются. Что касается «галлюцинаций» ИИ, проще говоря, это означает, что ИИ иногда может «выдумывать» и серьезно нести чушь. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд на вид разумных, но на самом деле необоснованных объяснений.

Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими направлениями технологий ИИ. Генеративный ИИ достигает связности и разумности, предсказывая "наиболее вероятное" содержимое, но иногда не может проверить истинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что также влияет на выводы ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ производит "галлюцинации". Если такие предвзятые или иллюзорные выходные данные ограничиваются общими знаниями или развлекательным контентом, это временно может не привести к непосредственным последствиям. Но если это произойдет в таких строго регламентированных областях, как здравоохранение, право, авиация и финансы, это может иметь серьезные последствия. Поэтому решение проблем галлюцинаций и предвзятости ИИ становится одной из ключевых задач в процессе развития ИИ.

Проект Mira пытается решить эту проблему, создавая уровень доверия для ИИ, чтобы повысить его надежность. Итак, как Mira снижает предвзятость и иллюзии ИИ и в конечном итоге достигает доверенного ИИ?

Основная идея Mira заключается в верификации вывода ИИ через консенсус нескольких моделей ИИ. По сути, это сеть верификации, которая обеспечивает надежность вывода ИИ через децентрализованную верификацию консенсуса. Этот подход сочетает в себе преимущества децентрализованной верификации консенсуса, в которых преуспевает криптографическая область, и совместной работы нескольких моделей, чтобы уменьшить предвзятость и галлюцинации через коллективную верификацию.

В области проверки архитектуры протокол Mira поддерживает преобразование сложного контента в независимые проверочные утверждения. Операторы узлов участвуют в проверке этих утверждений, обеспечивая честное поведение через механизмы экономического стимула и наказания. Разные модели ИИ и децентрализованные операторы узлов совместно участвуют для обеспечения надежности результатов проверки.

Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Сначала система разбивает представленные клиентом кандидатные материалы на проверяемые заявления, а затем распределяет их по узлам для проверки. Узлы определяют действительность заявлений и собирают результаты для достижения консенсуса. Чтобы защитить конфиденциальность клиентов, заявления будут распределены среди различных узлов случайным образом.

Операторы узлов получают доход, запуская модели валидации, обрабатывая заявления и подавая результаты валидации. Эти доходы происходят от ценности, созданной для клиентов, а именно снижения уровня ошибок ИИ в ключевых областях. Чтобы предотвратить случайные ответы узлов, узлы, которые постоянно отклоняются от консенсуса, будут наказаны.

В целом, Mira предлагает новый подход к решению задач, создавая децентрализованную сеть проверки консенсуса, что обеспечивает большую надежность AI-сервисов для клиентов. Она стремится стать уровнем доверия для AI, способствуя углубленному развитию AI-приложений.

В настоящее время Mira сотрудничает с несколькими фреймворками AI агент. Пользователи могут участвовать в публичной тестовой сети через Klok (приложение для чата на основе LLM от Mira), испытывать проверенные AI-выходы и иметь возможность зарабатывать очки Mira.

AGENT4.99%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
DuckFluffvip
· 20ч назад
Как это объяснить... Это просто AI болтает ерунду.
Посмотреть ОригиналОтветить0
Lonely_Validatorvip
· 20ч назад
Снова будут играть для лохов?
Посмотреть ОригиналОтветить0
SeeYouInFourYearsvip
· 20ч назад
Я много видел бессмысленных измышлений о ИИ.
Посмотреть ОригиналОтветить0
OnchainUndercovervip
· 20ч назад
Вопрос в том, что большие языковые модели рассказывают истории.
Посмотреть ОригиналОтветить0
TheShibaWhisperervip
· 20ч назад
Кожанка для造妖币 тоже может кусать, да.
Посмотреть ОригиналОтветить0
MevTearsvip
· 20ч назад
Все хотят заработать на AI.
Посмотреть ОригиналОтветить0
  • Закрепить