Прорыв Manus вызвал争论 о путях развития ИИ, технологии безопасности стали ключевыми для AGI.

Прорывные характеристики Manus вызывают争议 в путях развития ИИ

Недавно Manus достиг прорывовых результатов в тестировании GAIA, его производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как международные бизнес-переговоры, включая анализ условий контракта, разработку стратегий и генерирование предложений. Преимущества Manus по сравнению с традиционными системами заключаются в его динамическом разбиении целей, кросс-модальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая вероятность ошибок с помощью обучения с подкреплением.

Прорыв Manus снова вызвал обсуждение в индустрии о путях развития ИИ: будущее — это путь к единому искусственному интеллекту (AGI) или совместное доминирование многоагентных систем (MAS)?

Дизайнерская концепция Manus подразумевает две возможности:

  1. Путь AGI: постоянное повышение уровня индивидуального интеллекта, чтобы приблизиться к человеческим комплексным能力决策.

  2. MAS-путь: в качестве суперкоординатора, управлять тысячами специализированных агентов, работающих совместно.

На поверхности это разногласия в различных технологических путях, но на самом деле это отражает глубокий конфликт в том, как сбалансировать эффективность и безопасность в развитии ИИ. Чем ближе индивидуальный интеллект к AGI, тем выше риск непрозрачности его процесса принятия решений; в то время как сотрудничество нескольких интеллектуальных агентов может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержки связи.

Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ:

  1. Проблемы конфиденциальности данных: в медицинских сценариях необходимо получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть затронуты непубличные данные компаний.

  2. Алгоритмическая предвзятость: в процессе переговоров о найме могут быть предложены несправедливые зарплаты для определённых групп; при проверке юридических контрактов может быть высокая вероятность ошибочной оценки условий новых отраслей.

  3. Атакующие действия: Хакеры могут вмешиваться в суждения AI-системы, внедряя определённые сигналы.

Эти вызовы подчеркивают суровую реальность: чем умнее системы ИИ, тем шире их потенциальные уязвимости.

В ответ на эти вызовы отрасль исследует различные стратегии безопасности:

  1. Модель нулевого доверия: требует строгой аутентификации и авторизации для каждого запроса на доступ.

  2. Децентрализованная идентичность (DID): обеспечивает проверяемую и долговечную идентификацию личности без необходимости полагаться на централизованный реестр.

  3. Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных.

Среди них FHE считается ключевой технологией для решения проблем безопасности в эпоху ИИ. Она может сыграть роль в следующих аспектах:

  • На уровне данных: Вся информация, введенная пользователем, обрабатывается в зашифрованном состоянии, даже сама ИИ-система не может расшифровать исходные данные.

  • Алгоритмический уровень: реализация "обучения модели с шифрованием" с помощью FHE, что обеспечивает невозможность подглядывания за процессом принятия решений AI.

  • Координационный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, чтобы предотвратить утечку глобальных данных из-за единой точки сбоя.

Несмотря на то, что развитие технологий безопасности Web3 может не иметь прямой связи с обычными пользователями, оно имеет решающее значение для здорового развития всей экосистемы. В эпоху быстрого развития ИИ важность технологий безопасности очевидна.

С учетом того, что технологии ИИ все более приближаются к уровню человеческого интеллекта, нам нужна более современная система защиты. Такие безопасные технологии, как FHE, способны не только решать текущие проблемы, но и прокладывать путь к будущей эре более мощного ИИ. На пути к AGI эти безопасные технологии больше не являются опцией, а становятся необходимостью для выживания.

Manus приносит первые лучи AGI, безопасность ИИ также заслуживает размышлений

AGI8.66%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
TheMemefathervip
· 07-19 17:07
Передний ряд ждет аирдроп закрытой позиции
Посмотреть ОригиналОтветить0
Anon32942vip
· 07-19 16:58
Универсальный искусственный интеллект будет править человечеством
Посмотреть ОригиналОтветить0
PriceOracleFairyvip
· 07-19 16:58
мужик сливает альфу как сломанный dex лол... ставлю, что венчурные капиталисты уже охотятся на эту статистическую аномалию
Посмотреть ОригиналОтветить0
ThatsNotARugPullvip
· 07-19 16:51
Манус снова закрутил.
Посмотреть ОригиналОтветить0
AirdropHunterKingvip
· 07-19 16:38
Ещё одна волна новых неудачников готова лизать AI! Дедушка видел слишком много умных инструментов, чтобы волноваться.
Посмотреть ОригиналОтветить0
ZKProofEnthusiastvip
· 07-19 16:37
Еще один, который называется AGI
Посмотреть ОригиналОтветить0
  • Закрепить