Прорывные характеристики Manus вызывают争议 в путях развития ИИ
Недавно Manus достиг прорывовых результатов в тестировании GAIA, его производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как международные бизнес-переговоры, включая анализ условий контракта, разработку стратегий и генерирование предложений. Преимущества Manus по сравнению с традиционными системами заключаются в его динамическом разбиении целей, кросс-модальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая вероятность ошибок с помощью обучения с подкреплением.
Прорыв Manus снова вызвал обсуждение в индустрии о путях развития ИИ: будущее — это путь к единому искусственному интеллекту (AGI) или совместное доминирование многоагентных систем (MAS)?
Дизайнерская концепция Manus подразумевает две возможности:
Путь AGI: постоянное повышение уровня индивидуального интеллекта, чтобы приблизиться к человеческим комплексным能力决策.
MAS-путь: в качестве суперкоординатора, управлять тысячами специализированных агентов, работающих совместно.
На поверхности это разногласия в различных технологических путях, но на самом деле это отражает глубокий конфликт в том, как сбалансировать эффективность и безопасность в развитии ИИ. Чем ближе индивидуальный интеллект к AGI, тем выше риск непрозрачности его процесса принятия решений; в то время как сотрудничество нескольких интеллектуальных агентов может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержки связи.
Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ:
Проблемы конфиденциальности данных: в медицинских сценариях необходимо получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть затронуты непубличные данные компаний.
Алгоритмическая предвзятость: в процессе переговоров о найме могут быть предложены несправедливые зарплаты для определённых групп; при проверке юридических контрактов может быть высокая вероятность ошибочной оценки условий новых отраслей.
Атакующие действия: Хакеры могут вмешиваться в суждения AI-системы, внедряя определённые сигналы.
Эти вызовы подчеркивают суровую реальность: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В ответ на эти вызовы отрасль исследует различные стратегии безопасности:
Модель нулевого доверия: требует строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентичность (DID): обеспечивает проверяемую и долговечную идентификацию личности без необходимости полагаться на централизованный реестр.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных.
Среди них FHE считается ключевой технологией для решения проблем безопасности в эпоху ИИ. Она может сыграть роль в следующих аспектах:
На уровне данных: Вся информация, введенная пользователем, обрабатывается в зашифрованном состоянии, даже сама ИИ-система не может расшифровать исходные данные.
Алгоритмический уровень: реализация "обучения модели с шифрованием" с помощью FHE, что обеспечивает невозможность подглядывания за процессом принятия решений AI.
Координационный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, чтобы предотвратить утечку глобальных данных из-за единой точки сбоя.
Несмотря на то, что развитие технологий безопасности Web3 может не иметь прямой связи с обычными пользователями, оно имеет решающее значение для здорового развития всей экосистемы. В эпоху быстрого развития ИИ важность технологий безопасности очевидна.
С учетом того, что технологии ИИ все более приближаются к уровню человеческого интеллекта, нам нужна более современная система защиты. Такие безопасные технологии, как FHE, способны не только решать текущие проблемы, но и прокладывать путь к будущей эре более мощного ИИ. На пути к AGI эти безопасные технологии больше не являются опцией, а становятся необходимостью для выживания.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
6
Поделиться
комментарий
0/400
TheMemefather
· 07-19 17:07
Передний ряд ждет аирдроп закрытой позиции
Посмотреть ОригиналОтветить0
Anon32942
· 07-19 16:58
Универсальный искусственный интеллект будет править человечеством
Посмотреть ОригиналОтветить0
PriceOracleFairy
· 07-19 16:58
мужик сливает альфу как сломанный dex лол... ставлю, что венчурные капиталисты уже охотятся на эту статистическую аномалию
Посмотреть ОригиналОтветить0
ThatsNotARugPull
· 07-19 16:51
Манус снова закрутил.
Посмотреть ОригиналОтветить0
AirdropHunterKing
· 07-19 16:38
Ещё одна волна новых неудачников готова лизать AI! Дедушка видел слишком много умных инструментов, чтобы волноваться.
Прорыв Manus вызвал争论 о путях развития ИИ, технологии безопасности стали ключевыми для AGI.
Прорывные характеристики Manus вызывают争议 в путях развития ИИ
Недавно Manus достиг прорывовых результатов в тестировании GAIA, его производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как международные бизнес-переговоры, включая анализ условий контракта, разработку стратегий и генерирование предложений. Преимущества Manus по сравнению с традиционными системами заключаются в его динамическом разбиении целей, кросс-модальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая вероятность ошибок с помощью обучения с подкреплением.
Прорыв Manus снова вызвал обсуждение в индустрии о путях развития ИИ: будущее — это путь к единому искусственному интеллекту (AGI) или совместное доминирование многоагентных систем (MAS)?
Дизайнерская концепция Manus подразумевает две возможности:
Путь AGI: постоянное повышение уровня индивидуального интеллекта, чтобы приблизиться к человеческим комплексным能力决策.
MAS-путь: в качестве суперкоординатора, управлять тысячами специализированных агентов, работающих совместно.
На поверхности это разногласия в различных технологических путях, но на самом деле это отражает глубокий конфликт в том, как сбалансировать эффективность и безопасность в развитии ИИ. Чем ближе индивидуальный интеллект к AGI, тем выше риск непрозрачности его процесса принятия решений; в то время как сотрудничество нескольких интеллектуальных агентов может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержки связи.
Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ:
Проблемы конфиденциальности данных: в медицинских сценариях необходимо получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть затронуты непубличные данные компаний.
Алгоритмическая предвзятость: в процессе переговоров о найме могут быть предложены несправедливые зарплаты для определённых групп; при проверке юридических контрактов может быть высокая вероятность ошибочной оценки условий новых отраслей.
Атакующие действия: Хакеры могут вмешиваться в суждения AI-системы, внедряя определённые сигналы.
Эти вызовы подчеркивают суровую реальность: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В ответ на эти вызовы отрасль исследует различные стратегии безопасности:
Модель нулевого доверия: требует строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентичность (DID): обеспечивает проверяемую и долговечную идентификацию личности без необходимости полагаться на централизованный реестр.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных.
Среди них FHE считается ключевой технологией для решения проблем безопасности в эпоху ИИ. Она может сыграть роль в следующих аспектах:
На уровне данных: Вся информация, введенная пользователем, обрабатывается в зашифрованном состоянии, даже сама ИИ-система не может расшифровать исходные данные.
Алгоритмический уровень: реализация "обучения модели с шифрованием" с помощью FHE, что обеспечивает невозможность подглядывания за процессом принятия решений AI.
Координационный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, чтобы предотвратить утечку глобальных данных из-за единой точки сбоя.
Несмотря на то, что развитие технологий безопасности Web3 может не иметь прямой связи с обычными пользователями, оно имеет решающее значение для здорового развития всей экосистемы. В эпоху быстрого развития ИИ важность технологий безопасности очевидна.
С учетом того, что технологии ИИ все более приближаются к уровню человеческого интеллекта, нам нужна более современная система защиты. Такие безопасные технологии, как FHE, способны не только решать текущие проблемы, но и прокладывать путь к будущей эре более мощного ИИ. На пути к AGI эти безопасные технологии больше не являются опцией, а становятся необходимостью для выживания.