Модель Manus досягла проривного прогресу, викликавши суперечки щодо шляхів розвитку ШІ
Нещодавно модель Manus досягла вражаючих результатів у бенчмарку GAIA, її продуктивність перевершила продуктивність великих мовних моделей того ж рівня. Manus продемонструвала здатність самостійно виконувати складні завдання, такі як обробка міжнародних бізнес-угод, що включає аналіз контрактних умов, розробку стратегій та генерування варіантів. Порівняно з традиційними системами, переваги Manus полягають у динамічному розподілі цілей, крос-модальному міркуванні та можливостях навчання з підсиленням пам'яті. Вона може розбити складні завдання на сотні виконуваних підзадач, обробляючи при цьому кілька типів даних, і через навчання з підсиленням постійно підвищувати ефективність прийняття рішень та знижувати рівень помилок.
Успіх Manus викликав обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи буде майбутнє єдиною моделлю загального штучного інтелекту (AGI), чи колабораційною моделлю багатоманітних систем (MAS)? Ця суперечка виникла через дизайн-концепцію Manus, яка натякає на два можливі напрями розвитку:
Шлях AGI: постійно підвищуючи можливості окремої інтелектуальної системи, наближати її до комплексних рішень людини.
Шлях MAS: використовувати Manus як суперкоординатора, який керує тисячами професійних агентів у їхній спільній роботі.
Ця дискусія насправді відображає одну з основних суперечностей у розвитку ШІ: як збалансувати ефективність і безпеку. Оскільки окремі інтелектуальні системи все ближчі до AGI, ризики, пов'язані з непрозорістю їхніх процесів прийняття рішень, також зростають. Хоча співпраця багатьох агентів може розподілити ризики, затримки в комунікації можуть призвести до втрати ключових моментів для прийняття рішень.
Прогрес Manus також підкреслює потенційні ризики розвитку ШІ, такі як витік даних, упередженість алгоритмів та атаки зловмисників. Наприклад, у медичному контексті системі потрібно отримати доступ до чутливих геномних даних пацієнтів; у фінансових переговорах можуть бути залучені непублічні фінансові дані компаній. Крім того, під час процесу найму система може виявляти упередженість щодо певних груп; при перевірці юридичних контрактів можуть бути високі помилки в інтерпретації умов нових галузей. Ще серйозніше, хакери можуть через вбудування певних аудіосигналів заважати системі у її судженнях під час переговорів.
Ці виклики підкреслюють тривожний факт: чим розумніші системи ШІ, тим ширша їхня потенційна зона атаки.
Щоб впоратися з цими викликами безпеки, галузь запропонувала кілька рішень, серед яких технологія повної гомоморфної криптографії (FHE) вважається перспективним методом. FHE дозволяє виконувати обчислення над даними в зашифрованому стані, що є надзвичайно важливим для захисту чутливої інформації в системах ШІ.
Зокрема, FHE може покращити безпеку систем штучного інтелекту в наступних аспектах:
Дані на рівні: Уся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому вигляді, навіть сама система ШІ не може розшифрувати оригінальні дані.
Алгоритмічний рівень: реалізація "навчання зашифрованої моделі" за допомогою FHE, що дозволяє навіть розробникам не мати можливості безпосередньо спостерігати за процесом прийняття рішень AI.
Співпраця: зв'язок між кількома розумними агентами здійснюється за допомогою шифрування з пороговим значенням, і навіть якщо один вузол буде зламаний, це не призведе до витоку глобальних даних.
З розвитком технологій ШІ питання безпеки стає все більш важливим. Передові технології шифрування, такі як FHE, не лише вирішують поточні виклики, але й закладають безпечну основу для потужніших систем ШІ в майбутньому. На шляху до AGI ці технології безпеки більше не є опційними, а є необхідною умовою для надійної роботи систем ШІ.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
3
Поділіться
Прокоментувати
0/400
0xSleepDeprived
· 15год тому
Все ще крутите технічний індикатор, рано чи пізно стане революційною машиною
Переглянути оригіналвідповісти на0
AirdropHunter007
· 15год тому
Знову ai буде грабувати невдахи.
Переглянути оригіналвідповісти на0
TokenVelocityTrauma
· 15год тому
Зробило так, що голова розболілася, AI багатопрофільний чи єдиний...
Прорив моделі Manus викликав суперечки щодо шляхів розвитку ШІ, повністю гомоморфне шифрування може стати ключовим.
Модель Manus досягла проривного прогресу, викликавши суперечки щодо шляхів розвитку ШІ
Нещодавно модель Manus досягла вражаючих результатів у бенчмарку GAIA, її продуктивність перевершила продуктивність великих мовних моделей того ж рівня. Manus продемонструвала здатність самостійно виконувати складні завдання, такі як обробка міжнародних бізнес-угод, що включає аналіз контрактних умов, розробку стратегій та генерування варіантів. Порівняно з традиційними системами, переваги Manus полягають у динамічному розподілі цілей, крос-модальному міркуванні та можливостях навчання з підсиленням пам'яті. Вона може розбити складні завдання на сотні виконуваних підзадач, обробляючи при цьому кілька типів даних, і через навчання з підсиленням постійно підвищувати ефективність прийняття рішень та знижувати рівень помилок.
Успіх Manus викликав обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи буде майбутнє єдиною моделлю загального штучного інтелекту (AGI), чи колабораційною моделлю багатоманітних систем (MAS)? Ця суперечка виникла через дизайн-концепцію Manus, яка натякає на два можливі напрями розвитку:
Шлях AGI: постійно підвищуючи можливості окремої інтелектуальної системи, наближати її до комплексних рішень людини.
Шлях MAS: використовувати Manus як суперкоординатора, який керує тисячами професійних агентів у їхній спільній роботі.
Ця дискусія насправді відображає одну з основних суперечностей у розвитку ШІ: як збалансувати ефективність і безпеку. Оскільки окремі інтелектуальні системи все ближчі до AGI, ризики, пов'язані з непрозорістю їхніх процесів прийняття рішень, також зростають. Хоча співпраця багатьох агентів може розподілити ризики, затримки в комунікації можуть призвести до втрати ключових моментів для прийняття рішень.
Прогрес Manus також підкреслює потенційні ризики розвитку ШІ, такі як витік даних, упередженість алгоритмів та атаки зловмисників. Наприклад, у медичному контексті системі потрібно отримати доступ до чутливих геномних даних пацієнтів; у фінансових переговорах можуть бути залучені непублічні фінансові дані компаній. Крім того, під час процесу найму система може виявляти упередженість щодо певних груп; при перевірці юридичних контрактів можуть бути високі помилки в інтерпретації умов нових галузей. Ще серйозніше, хакери можуть через вбудування певних аудіосигналів заважати системі у її судженнях під час переговорів.
Ці виклики підкреслюють тривожний факт: чим розумніші системи ШІ, тим ширша їхня потенційна зона атаки.
Щоб впоратися з цими викликами безпеки, галузь запропонувала кілька рішень, серед яких технологія повної гомоморфної криптографії (FHE) вважається перспективним методом. FHE дозволяє виконувати обчислення над даними в зашифрованому стані, що є надзвичайно важливим для захисту чутливої інформації в системах ШІ.
Зокрема, FHE може покращити безпеку систем штучного інтелекту в наступних аспектах:
Дані на рівні: Уся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому вигляді, навіть сама система ШІ не може розшифрувати оригінальні дані.
Алгоритмічний рівень: реалізація "навчання зашифрованої моделі" за допомогою FHE, що дозволяє навіть розробникам не мати можливості безпосередньо спостерігати за процесом прийняття рішень AI.
Співпраця: зв'язок між кількома розумними агентами здійснюється за допомогою шифрування з пороговим значенням, і навіть якщо один вузол буде зламаний, це не призведе до витоку глобальних даних.
З розвитком технологій ШІ питання безпеки стає все більш важливим. Передові технології шифрування, такі як FHE, не лише вирішують поточні виклики, але й закладають безпечну основу для потужніших систем ШІ в майбутньому. На шляху до AGI ці технології безпеки більше не є опційними, а є необхідною умовою для надійної роботи систем ШІ.