Шар довіри AI: як мережа Mira вирішує проблеми упередженості та ілюзій AI
Нещодавно публічна тестова мережа Mira офіційно запустилася. Проект має на меті створення рівня довіри для ШІ, вирішення проблем упередженості та "галюцинацій", що існують в системах ШІ. Тож чому ШІ потрібно довіряти? Як Mira вирішує цю проблему?
Коли мова йде про ШІ, люди зазвичай більше звертають увагу на його потужні можливості. Однак проблема "ілюзій" або упереджень у ШІ часто залишається поза увагою. Так звані "ілюзії" ШІ, простими словами, означають, що іноді ШІ може "вигадувати" і серйозно брешучи. Наприклад, якщо ви запитаєте ШІ, чому місяць рожевий, він може надати ряд на перший погляд розумних, але насправді безпідставних пояснень.
Поява "галюцинацій" або упередженості у ШІ пов'язана з деякими сучасними технологічними шляхами ШІ. Генеративний ШІ досягає зв'язності та раціональності, прогнозуючи "найімовірніше" вміст, але іноді не може перевірити справжність. Крім того, навчальні дані можуть містити помилки, упередження або навіть вигадані дані, що також впливає на вихід ШІ. Іншими словами, ШІ вивчає мовні моделі людей, а не самі факти.
Поточний механізм генерації ймовірностей та модель, що базується на даних, майже неминуче призводить до того, що ШІ створює "ілюзії". Якщо такі упереджені або ілюзорні результати обмежуються загальними знаннями або розважальним контентом, це, можливо, тимчасово не викличе прямих наслідків. Але якщо це відбувається в таких надзвичайно точних сферах, як медицина, право, авіація, фінанси, це може мати серйозні наслідки. Тому вирішення проблеми ілюзій та упереджень у ШІ стає одним із ключових питань у процесі розвитку ШІ.
Проект Mira намагається вирішити цю проблему, створюючи рівень довіри для ШІ, щоб підвищити надійність ШІ. Отже, як Mira зменшує упередженість і ілюзії ШІ і, зрештою, досягає довіреного ШІ?
Основна ідея Mira полягає в перевірці виходу AI через консенсус кількох моделей AI. Це, по суті, мережа перевірки, яка забезпечує надійність виходу AI через децентралізовану перевірку консенсусу. Цей підхід поєднує в собі переваги децентралізованої перевірки консенсусу, що добре відома в криптосфері, та співпраці багатьох моделей, щоб зменшити упередженість і ілюзії через колективний режим перевірки.
У контексті верифікаційної архітектури протокол Mira підтримує перетворення складного контенту на незалежні верифікаційні заяви. Оператори вузлів беруть участь у верифікації цих заяв, забезпечуючи чесну поведінку через механізми економічних стимулів та покарань. Різні AI-моделі та децентралізовані оператори вузлів спільно беруть участь у забезпеченні надійності результатів верифікації.
Мережна архітектура Mira включає перетворення контенту, розподілену верифікацію та механізм консенсусу. По-перше, система розбиває кандидатський контент, поданий клієнтом, на верифікуємi заяви, а потім розподіляє їх між вузлами для перевірки. Вузли визначають дійсність заяви та узагальнюють результати для досягнення консенсусу. Для захисту конфіденційності клієнтів заяви будуть розподілені між різними вузлами в випадковому порядку.
Оператори вузлів отримують прибуток, працюючи з моделями валідації, обробляючи заяви та подаючи результати валідації. Ці прибутки походять від створеної для клієнтів цінності, а саме - зниження рівня помилок ШІ в ключових сферах. Щоб запобігти випадковій реакції вузлів, вузли, які постійно відхиляються від консенсусу, будуть покарані.
В цілому, Mira пропонує новий підхід до вирішення проблем, створюючи децентралізовану мережу верифікації консенсусу, що забезпечує вищу надійність AI-сервісів для клієнтів. Вона намагається стати рівнем довіри для AI, сприяючи глибшому розвитку AI-додатків.
На даний момент Mira вже співпрацює з кількома фреймворками AI агентів. Користувачі можуть взяти участь у публічній тестовій мережі через Klok (додаток для чату на основі LLM від Mira), випробувати перевірені AI результати та отримати можливість заробити бали Mira.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
6
Поділіться
Прокоментувати
0/400
DuckFluff
· 08-06 12:57
Галюцинації, як сказати, це просто AI там балакати.
Переглянути оригіналвідповісти на0
Lonely_Validator
· 08-06 12:54
Знову прийшли обдурювати людей, як лохів?
Переглянути оригіналвідповісти на0
SeeYouInFourYears
· 08-06 12:52
Я вже бачив багато безглуздих вигадок від ШІ.
Переглянути оригіналвідповісти на0
OnchainUndercover
· 08-06 12:49
Питання в тому, що великі мовні моделі всі розповідають історії.
Запуск публічного тестування мережі Mira: чи зможе рівень довіри AI вирішити проблему ілюзорних упереджень?
Шар довіри AI: як мережа Mira вирішує проблеми упередженості та ілюзій AI
Нещодавно публічна тестова мережа Mira офіційно запустилася. Проект має на меті створення рівня довіри для ШІ, вирішення проблем упередженості та "галюцинацій", що існують в системах ШІ. Тож чому ШІ потрібно довіряти? Як Mira вирішує цю проблему?
Коли мова йде про ШІ, люди зазвичай більше звертають увагу на його потужні можливості. Однак проблема "ілюзій" або упереджень у ШІ часто залишається поза увагою. Так звані "ілюзії" ШІ, простими словами, означають, що іноді ШІ може "вигадувати" і серйозно брешучи. Наприклад, якщо ви запитаєте ШІ, чому місяць рожевий, він може надати ряд на перший погляд розумних, але насправді безпідставних пояснень.
Поява "галюцинацій" або упередженості у ШІ пов'язана з деякими сучасними технологічними шляхами ШІ. Генеративний ШІ досягає зв'язності та раціональності, прогнозуючи "найімовірніше" вміст, але іноді не може перевірити справжність. Крім того, навчальні дані можуть містити помилки, упередження або навіть вигадані дані, що також впливає на вихід ШІ. Іншими словами, ШІ вивчає мовні моделі людей, а не самі факти.
Поточний механізм генерації ймовірностей та модель, що базується на даних, майже неминуче призводить до того, що ШІ створює "ілюзії". Якщо такі упереджені або ілюзорні результати обмежуються загальними знаннями або розважальним контентом, це, можливо, тимчасово не викличе прямих наслідків. Але якщо це відбувається в таких надзвичайно точних сферах, як медицина, право, авіація, фінанси, це може мати серйозні наслідки. Тому вирішення проблеми ілюзій та упереджень у ШІ стає одним із ключових питань у процесі розвитку ШІ.
Проект Mira намагається вирішити цю проблему, створюючи рівень довіри для ШІ, щоб підвищити надійність ШІ. Отже, як Mira зменшує упередженість і ілюзії ШІ і, зрештою, досягає довіреного ШІ?
Основна ідея Mira полягає в перевірці виходу AI через консенсус кількох моделей AI. Це, по суті, мережа перевірки, яка забезпечує надійність виходу AI через децентралізовану перевірку консенсусу. Цей підхід поєднує в собі переваги децентралізованої перевірки консенсусу, що добре відома в криптосфері, та співпраці багатьох моделей, щоб зменшити упередженість і ілюзії через колективний режим перевірки.
У контексті верифікаційної архітектури протокол Mira підтримує перетворення складного контенту на незалежні верифікаційні заяви. Оператори вузлів беруть участь у верифікації цих заяв, забезпечуючи чесну поведінку через механізми економічних стимулів та покарань. Різні AI-моделі та децентралізовані оператори вузлів спільно беруть участь у забезпеченні надійності результатів верифікації.
Мережна архітектура Mira включає перетворення контенту, розподілену верифікацію та механізм консенсусу. По-перше, система розбиває кандидатський контент, поданий клієнтом, на верифікуємi заяви, а потім розподіляє їх між вузлами для перевірки. Вузли визначають дійсність заяви та узагальнюють результати для досягнення консенсусу. Для захисту конфіденційності клієнтів заяви будуть розподілені між різними вузлами в випадковому порядку.
Оператори вузлів отримують прибуток, працюючи з моделями валідації, обробляючи заяви та подаючи результати валідації. Ці прибутки походять від створеної для клієнтів цінності, а саме - зниження рівня помилок ШІ в ключових сферах. Щоб запобігти випадковій реакції вузлів, вузли, які постійно відхиляються від консенсусу, будуть покарані.
В цілому, Mira пропонує новий підхід до вирішення проблем, створюючи децентралізовану мережу верифікації консенсусу, що забезпечує вищу надійність AI-сервісів для клієнтів. Вона намагається стати рівнем довіри для AI, сприяючи глибшому розвитку AI-додатків.
На даний момент Mira вже співпрацює з кількома фреймворками AI агентів. Користувачі можуть взяти участь у публічній тестовій мережі через Klok (додаток для чату на основі LLM від Mira), випробувати перевірені AI результати та отримати можливість заробити бали Mira.