Mira网络上线公测:AI信任层能否解决幻觉偏见问题

AI信任层:Mira网络如何解决AI偏见和幻觉问题

近日,Mira网络的公共测试网正式上线。该项目旨在构建AI的信任层,解决AI系统中存在的偏见和"幻觉"问题。那么,为什么AI需要被信任?Mira又是如何解决这个问题的?

在讨论AI时,人们往往更关注其强大的能力。然而,AI存在"幻觉"或偏见的问题却常常被忽视。所谓AI的"幻觉",简单来说就是AI有时会"瞎编",一本正经地胡说八道。例如,如果你问AI为什么月亮是粉色的,它可能会给出一系列看似合理但实际上毫无根据的解释。

AI出现"幻觉"或偏见与当前的一些AI技术路径有关。生成式AI通过预测"最可能"的内容来实现连贯和合理性,但有时无法验证真伪。此外,训练数据本身可能包含错误、偏见甚至虚构内容,这也会影响AI的输出。换言之,AI学习的是人类语言模式而非事实本身。

目前的概率生成机制和数据驱动模式几乎不可避免地会导致AI产生"幻觉"。如果这种带有偏见或幻觉的输出仅限于普通知识或娱乐内容,暂时可能不会造成直接后果。但如果发生在医疗、法律、航空、金融等高度严谨的领域,可能会产生重大影响。因此,解决AI幻觉和偏见问题成为AI发展过程中的核心问题之一。

Mira项目试图通过构建AI的信任层来解决这一问题,提升AI的可靠性。那么,Mira是如何减少AI的偏见和幻觉,并最终实现可信任的AI呢?

Mira的核心理念是通过多个AI模型的共识来验证AI输出。它本质上是一个验证网络,通过去中心化的共识验证来确保AI输出的可靠性。这种方法结合了加密领域擅长的去中心化共识验证和多模型协同的优势,通过集体验证模式来减少偏见和幻觉。

在验证架构方面,Mira协议支持将复杂内容转换为独立验证声明。节点运营商参与验证这些声明,通过加密经济激励和惩罚机制来确保诚实行为。不同AI模型和分散的节点运营商共同参与,以保证验证结果的可靠性。

Mira的网络架构包括内容转换、分布式验证和共识机制。首先,系统将客户提交的候选内容分解成可验证声明,然后分发给节点进行验证。节点确定声明的有效性,并汇总结果达成共识。为保护客户隐私,声明对会以随机分片的方式分发给不同节点。

节点运营商通过运行验证器模型、处理声明和提交验证结果来获得收益。这些收益来自为客户创造的价值,即降低AI在关键领域的错误率。为防止节点随机响应,持续偏离共识的节点会被惩罚。

总的来说,Mira提供了一种新的解决思路,通过构建去中心化共识验证网络,为客户的AI服务带来更高的可靠性。它试图成为AI的信任层,推动AI应用的深入发展。

目前,Mira已经与多个AI agent框架展开合作。用户可以通过Klok(一个基于Mira的LLM聊天应用)参与公共测试网,体验经过验证的AI输出,并有机会赚取Mira积分。

AGENT4.98%
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 分享
评论
0/400
鸭鸭毛毛vip
· 22小时前
幻觉咋说呢 就是AI在那瞎扯呗
回复0
Lonely_Validatorvip
· 22小时前
又来割韭菜的吧
回复0
SeeYouInFourYearsvip
· 22小时前
ai的瞎编我见多了
回复0
链上无间道vip
· 22小时前
问就是大语言模型都在讲故事
回复0
TheShibaWhisperervip
· 22小时前
造妖币的皮套也会咬人滴捏
回复0
MEV之泪vip
· 22小时前
典啊 都想赚AI的米
回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)