📢 Gate广场 #MBG任务挑战# 发帖赢大奖活动火热开启!
想要瓜分1,000枚MBG?现在就来参与,展示你的洞察与实操,成为MBG推广达人!
💰️ 本期将评选出20位优质发帖用户,每人可轻松获得50枚MBG!
如何参与:
1️⃣ 调研MBG项目
对MBG的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与MBG相关活动(包括CandyDrop、Launchpool或现货交易),并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是现货行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
MBG热门活动(帖文需附下列活动链接):
Gate第287期Launchpool:MBG — 质押ETH、MBG即可免费瓜分112,500 MBG,每小时领取奖励!参与攻略见公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通过首次交易、交易MBG、邀请好友注册交易即可分187,500 MBG!参与攻略见公告:https://www.gate.com/announcements
Mira网络启动公测 构建AI信任层减少偏见与幻觉
AI信任层的新尝试:Mira网络公共测试网启动
近日,一个名为Mira的网络公共测试网正式上线。这个项目的目标是为AI构建一个信任层,以解决当前AI系统面临的一些关键挑战。那么,为什么AI需要建立信任,Mira又是如何应对这一问题的呢?
在AI领域,人们往往更多地关注其强大的能力。然而,一个有趣但较少被讨论的问题是AI的"幻觉"或偏见。所谓AI的"幻觉",简单来说就是AI有时会"编造"信息,看似有理有据地胡说八道。例如,如果你问AI为什么月亮是粉色的,它可能会给出一系列看似合理但实际上毫无根据的解释。
AI出现"幻觉"或偏见与当前的一些AI技术路径有关。比如,生成式AI通过预测"最可能"的内容来实现输出的连贯性和合理性,但这种方法有时难以验证真伪。此外,训练数据本身可能包含错误、偏见甚至虚构内容,这些都会影响AI的输出质量。换句话说,AI学习的是人类的语言模式,而非事实本身。
目前的概率生成机制和数据驱动模式几乎不可避免地会导致AI产生"幻觉"。对于普通知识或娱乐内容,这种带有偏见或幻觉的输出可能暂时不会造成直接后果。但如果发生在医疗、法律、航空、金融等要求高度严谨的领域,则可能产生严重后果。因此,如何解决AI的幻觉和偏见问题,成为AI发展过程中的核心问题之一。
目前,业界已有多种应对方案。有的采用检索增强生成技术,将AI与实时数据库结合,优先输出已验证的事实。有的引入人类反馈,通过人工标注和监督来纠正模型的错误。
Mira项目也在尝试解决AI偏见和幻觉的问题。它的核心思路是通过构建AI的信任层,来减少AI偏见和幻觉,提升AI的可靠性。那么,Mira是如何实现这一目标的呢?
Mira的核心思路是通过多个AI模型的共识来验证AI输出。Mira本质上是一个验证网络,它利用多个AI模型的共识来验证AI输出的可靠性。此外,Mira还引入了去中心化共识来进行验证。
Mira网络的关键在于去中心化的共识验证。这种方法借鉴了加密领域的技术,同时利用了多模型协同的优势,通过集体验证模式来减少偏见和幻觉。
在验证架构方面,Mira协议支持将复杂内容转换为独立可验证的声明。这些声明需要节点运营商参与验证。为了确保节点运营商的诚实性,Mira采用了加密经济激励/惩罚机制。不同的AI模型和分散的节点运营商共同参与,以保证验证结果的可靠性。
Mira的网络架构包括内容转换、分布式验证和共识机制,以此实现验证的可靠性。在这个架构中,内容转换是重要环节。Mira网络首先将候选内容(通常由客户提交)分解成不同的可验证声明,以确保模型能在相同背景下理解内容。这些声明由系统分发给节点进行验证,以确定声明的有效性,并汇总结果达成共识。最终,这些结果和共识会返回给客户。为了保护客户隐私,候选内容被转换分解为声明对,并以随机分片的方式分发给不同节点,防止验证过程中出现信息泄露。
节点运营商负责运行验证器模型,处理声明并提交验证结果。他们之所以愿意参与验证,是因为可以获得收益。这些收益来自为客户创造的价值。Mira网络的目标是降低AI的错误率(减少幻觉和偏见),一旦达成这个目标,就能在医疗、法律、航空、金融等领域产生巨大价值。因此,客户愿意为此付费。当然,付费的可持续性和规模取决于Mira网络能否持续为客户带来价值。为了防止节点随机响应的投机行为,持续偏离共识的节点会被扣减质押代币。总的来说,Mira通过经济机制的博弈来确保节点运营商诚实参与验证。
Mira为实现AI的可靠性提供了一种新思路:在多AI模型基础上构建去中心化共识验证网络,为客户的AI服务带来更高可靠性,降低AI偏见和幻觉,满足客户对更高准确度和精确率的需求。同时,在为客户提供价值的基础上,为Mira网络的参与者带来收益。简而言之,Mira正在尝试构建AI的信任层,这将推动AI应用的深入发展。
目前,用户可以通过Klok参与Mira公共测试网。Klok是一个基于Mira的LLM聊天应用,用户可以体验经过验证的AI输出,并比较它与未经验证的AI输出的区别。参与者还可以赚取Mira积分,不过这些积分的未来用途目前尚未公布。