#LLMs就像自信过头的实习生,聪明、快速,总是在回答问题,即使他们完全不知道答案。



世界正在努力更好地训练那个实习生,并已花费数十亿美元试图通过增加更多数据、更多规则或更多人力来阻止人工智能撒谎。

RAG、微调和知识图谱都只是修补症状,而不是解决根本缺陷。我们仍然依赖于单独的模型进行自我监督。

这就像让一个大脑自我核实事实。当然它会遗漏一些东西。

真正的问题不是数据的缺乏,而是缺乏可验证的结构。

Mira不是试图完善单一模型,而是将输出分成离散的、可独立验证的声明,并通过一个多样化的人工智能网络对其有效性进行投票。

这是一种关于分布式真相的架构的彻底转变:

将每个输出分解为微索赔 → 通过多个具有经济激励的验证者AI运行它们 → 达成去中心化共识 → 认证结果 → 继续进行。

它快速。它是模块化的。它不在乎内容是来自RAG、LLM,甚至是人类。它只关心是否通过了分布式验证。

这就是为什么它绕过所有的权衡:

– 没有人为瓶颈

– 无单一模型偏见

– 没有容易老化的脆弱知识图谱

– 没有破坏其领域的微调

目前人工智能中最大的谎言是幻觉可以被训练消除。#Mira 是第一个承认这一点的,这正是他们可能真正解决问题的原因。
FAST-6.91%
MORE11.39%
HEART2.53%
查看原文
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)