#LLMs就像自信過頭的實習生,聰明、快速,總是在回答問題,即使他們完全不知道答案。



世界正在努力更好地訓練那個實習生,並已花費數十億美元試圖通過增加更多數據、更多規則或更多人力來阻止人工智能撒謊。

RAG、微調和知識圖譜都只是修補症狀,而不是解決根本缺陷。我們仍然依賴於單獨的模型進行自我監督。

這就像讓一個大腦自我核實事實。當然它會遺漏一些東西。

真正的問題不是數據的缺乏,而是缺乏可驗證的結構。

Mira不是試圖完善單一模型,而是將輸出分成離散的、可獨立驗證的聲明,並通過一個多樣化的人工智能網路對其有效性進行投票。

這是一種關於分布式真相的架構的徹底轉變:

將每個輸出分解爲微索賠 → 通過多個具有經濟激勵的驗證者AI運行它們 → 達成去中心化共識 → 認證結果 → 繼續進行。

它快速。它是模塊化的。它不在乎內容是來自RAG、LLM,甚至是人類。它只關心是否通過了分布式驗證。

這就是爲什麼它繞過所有的權衡:

– 沒有人爲瓶頸

– 無單一模型偏見

– 沒有容易老化的脆弱知識圖譜

– 沒有破壞其領域的微調

目前人工智能中最大的謊言是幻覺可以被訓練消除。#Mira 是第一個承認這一點的,這正是他們可能真正解決問題的原因。
FAST2.69%
MORE13.35%
HEART2.42%
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)