#LLMs схожі на самовпевнених стажерів, які розумні, швидкі та завжди відповідають, навіть коли у них немає уявлення.
Світ намагається навчити цього стажера краще і витратив мільярди, намагаючись зупинити ШІ від обману, кидаючи більше даних, більше правил або більше людей на цю проблему.
RAG, тонке налаштування та графи знань лише усувають симптоми, а не виправляють основний дефект. Ми все ще покладаємося на окремі моделі для самоконтролю.
Це як запитувати один мозок перевірити сам себе. Звичайно, він пропустить деякі речі.
Справжня проблема полягає не в нестачі даних. Справа в нестачі перевірної структури.
Замість того, щоб намагатися вдосконалити єдину модель, Mira розділяє виходи на окремі, незалежно перевіряються твердження, і пропускає їх через мережу різноманітних ШІ, які голосують за їхню дійсність.
Це повний зсув в архітектурі навколо розподіленої істини:
Розділіть кожен вихід на мікозаяви → проганяйте їх через кілька перевірочних ШІ з економічними інcentivами → досягайте децентралізованого консенсусу → сертифікуйте результат → рухайтеся далі.
Це швидко. Це модульно. Йому все одно, чи контент походить з RAG, LLM чи навіть від людини. Йому важливо лише, чи проходить він розподілену верифікацію.
Ось чому це обминає всі компроміси:
– Ніяких людських вузьких місць
– Без упередженості єдиного моделі
– Ніяких крихких графів знань, які швидко застарівають
– Ніякого доопрацювання, яке виходить за межі його сфери
Найбільша брехня в ІІ зараз полягає в тому, що галюцинації можна виключити з навчання. #Mira перший визнає, що це неможливо, і саме тому вони можуть насправді вирішити цю проблему.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
#LLMs схожі на самовпевнених стажерів, які розумні, швидкі та завжди відповідають, навіть коли у них немає уявлення.
Світ намагається навчити цього стажера краще і витратив мільярди, намагаючись зупинити ШІ від обману, кидаючи більше даних, більше правил або більше людей на цю проблему.
RAG, тонке налаштування та графи знань лише усувають симптоми, а не виправляють основний дефект. Ми все ще покладаємося на окремі моделі для самоконтролю.
Це як запитувати один мозок перевірити сам себе. Звичайно, він пропустить деякі речі.
Справжня проблема полягає не в нестачі даних. Справа в нестачі перевірної структури.
Замість того, щоб намагатися вдосконалити єдину модель, Mira розділяє виходи на окремі, незалежно перевіряються твердження, і пропускає їх через мережу різноманітних ШІ, які голосують за їхню дійсність.
Це повний зсув в архітектурі навколо розподіленої істини:
Розділіть кожен вихід на мікозаяви → проганяйте їх через кілька перевірочних ШІ з економічними інcentivами → досягайте децентралізованого консенсусу → сертифікуйте результат → рухайтеся далі.
Це швидко. Це модульно. Йому все одно, чи контент походить з RAG, LLM чи навіть від людини. Йому важливо лише, чи проходить він розподілену верифікацію.
Ось чому це обминає всі компроміси:
– Ніяких людських вузьких місць
– Без упередженості єдиного моделі
– Ніяких крихких графів знань, які швидко застарівають
– Ніякого доопрацювання, яке виходить за межі його сфери
Найбільша брехня в ІІ зараз полягає в тому, що галюцинації можна виключити з навчання. #Mira перший визнає, що це неможливо, і саме тому вони можуть насправді вирішити цю проблему.