#LLM похожи на самоуверенных стажёров, которые умные, быстрые и всегда отвечают, даже когда понятия не имеют.
Мир пытается лучше обучить этого стажера и потратил миллиарды, пытаясь остановить ИИ от лжи, бросая больше данных, больше правил или больше людей на эту проблему.
RAG, тонкая настройка и графы знаний все устраняют симптомы, не исправляя основную неисправность. Мы по-прежнему полагаемся на индивидуальные модели для самоконтроля.
Это всё равно что спросить один мозг проверить самого себя. Конечно, он пропустит некоторые вещи.
Настоящая проблема не в нехватке данных. Проблема в отсутствии проверяемой структуры.
Вместо того чтобы пытаться усовершенствовать единую модель, Mira разделяет выводы на дискретные, независимо проверяемые утверждения и пропускает их через сеть различных ИИ, которые голосуют за их достоверность.
Это полный сдвиг в архитектуре вокруг распределенной правды:
Разделите каждый вывод на микро-претензии → пропустите их через несколько проверяющих ИИ с экономическими стимулами → достигните децентрализованного консенсуса → сертифицируйте результат → продолжайте.
Он быстрый. Он модульный. Ему не важно, пришло ли содержимое от RAG, LLM или даже от человека. Ему важно только, прошел ли он распределенную проверку.
Вот почему это обходит все компромиссы:
– Нет человеческих узких мест
– Нет односторонней предвзятости модели
– Нет хрупких графов знаний, которые быстро устаревают
– Нет тонкой настройки, которая выходит за рамки своей полосы
Самая большая ложь в ИИ сейчас заключается в том, что галлюцинации можно убрать с помощью обучения. #Mira - первый, кто признает, что это невозможно, и именно поэтому они могут действительно решить эту проблему.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
#LLM похожи на самоуверенных стажёров, которые умные, быстрые и всегда отвечают, даже когда понятия не имеют.
Мир пытается лучше обучить этого стажера и потратил миллиарды, пытаясь остановить ИИ от лжи, бросая больше данных, больше правил или больше людей на эту проблему.
RAG, тонкая настройка и графы знаний все устраняют симптомы, не исправляя основную неисправность. Мы по-прежнему полагаемся на индивидуальные модели для самоконтроля.
Это всё равно что спросить один мозг проверить самого себя. Конечно, он пропустит некоторые вещи.
Настоящая проблема не в нехватке данных. Проблема в отсутствии проверяемой структуры.
Вместо того чтобы пытаться усовершенствовать единую модель, Mira разделяет выводы на дискретные, независимо проверяемые утверждения и пропускает их через сеть различных ИИ, которые голосуют за их достоверность.
Это полный сдвиг в архитектуре вокруг распределенной правды:
Разделите каждый вывод на микро-претензии → пропустите их через несколько проверяющих ИИ с экономическими стимулами → достигните децентрализованного консенсуса → сертифицируйте результат → продолжайте.
Он быстрый. Он модульный. Ему не важно, пришло ли содержимое от RAG, LLM или даже от человека. Ему важно только, прошел ли он распределенную проверку.
Вот почему это обходит все компромиссы:
– Нет человеческих узких мест
– Нет односторонней предвзятости модели
– Нет хрупких графов знаний, которые быстро устаревают
– Нет тонкой настройки, которая выходит за рамки своей полосы
Самая большая ложь в ИИ сейчас заключается в том, что галлюцинации можно убрать с помощью обучения. #Mira - первый, кто признает, что это невозможно, и именно поэтому они могут действительно решить эту проблему.