#LLMs são como estagiários excessivamente confiantes que são inteligentes, rápidos e estão sempre a responder, mesmo quando não têm a menor ideia.
O mundo está a tentar treinar melhor esse estagiário e gastou biliões a tentar impedir que a IA minta, lançando mais dados, mais regras ou mais humanos sobre o problema.
RAG, ajuste fino e gráficos de conhecimento estão todos a remediar o sintoma, não a corrigir a falha subjacente. Continuamos a depender de modelos individuais para se auto-regularem.
Isso é como pedir a um cérebro para verificar os próprios fatos. Claro que vai deixar passar algumas coisas.
O verdadeiro problema não é a falta de dados. É a falta de uma estrutura verificável.
Em vez de tentar aperfeiçoar um único modelo, a Mira divide as saídas em afirmações discretas e independentemente verificáveis, e as processa através de uma rede de AIs diversas que votam na sua validade.
É uma mudança total na arquitetura em torno da verdade distribuída:
Quebre cada saída em micro-reivindicações → passe-as por várias IAs verificadoras com incentivos econômicos → alcance consenso descentralizado → certifique o resultado → siga em frente.
É rápido. É modular. Não se importa se o conteúdo veio de RAG, de um LLM ou até mesmo de um humano. Apenas se importa se passa pela verificação distribuída.
É por isso que contorna todos os trade-offs:
– Sem gargalos humanos
– Nenhum viés de modelo único
– Sem gráficos de conhecimento frágeis que envelhecem mal
– Sem ajuste fino que quebre fora da sua faixa
A maior mentira na IA neste momento é que as alucinações podem ser treinadas para fora. #Mira é a primeira a admitir que não podem e é exatamente por isso que podem realmente resolvê-lo.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
#LLMs são como estagiários excessivamente confiantes que são inteligentes, rápidos e estão sempre a responder, mesmo quando não têm a menor ideia.
O mundo está a tentar treinar melhor esse estagiário e gastou biliões a tentar impedir que a IA minta, lançando mais dados, mais regras ou mais humanos sobre o problema.
RAG, ajuste fino e gráficos de conhecimento estão todos a remediar o sintoma, não a corrigir a falha subjacente. Continuamos a depender de modelos individuais para se auto-regularem.
Isso é como pedir a um cérebro para verificar os próprios fatos. Claro que vai deixar passar algumas coisas.
O verdadeiro problema não é a falta de dados. É a falta de uma estrutura verificável.
Em vez de tentar aperfeiçoar um único modelo, a Mira divide as saídas em afirmações discretas e independentemente verificáveis, e as processa através de uma rede de AIs diversas que votam na sua validade.
É uma mudança total na arquitetura em torno da verdade distribuída:
Quebre cada saída em micro-reivindicações → passe-as por várias IAs verificadoras com incentivos econômicos → alcance consenso descentralizado → certifique o resultado → siga em frente.
É rápido. É modular. Não se importa se o conteúdo veio de RAG, de um LLM ou até mesmo de um humano. Apenas se importa se passa pela verificação distribuída.
É por isso que contorna todos os trade-offs:
– Sem gargalos humanos
– Nenhum viés de modelo único
– Sem gráficos de conhecimento frágeis que envelhecem mal
– Sem ajuste fino que quebre fora da sua faixa
A maior mentira na IA neste momento é que as alucinações podem ser treinadas para fora. #Mira é a primeira a admitir que não podem e é exatamente por isso que podem realmente resolvê-lo.