#LLMs sont comme des stagiaires trop confiants qui sont intelligents, rapides et qui répondent toujours, même quand ils n'ont aucune idée.
Le monde essaie de mieux former ce stagiaire et a dépensé des milliards pour empêcher l'IA de mentir en ajoutant plus de données, plus de règles ou plus d'humains à ce problème.
RAG, le réglage fin et les graphes de connaissances ne font que masquer le symptôme, sans corriger le défaut sous-jacent. Nous comptons toujours sur des modèles individuels pour s'auto-réguler.
C'est comme demander à un cerveau de vérifier ses propres faits. Bien sûr, il va manquer des choses.
Le véritable problème n'est pas le manque de données. C'est le manque de structure vérifiable.
Au lieu d'essayer de perfectionner un modèle unique, Mira divise les résultats en revendications discrètes et vérifiables indépendamment, et les fait passer à travers un réseau d'AIs divers qui votent sur leur validité.
C'est un changement total dans l'architecture autour de la vérité distribuée :
Divisez chaque résultat en micro-revendications → faites-les passer par plusieurs IA vérificatrices avec des incitations économiques → atteignez un consensus décentralisé → certifiez le résultat → passez à autre chose.
C'est rapide. C'est modulaire. Cela ne se soucie pas de savoir si le contenu provient de RAG, d'un LLM ou même d'un humain. Cela ne se soucie que de savoir s'il passe la vérification distribuée.
C'est pourquoi cela contourne tous les compromis :
– Pas de goulets d'étranglement humains
– Pas de biais de modèle unique
– Pas de graphiques de connaissances fragiles qui se dégradent avec le temps
– Pas de réglage fin qui sort de son domaine
Le plus grand mensonge dans l'IA en ce moment est que les hallucinations peuvent être entraînées. #Mira est le premier à admettre qu'elles ne peuvent pas être et c'est exactement pourquoi elles pourraient réellement le résoudre.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
#LLMs sont comme des stagiaires trop confiants qui sont intelligents, rapides et qui répondent toujours, même quand ils n'ont aucune idée.
Le monde essaie de mieux former ce stagiaire et a dépensé des milliards pour empêcher l'IA de mentir en ajoutant plus de données, plus de règles ou plus d'humains à ce problème.
RAG, le réglage fin et les graphes de connaissances ne font que masquer le symptôme, sans corriger le défaut sous-jacent. Nous comptons toujours sur des modèles individuels pour s'auto-réguler.
C'est comme demander à un cerveau de vérifier ses propres faits. Bien sûr, il va manquer des choses.
Le véritable problème n'est pas le manque de données. C'est le manque de structure vérifiable.
Au lieu d'essayer de perfectionner un modèle unique, Mira divise les résultats en revendications discrètes et vérifiables indépendamment, et les fait passer à travers un réseau d'AIs divers qui votent sur leur validité.
C'est un changement total dans l'architecture autour de la vérité distribuée :
Divisez chaque résultat en micro-revendications → faites-les passer par plusieurs IA vérificatrices avec des incitations économiques → atteignez un consensus décentralisé → certifiez le résultat → passez à autre chose.
C'est rapide. C'est modulaire. Cela ne se soucie pas de savoir si le contenu provient de RAG, d'un LLM ou même d'un humain. Cela ne se soucie que de savoir s'il passe la vérification distribuée.
C'est pourquoi cela contourne tous les compromis :
– Pas de goulets d'étranglement humains
– Pas de biais de modèle unique
– Pas de graphiques de connaissances fragiles qui se dégradent avec le temps
– Pas de réglage fin qui sort de son domaine
Le plus grand mensonge dans l'IA en ce moment est que les hallucinations peuvent être entraînées. #Mira est le premier à admettre qu'elles ne peuvent pas être et c'est exactement pourquoi elles pourraient réellement le résoudre.