GM! Bugünün LLM'leri kendinden emin olacak şekilde tasarlanmıştır. Her bir kısmı doğrulamak için yerleşik bir yol olmadan, cilalı cevapların tam paragraflarını üretirler.
Gerçekten ikna edici olan ve asla makbuz göstermeyen birine güvenmek gibi.
Mükemmel modeli ince ayar yapmaya çalışmak yerine, her modelin bazen yanlış olacağını varsayıyorlar. Bu yüzden, tasarım gereği doğrulanabilir hale getiriyorlar.
Öncelikle, çıktıları atomik taleplere bölerler.
Diyelim ki bir #AI size bu ifadeyi veriyor: “Bitcoin, 2008 yılında Satoshi Nakamoto tarafından oluşturulan en yaygın tutulan kripto para birimidir.”
Mira bunu sadece tek bir ifade olarak almaz. Bunu ayrı, doğrulanabilir iddialara böler:
→ "Bitcoin en yaygın olarak tutulan kripto para birimidir"
→ "Bitcoin Satoshi Nakamoto tarafından yaratıldı"
→ "Bitcoin 2008'de yaratıldı"
Her biri ağ tarafından bağımsız olarak doğrulanabilir. Bir tanesi, en yaygın olarak nasıl tanımlandığınız gibi öznel olabilir, diğeri ise kim tarafından yaratıldığı gibi nesneldir ve bir diğeri de ne zaman yapıldığı gibi zamansaldır.
Bu, bulanık AI çıktılarının modelin hislerine güvenmeden net, doğrulanabilir iddialara dönüştürülmesi olan ikilemenin gücüdür.
Sonra bu talepleri, hiçbir düğümün tam girişi görmediği merkeziyetsiz bir doğrulayıcı ağına gönderirler. Bu dağıtık doğrulamadır. Her düğüm bir parçayı kontrol eder, gizliliği korur ve güvenin dar boğaz haline gelmesini sağlar.
Şimdi, bu doğrulayıcıları nasıl dürüst tutarsınız? → Onları pay koymaya zorlayın.
Her düğümün oyunda bir payı var. Eğer bir yanılsamayı doğruluyorsa, kesiliyor. Bu, doğrulamanın kanıtıdır; çıkarımı gerçek ekonomik işe dönüştürür, sadece spekülasyon değil.
Ve nihayet gerçek uzlaşma geliyor: her model neredeyse tamamen aynı fikirde olmalıdır. %51 değil.
Mira, bağımsız olarak eğitilmiş modeller arasında neredeyse oybirliği ile anlaşma talep ediyor.
Yani tüm cevapları veren tek bir dahi modele güvenmek yerine, Mira birkaç kusurlu ajanın birbirleri üzerinde ekonomik ve matematiksel kontroller yaparak yalnızca gerçeğin kalmasını sağladığı bir protokol geliştirdi.
Gerçekliği güveni ölçeklendirmek için bir konsensüs makinesidir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
GM! Bugünün LLM'leri kendinden emin olacak şekilde tasarlanmıştır. Her bir kısmı doğrulamak için yerleşik bir yol olmadan, cilalı cevapların tam paragraflarını üretirler.
Gerçekten ikna edici olan ve asla makbuz göstermeyen birine güvenmek gibi.
Mükemmel modeli ince ayar yapmaya çalışmak yerine, her modelin bazen yanlış olacağını varsayıyorlar. Bu yüzden, tasarım gereği doğrulanabilir hale getiriyorlar.
Öncelikle, çıktıları atomik taleplere bölerler.
Diyelim ki bir #AI size bu ifadeyi veriyor: “Bitcoin, 2008 yılında Satoshi Nakamoto tarafından oluşturulan en yaygın tutulan kripto para birimidir.”
Mira bunu sadece tek bir ifade olarak almaz. Bunu ayrı, doğrulanabilir iddialara böler:
→ "Bitcoin en yaygın olarak tutulan kripto para birimidir"
→ "Bitcoin Satoshi Nakamoto tarafından yaratıldı"
→ "Bitcoin 2008'de yaratıldı"
Her biri ağ tarafından bağımsız olarak doğrulanabilir. Bir tanesi, en yaygın olarak nasıl tanımlandığınız gibi öznel olabilir, diğeri ise kim tarafından yaratıldığı gibi nesneldir ve bir diğeri de ne zaman yapıldığı gibi zamansaldır.
Bu, bulanık AI çıktılarının modelin hislerine güvenmeden net, doğrulanabilir iddialara dönüştürülmesi olan ikilemenin gücüdür.
Sonra bu talepleri, hiçbir düğümün tam girişi görmediği merkeziyetsiz bir doğrulayıcı ağına gönderirler.
Bu dağıtık doğrulamadır. Her düğüm bir parçayı kontrol eder, gizliliği korur ve güvenin dar boğaz haline gelmesini sağlar.
Şimdi, bu doğrulayıcıları nasıl dürüst tutarsınız? → Onları pay koymaya zorlayın.
Her düğümün oyunda bir payı var. Eğer bir yanılsamayı doğruluyorsa, kesiliyor. Bu, doğrulamanın kanıtıdır; çıkarımı gerçek ekonomik işe dönüştürür, sadece spekülasyon değil.
Ve nihayet gerçek uzlaşma geliyor: her model neredeyse tamamen aynı fikirde olmalıdır. %51 değil.
Mira, bağımsız olarak eğitilmiş modeller arasında neredeyse oybirliği ile anlaşma talep ediyor.
Yani tüm cevapları veren tek bir dahi modele güvenmek yerine, Mira birkaç kusurlu ajanın birbirleri üzerinde ekonomik ve matematiksel kontroller yaparak yalnızca gerçeğin kalmasını sağladığı bir protokol geliştirdi.
Gerçekliği güveni ölçeklendirmek için bir konsensüs makinesidir.