Kaff
vip

#LLMs تشبه المتدربين المبالغين في الثقة الذين هم أذكياء وسريعين ويردون دائماً، حتى عندما ليس لديهم أدنى فكرة.



العالم يحاول تدريب ذلك المتدرب بشكل أفضل وقد أنفق مليارات لمحاولة منع الذكاء الاصطناعي من الكذب من خلال إلقاء المزيد من البيانات، المزيد من القواعد، أو المزيد من البشر على المشكلة.

RAG ، الضبط الدقيق ، وخرائط المعرفة كلها تعالج الأعراض ، وليس إصلاح العيب الأساسي. لا زلنا نعتمد على النماذج الفردية لتراقب نفسها.

هذا مثل أن تسأل دماغًا واحدًا أن يتحقق من صحة نفسه. بالطبع سيفوت أشياء.

المشكلة الحقيقية ليست نقص البيانات. إنها نقص الهيكل القابل للتحقق.

بدلاً من محاولة تحسين نموذج واحد، تقوم ميرا بتقسيم المخرجات إلى ادعاءات منفصلة يمكن التحقق منها بشكل مستقل، وتشغلها عبر شبكة من الذكاءات الاصطناعية المتنوعة التي تصوت على صحتها.

إنه تحول كامل في هيكلية حول الحقيقة الموزعة:

قسم كل مخرجات إلى مطالب صغيرة → قم بتشغيلها عبر عدة ذكاء اصطناعي للتحقق مع حوافز اقتصادية → الوصول إلى توافق لامركزي → مصادقة النتيجة → الانتقال.

إنه سريع. إنه معياري. لا يهمه ما إذا كان المحتوى جاء من RAG أو LLM أو حتى من إنسان. كل ما يهمه هو ما إذا كان يمر بالتحقق الموزع.

لهذا السبب يتجاوز جميع المساومات:

– لا اختناقات بشرية

– لا تحيز نموذج واحد

– لا توجد رسوم بيانية هشة للمعرفة تتقادم بشكل سيء

– لا توجد تعديلات دقيقة تتجاوز نطاقها

أكبر كذبة في الذكاء الاصطناعي الآن هي أنه يمكن التخلص من الهلوسات بالتدريب. #Mira هي الأولى التي تعترف بأنها لا تستطيع، وهذا بالضبط هو السبب في أنهم قد يحلونها بالفعل.
FAST2.46%
MORE15.92%
HEART5.58%
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت