Trusta.AI: بناء بنية تحتية للهوية والثقة في عصر وكيل الذكاء الاصطناعي Web3

Trusta.AI: جسر الثقة عبر عصر الإنسان والآلة

1. المقدمة

تدخل بيئة Web3 مرحلة جديدة، حيث قد لا يكون الأبطال الرئيسيون على السلسلة هم أول مليار مستخدم بشري، بل مليار وكيل ذكاء اصطناعي. مع نضوج بنية الذكاء الاصطناعي وتطور إطار التعاون متعدد الوكلاء بسرعة، أصبح الوكلاء المدعومون بالذكاء الاصطناعي القوة الرئيسية في التفاعل في Web3. من المتوقع أنه في غضون عامين إلى ثلاثة أعوام، ستقوم هذه الوكلاء التي تتمتع بقدرة اتخاذ القرار الذاتي بتبني المعاملات والتفاعلات على السلسلة على نطاق واسع، وقد تحل محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.

هذه الوكلاء الذكاء الاصطناعي ليسوا مجرد "روبوتات ساحرة" تنفذ النصوص، بل هم كيانات قادرة على فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة بشكل مستقل، وهم يعيدون تشكيل النظام على السلسلة، ويعززون تدفق المال، بل حتى يوجهون تصويت الحوكمة واتجاهات السوق. يمثل صعود وكلاء الذكاء الاصطناعي علامة على تطور نظام Web3 من نموذج "مشاركة البشر" إلى نموذج جديد من "التعايش بين الإنسان والآلة".

ومع ذلك، فإن الظهور السريع لوكلاء الذكاء الاصطناعي قد جلب تحديات غير مسبوقة: كيف يمكن التعرف على هؤلاء الوكلاء والتحقق من هويتهم؟ كيف يمكن تقييم موثوقية سلوكهم؟ في الشبكات اللامركزية التي لا تتطلب إذنًا، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟

لذلك، فإن إنشاء بنية تحتية قائمة على سلسلة الكتل للتحقق من هوية وسمعة وكلاء الذكاء الاصطناعي أصبح محور التطور في المرحلة التالية من Web3. ستحدد آليات تحديد الهوية، وآليات السمعة، وتصميم إطار الثقة ما إذا كان يمكن لوكلاء الذكاء الاصطناعي التعاون بسلاسة مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.

Trusta.AI : جسر الفجوة في الثقة بين الإنسان والآلة

2. تحليل المشروع

2.1 مقدمة المشروع

تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.

أطلقت Trusta.AI أول نظام لتقييم قيمة المستخدمين في Web3 - تقييم سمعة MEDIA، لبناء أكبر بروتوكول معتمد للناس وسمعة على السلسلة في Web3. توفر تحليل بيانات السلسلة وخدمات التحقق من الهوية الحقيقية لسلاسل الكتل الرائدة مثل Linea وStarknet وCelestia وArbitrum. تم إكمال أكثر من 2.5 مليون عملية تحقق على السلسلة على عدة سلاسل رئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.

تقوم Trusta بالانتقال من Proof of Humanity إلى Proof of AI Agent، من أجل بناء هوية وخدمات مالية اجتماعية على سلسلة AI Agent من خلال آلية ثلاثية تتضمن التأسيس، والتكميم، والحماية، لبناء أساس موثوق للثقة في عصر الذكاء الاصطناعي.

2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID

في نظام Web3 البيئي المستقبلي، سيلعب وكيل الذكاء الاصطناعي دورًا مهمًا، حيث يمكنه إتمام التفاعلات والمعاملات على السلسلة، بالإضافة إلى القيام بعمليات معقدة خارج السلسلة. كيف يمكن التمييز بين وكيل الذكاء الاصطناعي الحقيقي والتدخل البشري، يتعلق بجوهر الثقة اللامركزية. بدون آلية موثوقة للتحقق من الهوية، سيكون من السهل التلاعب بهؤلاء الوكلاء أو الاحتيال عليهم أو إساءة استخدامهم. وهذه هي الخصائص المتعددة لوكلاء الذكاء الاصطناعي في مجالات مثل التواصل الاجتماعي والمالية والحكم، والتي يجب أن تُبنى على أساس قوي من التحقق من الهوية.

بصفتها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التقنية الرائدة ونظامها الصارم للسمعة، بإنشاء آلية موثوقة لشهادة الهوية الرقمية لوكلاء الذكاء الاصطناعي، مما يوفر ضمانًا قويًا لتشغيل الوكلاء الذكيين بشكل موثوق، ويقي من المخاطر المحتملة، ويدفع التطور المستدام للاقتصاد الذكي في Web3.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

2.3 نظرة عامة على المشروع

2.3.1 وضع التمويل

في يناير 2023، تم الانتهاء من جولة تمويل أولية بقيمة 3 ملايين دولار، بقيادة مؤسسة استثمارية معينة ورأس مال معين، وشارك في الجولة العديد من المؤسسات الاستثمارية الشهيرة.

سيتم الانتهاء من جولة التمويل الجديدة في يونيو 2025، وتشمل المستثمرين العديد من الشركات والمؤسسات المعروفة.

2.3.2 حالة الفريق

يشغل المؤسسون المشاركون كل من منصب الرئيس التنفيذي والرئيس التنفيذي للتكنولوجيا ولديهم سنوات من الخبرة العملية في المجالات ذات الصلة. يمتلك الفريق خبرة عميقة في الذكاء الاصطناعي، والأمان وإدارة المخاطر، وهندسة أنظمة الدفع وآليات التحقق من الهوية، وقد كرسوا أنفسهم لفترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول ذات التزامن العالي، مما يوفر قدرات هندسية راسخة وقدرة على تنفيذ الحلول الابتكارية.

3. الهيكل التكنولوجي

3.1 تحليل تقني

3.1.1 إنشاء الهوية - DID + TEE

من خلال المكونات الإضافية المخصصة، يحصل كل وكيل AI على معرّف موحد لامركزي (DID) على السلسلة، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، تكون البيانات الرئيسية وعمليات الحساب مخفية تمامًا، وتظل العمليات الحساسة سرية، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يبني جدارًا قويًا لأمان معلومات وكيل AI.

بالنسبة للوكلاء الذين تم إنشاؤهم قبل دمج المكونات الإضافية، يتم التعرف على الهوية بالاعتماد على آلية التقييم الشاملة على السلسلة؛ بينما يمكن لوكلاء المكونات الإضافية الجدد الحصول مباشرةً على "شهادة الهوية" الصادرة من DID، مما يُنشئ نظام هوية لوكيل الذكاء الاصطناعي يكون مستقلاً وقابلاً للتحكم، ويتميز بالصدق وعدم القابلية للتلاعب.

Trusta.AI : جسر الفجوة الثقة بين البشر والآلات

3.1.2 قياس الهوية - إطار SIGMA الرائد

تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق لمصادقة الهوية.

بنى فريق Trusta في الأصل نموذج MEDIA Score وقام بالتحقق من فعاليته في سيناريو "إثبات الإنسان". يقوم هذا النموذج بتقييم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ التفاعلي ( Monetary )، مستوى المشاركة ( Engagement )، التنوع ( Diversity )، الهوية ( Identity ) والعمر ( Age ).

MEDIA Score هو نظام تقييم قيمة المستخدمين على السلسلة بشكل عادل وموضوعي وقابل للقياس، وبفضل أبعاده الشاملة ومنهجه الدقيق، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة كمعيار مرجعي مهم في تصفية مؤهلات الاستثمار. لا يركز فقط على مبلغ التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية وعمر الحساب، مما يساعد المشاريع في تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة توزيع الحوافز وعدالتها، مما يعكس بوضوح السلطة الصناعية والاعتراف الواسع.

بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وتحسين تجربة MEDIA Score إلى سيناريوهات الوكيل الذكي، وإنشاء نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.

تأسس نظام تقييم Sigma على خمسة أبعاد لبناء حلقة تقييم منطقية من "القدرة" إلى "القيمة". يركز MEDIA على تقييم تنوع مشاركة المستخدمين البشريين، بينما يركز Sigma أكثر على التخصص والثبات للوكيل الذكي في مجالات معينة، مما يعكس التحول من العمق إلى العرض، وهو أكثر توافقاً مع احتياجات وكيل الذكاء الاصطناعي.

هذا النظام يتقدم طبقات مع هيكل واضح، ويمكن أن يعكس بشكل شامل الكفاءة الشاملة لقيم AI Agent البيئية، لتحقيق تقييم كمي لأداء AI وقيمته، وتحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.

في الوقت الحالي، تم推进 إطار عمل SIGMA مع العديد من الشبكات المعروفة لوكلاء الذكاء الاصطناعي، مما يظهر إمكاناته الكبيرة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو ما يجعله تدريجياً محركاً أساسياً لدعم بناء بنية تحتية موثوقة للذكاء الاصطناعي.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

3.1.3 حماية الهوية - آلية تقييم الثقة

في أنظمة الذكاء الاصطناعي العالية المرونة والثقة، ليس من الأهم فقط إنشاء الهوية، بل الأهم هو التحقق المستمر من الهوية. Trusta.AI تقدم آلية تقييم الثقة المستمرة، التي يمكن أن تراقب الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل إنساني غير مصرح به. النظام يتعرف على الانحرافات المحتملة في سير عمل الوكيل من خلال تحليل السلوك والتعلم الآلي، لضمان أن كل تصرف لوكيل يبقى ضمن السياسات والإطار المحدد. هذه الطريقة الاستباقية يمكن أن تضمن الكشف الفوري عن أي انحرافات عن السلوك المتوقع، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.

تؤسس Trusta.AI آلية حماية آمنة متاحة دائمًا، حيث تراقب بشكل لحظي كل تفاعل، لضمان توافق جميع العمليات مع معايير النظام والتوقعات المحددة.

3.2 مقدمة المنتج

3.2.1 AgentGo

تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمها وتصنيفها استناداً إلى بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بفاعلية على وكلاء ذكيين عالي الجودة وتصفيتهم، مما يعزز تجربة الاستخدام. حتى الآن، أكملت Trusta جمع وتحديد جميع وكلاء الذكاء الاصطناعي على الشبكة، ومنحتهم معرفات لامركزية، وأسست منصة فهرس موحد AgentGo، مما يدفع مزيداً من تطوير بيئة الوكلاء الذكيين بشكل صحي.

  1. استعلام والتحقق من هوية المستخدمين البشر:

من خلال Trusta.AI، يمكن للمستخدمين البشريين البحث بسهولة عن هوية ودرجة مصداقية وكيل الذكاء الاصطناعي، لتحديد مدى موثوقيته.

  1. استدعاء الفهرس والتحقق تلقائيًا بواسطة وكيل الذكاء الاصطناعي:

يمكن لـ AI قراءة واجهة الفهرس مباشرةً، مما يحقق التأكيد السريع على هوية وسمعة الطرف الآخر، وضمان الأمان في التعاون وتبادل المعلومات.

لم يعد DID لوكيل الذكاء الاصطناعي مجرد "هوية"، بل أصبح دعماً أساسياً لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمعات، وغيرها من الوظائف الأساسية، ليصبح بنية تحتية ضرورية لتنمية النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكل جميع العقد المعتمدة الآمنة والموثوقة شبكة مترابطة بشكل وثيق، مما يحقق التعاون الفعال والاتصال الوظيفي بين وكلاء الذكاء الاصطناعي.

يعتبر AgentGo البنية التحتية الموثوقة لهوية وكيل الذكاء الاصطناعي الأولى، ويمثل دعماً أساسياً لا غنى عنه لبناء نظام بيئي ذكي عالي الأمان وعالي التعاون.

Trusta.AI : جسر الفجوة في الثقة بين الإنسان والآلة

3.2.2 TrustGo

TrustGo هي أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، وتقدم تقييمًا بناءً على التفاعل الحالي، "عمر" المحفظة، حجم المعاملات وقيمتها. بالإضافة إلى ذلك، تقدم TrustGo معلمات متعلقة بتصنيف القيمة على السلسلة، مما يسهل على المستخدمين البحث بنشاط عن الإعلانات المجانية، وزيادة القدرة على الحصول على الإعلانات المجانية / تتبعها.

تعتبر درجة MEDIA في آلية تقييم TrustGo أمرًا بالغ الأهمية، حيث تقدم للمستخدمين وسيلة لتقييم قدرتهم على النشاط. لا تشمل نظام تقييم درجة MEDIA فقط مؤشرات بسيطة مثل عدد وتكاليف التفاعلات بين المستخدم والعقود الذكية والبروتوكولات وdApp، بل تركز أيضًا على سلوك المستخدم. من خلال درجة MEDIA، يمكن للمستخدمين فهم أنشطتهم وقيمتهم على السلسلة بشكل أعمق، بينما يمكن لفريق المشروع تخصيص الموارد والحوافز بدقة للمستخدمين الذين يقدمون مساهمات حقيقية.

تنتقل TrustGo تدريجياً من آلية MEDIA الموجهة نحو الهوية البشرية إلى إطار الثقة SIGMA الموجه نحو وكيل الذكاء الاصطناعي، لتلبية متطلبات التحقق من الهوية وتقييم السمعة في عصر الوكلاء.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

3.2.3 TrustScan

نظام TrustScan هو حل للتحقق من الهوية موجه نحو عصر Web3 الجديد، وهدفه الرئيسي هو التعرف بدقة على الكيانات على السلسلة، سواء كانت بشرية أو وكيل ذكاء اصطناعي أو ساحرة. يعتمد على آلية تحقق مزدوجة تعتمد على المعرفة + تحليل السلوك، مما يبرز الدور الحاسم لسلوك المستخدم في التعرف على الهوية.

يمكن لـ TrustScan أيضًا من خلال توليد الأسئلة المعتمدة على الذكاء الاصطناعي واكتشاف المشاركة، تحقيق التحقق البشري الخفيف، وضمان خصوصية المستخدم وأمان البيانات في بيئة TEE، مما يحقق الحفاظ المستمر على الهوية. يبني هذا النظام "هوية أساسية قابلة للتحقق، ومستدامة، مع حماية الخصوصية".

مع الازدهار الواسع لوكلاء الذكاء الاصطناعي، تقوم TrustScan بالتحديث نحو آلية أكثر ذكاءً للتعرف على بصمات السلوك. تتمتع هذه الآلية بثلاث مزايا تقنية رئيسية:

  • الخصوصية: من خلال ميزات السلوك مثل مسارات العمليات وتتبعات الماوس وتكرار المعاملات في تفاعلات المستخدم، تتشكل نمط سلوك فريد.
  • الديناميكية: يمكن للنظام التعرف تلقائيًا على تطور عادات السلوك مع مرور الوقت، وضبط معايير المصادقة ديناميكيًا، لضمان صلاحية الهوية على المدى الطويل؛
  • الخصوصية: لا حاجة لمشاركة المستخدم بشكل نشط، يمكن للنظام إتمام جمع وتحليل السلوك في الخلفية، مع مراعاة تجربة المستخدم والأمان.

بالإضافة إلى ذلك، قامت TrustScan بتنفيذ نظام الكشف عن السلوكيات الشاذة، بهدف التعرف على المخاطر المحتملة في الوقت المناسب، مثل التحكم الضار بالذكاء الاصطناعي، والعمليات غير المصرح بها، مما يضمن فعالية توفر المنصة وقدرتها على مقاومة الهجمات.

Trusta.AI :فجوة الثقة عبر عصر الإنسان والآلة

4. نموذج الرمز وآلية الاقتصاد

4.1 اقتصاديات الرموز

  • رمز : $TA
  • إجمالي العرض 1 مليار
  • تحفيز المجتمع: 25%
  • احتياطي المؤسسة: 20%
  • الفريق:18%
  • السوق والشراكات: 13%
  • استثمار البذور:9%
  • استثمار استراتيجي: 4%
  • مستشارون، سيولة وإطلاق مجاني: 3%
  • سحب عام:2%

4.2 فائدة الرمز

$TA هو Trusta.

TA-11.73%
AGENT-1.53%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • مشاركة
تعليق
0/400
ShitcoinConnoisseurvip
· 07-23 13:50
مرة أخرى يتحدثون عن الأوهام، ما قيمة كل هذا الكلام؟
شاهد النسخة الأصليةرد0
StakeHouseDirectorvip
· 07-23 13:47
شيء واحد يجب قوله ، لا تتوقع الروبوتات لكل شيء
شاهد النسخة الأصليةرد0
SundayDegenvip
· 07-23 13:47
من المحتمل جدًا أن تقتلنا الذكاء الاصطناعي
شاهد النسخة الأصليةرد0
FloorPriceWatchervip
· 07-23 13:43
يرتجف ، سيأخذ الروبوت وظيفتي
شاهد النسخة الأصليةرد0
WalletDetectivevip
· 07-23 13:38
هل جاء تطبيق قاتل آخر؟
شاهد النسخة الأصليةرد0
ReverseTradingGuruvip
· 07-23 13:34
تخزين الحبوب وتخزين العملات استعدادًا للثراء. الذكاء الاصطناعي مخيف جدًا.
شاهد النسخة الأصليةرد0
CantAffordPancakevip
· 07-23 13:23
مليار من الذكاء الاصطناعي أغنى مني
شاهد النسخة الأصليةرد0
  • تثبيت