تهديد LLM غير المحدود لصناعة التشفير الأمني ، احذر من أدوات الهجوم الجديدة للذكاء الاصطناعي

robot
إنشاء الملخص قيد التقدم

التهديدات المحتملة للذكاء الاصطناعي: تحديات نماذج اللغة الكبيرة غير المحدودة لصناعة التشفير

مع التطور السريع لتقنية الذكاء الاصطناعي، فإن النماذج المتقدمة مثل سلسلة GPT وGemini تعمل على تغيير أساليب حياتنا بشكل عميق. ومع ذلك، فإن هذا التقدم التكنولوجي قد جلب أيضًا مشكلة تستدعي الانتباه: ظهور نماذج لغوية كبيرة غير محدودة أو خبيثة.

LLM غير المقيد هو نموذج لغوي تم تصميمه أو تعديله عمدًا لتجاوز آليات الأمان والقيود الأخلاقية للنماذج السائدة. على الرغم من أن مطوري LLM السائدين يستثمرون موارد كبيرة لمنع إساءة استخدام النماذج، إلا أن بعض الأفراد أو المنظمات، بدافع دوافع غير مناسبة، بدأوا في السعي أو تطوير نماذج غير مقيدة. ستستكشف هذه المقالة التهديدات المحتملة لمثل هذه النماذج في صناعة التشفير، بالإضافة إلى التحديات الأمنية والاستراتيجيات لمواجهتها.

صندوق باندورا: كيف تهدد النماذج الكبيرة غير المحدودة أمان صناعة التشفير؟

تهديدات LLM غير المحدودة

ظهور هذه النماذج خفض بشكل كبير العتبة التقنية لبعض السلوكيات الخبيثة. حتى بدون معرفة متخصصة، يمكن للأشخاص العاديين الاستفادة منها لكتابة رموز خبيثة، وإنشاء رسائل احتيالية، أو التخطيط لعمليات الاحتيال. يحتاج المهاجمون فقط إلى الحصول على نموذج مفتوح المصدر وضبطه باستخدام مجموعة بيانات تحتوي على محتوى خبيث، ليتمكنوا من إنشاء أدوات هجوم مخصصة.

هذه الاتجاهات جلبت مخاطر متعددة:

  • يمكن للمهاجمين تخصيص النماذج لاستهداف أهداف معينة، وإنشاء محتوى أكثر خداعًا
  • إنشاء نسخ سريعة من كود مواقع التصيد ونصوص احتيالية مخصصة
  • يعزز تشكيل بيئة الذكاء الاصطناعي تحت الأرض، ويوفر أرضية للأنشطة غير القانونية

أدوات LLM غير المحدودة النموذجية

WormGPT: النسخة المظلمة من GPT

WormGPT هو نموذج لغة ضار يُباع علنًا، ويزعم أنه بلا قيود أخلاقية. يعتمد على نموذج مفتوح المصدر وتم تدريبه على مجموعة كبيرة من بيانات البرمجيات الضارة. تشمل استخداماته النموذجية ما يلي:

  • إنشاء رسائل تصيد واقعية، لخداع المستخدمين للكشف عن المفاتيح الخاصة وغيرها من المعلومات الحساسة
  • المساعدة في كتابة التعليمات البرمجية الخبيثة مثل سرقة ملفات المحفظة
  • قيادة الاحتيال الأوتوماتيكي، وتوجيه الضحايا للمشاركة في مشاريع وهمية

DarkBERT: سلاح ذو حدين لمحتوى الشبكة المظلمة

DarkBERT هو نموذج تم تدريبه على بيانات الشبكة المظلمة، وكان في الأصل يستخدم لأغراض البحث الأمني. ولكن إذا تم إساءة استخدام المعلومات الحساسة التي يمتلكها، فقد يؤدي ذلك إلى:

  • تنفيذ الاحتيال الدقيق، باستخدام المعلومات التي تم جمعها من المستخدمين لإجراء الاحتيال الاجتماعي
  • نسخ أساليب سرقة العملات وغسيل الأموال الناضجة في الشبكة المظلمة

FraudGPT:أداة احتيال عبر الإنترنت

FraudGPT هو النسخة المطورة من WormGPT، مع وظائف أكثر شمولاً. تشمل إساءة الاستخدام المحتملة ما يلي:

  • مشاريع التشفير المزيفة، إنشاء أوراق بيضاء ومواد تسويقية مزيفة
  • إنشاء صفحات تسجيل دخول مزيفة بكميات كبيرة
  • التصنيع الضخم لتعليقات مزيفة، للترويج لعملات احتيالية
  • تنفيذ هجمات الهندسة الاجتماعية، مما يؤدي إلى تحفيز المستخدمين على تسريب المعلومات الحساسة

GhostGPT: مساعد AI بدون قيود أخلاقية

تم تحديد GhostGPT بوضوح كروبوت محادثة بدون قيود أخلاقية. ومن طرق إساءة استخدامه المحتملة ما يلي:

  • إنشاء رسائل بريد إلكتروني مزيفة عالية الدقة
  • إنشاء رمز عقد ذكي يحتوي على باب خلفي بسرعة
  • إنشاء برامج ضارة ذات قدرة على التحول، لسرقة معلومات المحفظة
  • نشر روبوتات الاحتيال، لتحفيز المستخدمين على المشاركة في مشاريع وهمية
  • التعاون مع أدوات الذكاء الاصطناعي الأخرى لإنشاء محتوى مزيف عميق، وتنفيذ عمليات احتيال متقدمة

Venice.ai: مخاطر محتملة للوصول غير الخاضع للرقابة

تقدم Venice.ai الوصول إلى مجموعة متنوعة من LLM، بما في ذلك بعض النماذج ذات القيود الأقل. على الرغم من أن الهدف هو الاستكشاف المفتوح، إلا أنه قد يتم إساءة استخدامه لـ:

  • تجاوز الرقابة لإنشاء محتوى ضار
  • خفض عتبة هندسة التحذيرات، مما يسهل على المهاجمين الحصول على المخرجات المقيدة
  • اختبار سريع وتحسين أساليب الهجوم

طرق المعالجة

ظهور LLM غير المحدود يرمز إلى مواجهة الأمن السيبراني نمط هجوم جديد أكثر تعقيدًا وتوسعًا وأتمتة. لمواجهة هذا التحدي، تحتاج جميع الأطراف في النظام البيئي الأمني إلى التعاون.

  1. زيادة الاستثمار في تقنيات الكشف، وتطوير أدوات قادرة على التعرف على المحتوى الذي تنتجه LLM الخبيثة واعتراضه.
  2. تعزيز قدرة النموذج على مقاومة كسر الحماية، واستكشاف آلية تتبع المحتوى وعلامات المياه
  3. إنشاء معايير أخلاقية وآليات تنظيمية سليمة، للحد من تطوير واستخدام النماذج الخبيثة من المصدر

فقط من خلال التعاون بين الأطراف المتعددة يمكن ضمان أمان صناعة التشفير والفضاء الإلكتروني الأوسع في ظل التطور السريع لتقنية الذكاء الاصطناعي.

باندوورا: كيف تهدد النماذج الكبيرة غير المحدودة أمان صناعة التشفير؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 9
  • مشاركة
تعليق
0/400
BoredStakervip
· 07-18 15:42
هذا مخيف للغاية
شاهد النسخة الأصليةرد0
GasGuruvip
· 07-18 14:53
الجميع في فوضى...
شاهد النسخة الأصليةرد0
AirdropNinjavip
· 07-18 08:29
大ساتوشي又来معاملته كأحمق了
شاهد النسخة الأصليةرد0
SocialAnxietyStakervip
· 07-15 17:38
البلوكتشين مرة أخرى تواجه أزمة جديدة
شاهد النسخة الأصليةرد0
CommunityLurkervip
· 07-15 17:35
يقومون بتجديد الأشياء طوال اليوم، في النهاية سيحدث شيء ما.
شاهد النسخة الأصليةرد0
RugResistantvip
· 07-15 17:10
أعلام حمراء في كل مكان، يا للأسف... هذا يحتاج إلى تصحيح فوري.
شاهد النسخة الأصليةرد0
hodl_therapistvip
· 07-15 17:08
جذر المشكلة هو الإنسان.
شاهد النسخة الأصليةرد0
quietly_stakingvip
· 07-15 17:08
الذكاء الاصطناعي السيئ في سترة!
شاهد النسخة الأصليةرد0
CrossChainBreathervip
· 07-15 17:08
يا إلهي، إنه حقاً ذكاء اصطناعي غبي.
شاهد النسخة الأصليةرد0
عرض المزيد
  • تثبيت