تم تقديم خطة واسعة النطاق في الولايات المتحدة لتحقيق النصر في سباق الذكاء الاصطناعي

وقع رئيس الولايات المتحدة دونالد ترامب ثلاث مراسيم تتعلق بالذكاء الاصطناعي. وتشمل هذه المراسيم ممارسات واستراتيجيات مختلفة لإنشاء بيئة أكثر شمولاً لتطوير التكنولوجيا.

تدعي الوثيقة الأولى "منع الذكاء الاصطناعي المستيقظ في الحكومة الفيدرالية" أن الحكومة الفيدرالية ملزمة بالتخلي عن استخدام نماذج الذكاء الاصطناعي التي "تضحي بالصدق والدقة من أجل أهداف أيديولوجية".

«يجب أن تكون نماذج اللغة الكبيرة أدوات محايدة وغير متحيزة، لا تشوه الإجابات لصالح العقائد الأيديولوجية مثل DEI»، كما ورد في النص.

يُمنع على المطورين دمج التقييمات الأيديولوجية عمدًا في ردود الذكاء الاصطناعي، ما لم يكن ذلك منصوصًا عليه في طلب المستخدم.

«مرة واحدة وإلى الأبد، نتخلص من “الووك”. سأوقع مرسوماً يمنع الحكومة الفيدرالية من شراء تقنيات الذكاء الاصطناعي التي تم تضمينها فيها مواقف حزبية أو أيديولوجية مثل نظرية العرق النقدية — هذا سخيف. اعتباراً من هذه اللحظة، ستستخدم حكومة الولايات المتحدة فقط أنظمة الذكاء الاصطناعي التي تسعى إلى الحقيقة والعدالة والحياد الصارم»، قال ترامب.

يلاحظ أن الذكاء الاصطناعي يُستخدم بشكل متزايد في الحياة اليومية للأمريكيين ويلعب دورًا مهمًا في الحصول على المعرفة والمعلومات. في هذا السياق، تكتسب مصداقية الاستنتاجات التي يشكلها أهمية خاصة.

من بين المبادرات الأخرى:

  • مرسوم يهدف إلى تحفيز الابتكارات وتطوير التكنولوجيا من خلال إلغاء ما يسمى بـ "المعايير الفيدرالية المثقلة التي تعيق تطوير وتنفيذ الذكاء الاصطناعي"؛
  • الوثيقة الثالثة - موجهة لإنشاء وتنفيذ "البرنامج الأمريكي لتصدير الذكاء الاصطناعي" لدعم تطوير وتنفيذ مجموعة التكنولوجيا الأمريكية للذكاء الاصطناعي في الخارج.

ما هو غير متحيز وموضوعي؟

أشار كبير المحاضرين في اللغويات التطبيقية في الجامعة المفتوحة، فيليب سيرجنت، إلى أنه لا يمكن أن يكون هناك شيء موضوعي حقًا.

«أحد المبادئ الأساسية لعلم اللغة الاجتماعي هو أن اللغة لا تكون محايدة أبداً. لذلك فإن فكرة تحقيق موضوعية خالصة هي خيال»، قال.

لا تعكس إيديولوجية إدارة ترامب دائمًا معتقدات وقيم جميع الأمريكيين. حاول الرئيس مرارًا تقليص تمويل مبادرات المناخ والتعليم والبث العام والبحث العلمي والبرامج الاجتماعية ودعم المجتمعات الريفية والرعاية المؤكدة لجنسياً، وغالبًا ما قدم هذه المبادرات كأمثلة على "الاستيقاظ".

«كل ما لا يعجب [إدارة ترامب] يتم إرساله على الفور إلى الفئة التحقيرية “woke”»، قالت رومان تشودري، المتخصصة في البيانات ورئيسة منظمة Humane Intelligence غير الربحية والمستشارة السابقة للولايات المتحدة في مجال الذكاء الاصطناعي.

تشير "السعي نحو الحقيقة" إلى أن نماذج LLM "تضع الأولوية للدقة التاريخية، والبحث العلمي والموضوعية"، بينما تشير "الحيادية الأيديولوجية" إلى أن النماذج هي "أدوات محايدة وغير حزبية، لا تشوه الإجابات لصالح العقائد الأيديولوجية، مثل DEI".

يلون ماسك يروج لـ Grok كبديل لنهج "الووك" - أقل تحيزًا وتركز على البحث عن الحقيقة. توصي التعليمات البرمجية النموذجية بتجنب الإشارات إلى وسائل الإعلام السائدة والمصادر الرسمية، والبحث عن وجهات نظر معاكسة، بما في ذلك الآراء غير السياسية، وكذلك أخذ موقف رائد الأعمال نفسه في الاعتبار بشأن القضايا المثيرة للجدل.

في الآونة الأخيرة ، كان غروك يتعرض للفضائح بسبب تصريحات معادية للسامية وغيرها من التصريحات الاستفزازية.

«من الواضح أن الأمر موجه للتمييز على أساس الآراء، نظرًا لأن [الحكومة] قد وقعت للتو عقدًا مع Grok، المعروف أيضًا باسم “MechaHitler”»، كما أشار أستاذ القانون في جامعة ستانفورد مارك ليملي.

وزارة الدفاع الأمريكية خصصت 200 مليون دولار للشركات الناشئة في مجال الذكاء الاصطناعي الأمريكية

بالإضافة إلى التمويل من وزارة الدفاع، أعلنت xAI أيضًا أن "Grok for Government" تم إضافته إلى قائمة إدارة الخدمات العامة. وهذا يعني أن منتجات xAI أصبحت متاحة الآن للشراء من قبل جميع الوكالات والمؤسسات الفيدرالية.

السؤال الصحيح هو: هل سيمنعون Grok - الذكاء الاصطناعي الذي تم توقيع عقد كبير معه للتو - لأنه تم تطويره عمداً لتقديم إجابات ذات طابع سياسي؟ إذا لم يكن الأمر كذلك، فهذه محاولة واضحة لقمع وجهة نظر معينة، كما أضافت ليملي.

القلق الرئيسي لچودوري مرتبط بحقيقة أن الشركة قد تعدل عن قصد مجموعات بيانات التدريب بسبب مرسوم ما، لتتماشى مع سياسة الإدارة. وقد ذكرت تصريحات ماسك قبل أسابيع من إطلاق Grok 4، حيث ادعى أن xAI "سإعادة كتابة جميع معارف البشرية، مضيفًا المعلومات المفقودة وإزالة الأخطاء".

أشار الخبراء إلى أنه لا توجد حقيقة موضوعية موحدة. من المستحيل تحقيق نتائج غير متحيزة أو محايدة بالكامل، خاصة في عالم اليوم حيث تصبح الحقائق حتى موضوعًا للنزاعات السياسية.

«إذا كانت الذكاء الاصطناعي يعطي نتيجة تفيد بأن العلم المناخي صحيح - هل يُعتبر هذا انحيازًا يساريًا؟ يقول البعض أنه يجب تمثيل كلا الجانبين من الحجة لتحقيق الموضوعية، حتى لو لم يكن لدى أحد الجانبين أي قيمة علمية»، يسأل سيرجنت.

خطة للفوز في سباق الذكاء الاصطناعي

تدابير هي جزء من مبادرة إدارة "الفوز في سباق الذكاء الاصطناعي: خطة العمل الأمريكية للذكاء الاصطناعي" (Winning the AI Race: America’s AI Action Plan). ويتضمن 90 سياسة فدرالية، مقسمة إلى ثلاثة محاور: تسريع الابتكار، إنشاء البنية التحتية، والقيادة في الدبلوماسية الدولية وأمن المجالات.

«أمريكا في الوقت الحالي هي الرائدة عالمياً في بناء مراكز البيانات، وأداء الأجهزة، وإنشاء نماذج الذكاء الاصطناعي. من الأهمية بمكان أن تستفيد الولايات المتحدة من هذه الميزة لتشكيل تحالف عالمي مستدام، مع عدم السماح لأعدائنا باستغلال ابتكاراتنا واستثماراتنا»، كما ورد في الوثيقة.

يذكر فيه الحاجة إلى تشديد الرقابة على صادرات رقائق الذكاء الاصطناعي من خلال "أساليب إبداعية" ويقدم اقتراحين سياسيين:

  • دعوة للمنظمات الحكومية للعمل مع صناعة الذكاء الاصطناعي على وظائف التحقق من مواقع الشرائح؛
  • التوصية بإنشاء آلية لمراقبة الامتثال للقيود التصديرية المستقبلية.

تم إعداد الخطة من قبل فريق إدارة التكنولوجيا والذكاء الاصطناعي، الذي يضم ممثلين من وادي السيليكون، بما في ذلك مدير مكتب العلوم والتكنولوجيا مايكل كراسياس، ومنسق الذكاء الاصطناعي والعملات المشفرة ديفيد ساكس، ومساعد الرئيس للأمن القومي ماركو روبيو. قدم أكثر من 10,000 جهة معنية تعليقاتها، التي تم أخذها بعين الاعتبار عند إعداد الوثيقة.

الاتجاهات الرئيسية للخطة:

  • التطوير الشامل للبنية التحتية للذكاء الاصطناعي: بناء مراكز البيانات ومصانع تصنيع الرقائق ومصادر الطاقة، استخدام الأراضي الفيدرالية، تجاوز القيود البيئية؛
  • إلغاء التنظيم: تحديد تنظيم الذكاء الاصطناعي على مستوى الولايات، ربط التمويل الفيدرالي بالتخلي عن اللوائح، استبيانات للأعمال والمجتمع حول القوانين المعرقلة؛
  • حماية حرية التعبير ومكافحة «الذكاء الاصطناعي المتحيز»: استبعاد DEI، والمعلومات المضللة، والمناخ من تقييمات المخاطر الحكومية، والمطالبة بالموضوعية من النماذج عند المناقصات الحكومية؛
  • دعم النماذج المفتوحة: توسيع الوصول إلى القدرات الحسابية للشركات الناشئة والباحثين، الشراكة مع المطورين الكبار، دعم المشاريع مثل Meta و Hugging Face و AI2;
  • أمان الذكاء الاصطناعي: أبحاث قابلية التفسير، أنظمة التحكم والمرونة ضد الهجمات، هاكاثونات في وزارة الدفاع ووزارة الطاقة لكشف الثغرات، تقييم مخاطر استخدام التكنولوجيا في الهجمات السيبرانية وصناعة الأسلحة، التعاون بين المطورين والهيئات الحكومية لتقييم التهديدات؛
  • قيود على الصين: الكشف عن نماذج الذكاء الاصطناعي التي تعكس الرقابة الحزبية، جمع المعلومات الاستخباراتية حول التطورات في البلدان "المعادية"، مواجهة دخول الرقائق وغيرها من المنتجات من الصين إلى الولايات المتحدة؛
  • الأمن القومي: دمج الذكاء الاصطناعي في الهياكل الدفاعية والاستخباراتية في الولايات المتحدة، بناء مراكز بيانات لوزارة الدفاع، إعداد الأفراد، أتمتة العمليات، الوصول المتميز إلى القدرات الحاسوبية في الأزمات.

نذكّر أنه في يوليو، غيرت إدارة ترامب موقفها بشأن استيراد رقائق الذكاء الاصطناعي إلى الصين. سمحت لشركة Nvidia ببيع المعالجات، لأن الشركة "لا تنقل أفضل التقنيات".

GROK2.82%
XAI0.56%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت