من هزيمة AlphaGo من Google للاعبي الشطرنج البشريين إلى ChatGpt التي تثير مناقشات ساخنة في مجتمع التكنولوجيا ، كل تقدم في تكنولوجيا الذكاء الاصطناعي يؤثر على أعصاب الناس. ليس هناك شك في أن الذكاء الاصطناعي يغير بشكل عميق مجتمعنا واقتصادنا وسياستنا وحتى سياستنا الخارجية ، وغالبًا ما تفشل نظريات الماضي التقليدية في تفسير تأثير كل هذه النظريات. في كتاب "عصر الذكاء الاصطناعي ومستقبل الإنسانية" ، كيسنجر ، الدبلوماسي الشهير ، شميدت ، الرئيس التنفيذي السابق لشركة Google ، وهوتنلشر ، عميد كلية شوارزمان لعلوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا ، نوعًا ما خارج الحياة الماضية للذكاء الاصطناعي من وجهات نظر مختلفة هذه الحياة ، وناقش بشكل شامل التأثيرات المختلفة التي قد يجلبها تطوره على الأفراد والمؤسسات والحكومات والمجتمعات والبلدان. يعتقد العديد من كبار المفكرين أنه كلما أصبحت قدرات الذكاء الاصطناعي أقوى وأقوى ، فإن كيفية تحديد دور البشر ستكون اقتراحًا يجب أن نفكر فيه لفترة طويلة في المستقبل. تم اقتباس المحتوى التالي من "عصر الذكاء الاصطناعي ومستقبل الإنسانية" بإذن من الناشر ، مع حذف وتنقيحات ، تمت إضافة ترجمات بواسطة المحرر.
المؤلف الأصلي | [الولايات المتحدة] هنري كيسنجر / [الولايات المتحدة] إريك شميدت / [الولايات المتحدة] دانيال هاتنلوشير
** ما الذي سيحققه الذكاء الاصطناعي العام؟ **
هل يستطيع البشر والذكاء الاصطناعي الاقتراب من نفس الواقع من وجهات نظر مختلفة ، وهل يمكن أن يكمل كل منهما الآخر ويكمل بعضهما البعض؟ أم أننا ندرك حقيقتين مختلفتين ولكن متداخلتين جزئيًا: أحدهما يمكن للبشر تفسيره بعقلانية ، والآخر يمكن للذكاء الاصطناعي أن يفسره خوارزميًا؟ إذا كانت الإجابة هي الأخيرة ، فيمكن للذكاء الاصطناعي أن يدرك الأشياء التي لم ندركها بعد ولا يمكننا إدراكها - ليس فقط لأننا لا نملك الوقت الكافي للتفكير بها في طريقتنا ، ولكن لأنها موجودة في مكان تراه أذهاننا. لا يمكن تصورها. في هذا المجال. سيتغير سعي البشرية إلى "الفهم الكامل للعالم" ، وسيدرك الناس أنه من أجل الحصول على معرفة معينة ، قد نحتاج إلى تكليف الذكاء الاصطناعي بالحصول على المعرفة لنا وتقديم تقرير إلينا. بغض النظر عن الإجابة ، بينما يسعى الذكاء الاصطناعي إلى تحقيق أهداف أكثر شمولاً وشمولاً ، سيبدو للبشر أكثر فأكثر مثل "مخلوق" يختبر العالم ويفهمه - مزيج من الأدوات والحيوانات الأليفة والعقول. موجودة.
مع اقتراب الباحثين من الذكاء العام الاصطناعي أو تحقيقه ، سيزداد اللغز بشكل أعمق. كما ناقشنا في الفصل 3 ، لن يقتصر الذكاء الاصطناعي العام على التعلم وأداء مهام محددة ؛ بدلاً من ذلك ، بحكم التعريف ، سيكون الذكاء الاصطناعي العام قادراً على التعلم وأداء مجموعة واسعة للغاية من المهام ، تمامًا كما يفعل البشر. يتطلب تطوير الذكاء الاصطناعي العام قدرة هائلة على الحوسبة ، والتي قد تؤدي فقط إلى عدد قليل من المنظمات جيدة التمويل القادرة على إنشاء مثل هذا الذكاء الاصطناعي. كما هو الحال مع الذكاء الاصطناعي الحالي ، في حين أن الذكاء الاصطناعي العام قد يتم نشره بسهولة بشكل لامركزي ، نظرًا لقدراته ، فإن تطبيقاته ستكون بالضرورة محدودة. يمكن فرض قيود على الذكاء الاصطناعي العام من خلال السماح فقط للمنظمات المعتمدة بتشغيله. يصبح السؤال بعد ذلك: من سيتحكم في الذكاء الاصطناعي العام؟ من الذي سيأذن باستخدامه؟ هل لا تزال الديمقراطية ممكنة في عالم حيث يتم تشغيل عدد قليل من الآلات "العبقرية" من قبل عدد قليل من المنظمات؟ في هذه الحالة ، كيف سيبدو التعاون بين الإنسان والذكاء الاصطناعي؟
إذا ظهر الذكاء الاصطناعي العام في العالم ، فسيكون ذلك إنجازًا فكريًا وعلميًا واستراتيجيًا كبيرًا. ولكن حتى لو فشلت في القيام بذلك ، يمكن للذكاء الاصطناعي أيضًا أن يحدث ثورة في الشؤون الإنسانية. إن دافع الذكاء الاصطناعي وقدرته على الاستجابة لحالات الطوارئ (أو الأحداث غير المتوقعة) وتقديم الحلول يميزه عن التقنيات السابقة. إذا تُركت منظمة العفو الدولية دون تنظيم ، يمكن أن ينحرف الذكاء الاصطناعي عن توقعاتنا ، وبالتالي ، نيتنا. إن قرار تقييده أو التعاون معه أو طاعته لن يتم اتخاذه من قبل البشر فقط. في بعض الحالات ، سيتم تحديد ذلك من خلال الذكاء الاصطناعي نفسه ؛ وفي حالات أخرى ، سيعتمد على عوامل تمكين مختلفة. قد ينخرط البشر في "سباق نحو القاع".
نظرًا لأن الذكاء الاصطناعي يعمل على أتمتة العمليات ، ويسمح للبشر باستكشاف كميات هائلة من البيانات ، وينظم ويعيد هيكلة المجالات المادية والاجتماعية ، فقد يكتسب هؤلاء المحركون الأوائل ميزة المحرك الأول. قد تجبر الضغوط التنافسية الأطراف على التسابق لنشر الذكاء الاصطناعي العام دون وقت كافٍ لتقييم المخاطر أو ببساطة تجاهلها. الأخلاق حول الذكاء الاصطناعي ضرورية. قد يكون لكل قرار فردي - بالحد ، أو التعاون ، أو الامتثال - عواقب وخيمة ، ولكن عند الجمع ، يتضاعف التأثير.
لا يمكن اتخاذ هذه القرارات بمعزل عن غيرها. إذا أرادت البشرية تشكيل المستقبل ، فعليها الاتفاق على مبادئ مشتركة توجه كل خيار. صحيح أن العمل الجماعي صعب ، وأحيانًا مستحيل ، لكن الأفعال الفردية بدون توجيه من قاعدة أخلاقية مشتركة لن تؤدي إلا إلى مزيد من الاضطراب والفوضى للبشرية جمعاء. سيتمكن أولئك الذين يصممون الذكاء الاصطناعي ويتدربون ويعملون معه ، من تحقيق أهداف على نطاق وتعقيد لم يكن بالإمكان تحقيقه حتى الآن للبشر ، مثل الاكتشافات العلمية الجديدة والكفاءات الاقتصادية الجديدة وأشكال الأمن الجديدة والبعد الجديد للمراقبة الاجتماعية. وفي توسع الذكاء الاصطناعي واستخداماته ، قد يشعر أولئك الذين لم يتم تمكينهم بأنهم يخضعون للمراقبة والدراسة والتصرف من قبل قوى لا يفهمونها ، وأن ذلك ليس من تصميمهم أو اختيارهم. تعمل هذه القوة بطريقة مبهمة لا يمكن للفاعلين أو المؤسسات البشرية التقليدية التسامح معها في العديد من المجتمعات. يجب أن يكون مصممو الذكاء الاصطناعي والقائمون على نشره مستعدين للتعامل مع هذه المشكلات ، بدءًا من شرح ما يفعله الذكاء الاصطناعي للأشخاص غير التقنيين وما "يعرفه" وكيف يفعل ذلك. تخلق الطبيعة الديناميكية والناشئة للذكاء الاصطناعي الغموض بطريقتين على الأقل. أولاً ، قد يعمل الذكاء الاصطناعي بالشكل الذي نتوقعه ، ولكنه ينتج نتائج لا يمكننا توقعها. قد تقود هذه النتائج الإنسانية إلى أماكن لم يتوقعها أبدًا مبتكروها ، تمامًا كما فشل السياسيون في عام 1914 في إدراك أن المنطق القديم للتعبئة العسكرية مقترنًا بالتكنولوجيا الجديدة من شأنه أن يجر أوروبا إلى الحرب. يمكن أن يكون للذكاء الاصطناعي أيضًا عواقب وخيمة إذا تم نشره واستخدامه دون دراسة متأنية.
لقطات من فيلم Alita: Battle Angel.
يمكن أن تكون هذه العواقب صغيرة ، مثل قرار مهدد للحياة تتخذه سيارة ذاتية القيادة ، أو بالغ الأهمية ، مثل نزاع عسكري خطير. ثانيًا ، في بعض مجالات التطبيق ، قد يكون الذكاء الاصطناعي غير متوقع ، ويتصرف بشكل غير متوقع تمامًا. بأخذ AlphaZero كمثال ، فقد طور أسلوبًا في الشطرنج لم يتخيله البشر أبدًا منذ آلاف السنين من تاريخ الشطرنج ، فقط وفقًا لتعليمات "الفوز بالشطرنج". في حين أن البشر قد يكونون حريصين على وصف أهداف الذكاء الاصطناعي ، فإننا نمنحه مجالًا أكبر ، فإن طريقه إلى هذا الهدف قد يفاجئنا ، بل ويثير ذعرنا. لذلك ، يجب تصميم كل من استهداف وتفويض الذكاء الاصطناعي بعناية ، لا سيما في المناطق التي يمكن أن تكون فيها قراراته قاتلة. لا ينبغي النظر إلى الذكاء الاصطناعي على أنه مستقل أو غير مراقب ولا يسمح له باتخاذ إجراءات لا رجعة فيها دون إشراف أو مراقبة أو تحكم مباشر. تم إنشاء الذكاء الاصطناعي من قبل البشر ، لذلك يجب أن يتم الإشراف عليه أيضًا من قبل البشر. لكن أحد تحديات الذكاء الاصطناعي في عصرنا هو أن الأشخاص الذين يمتلكون المهارات والموارد اللازمة لإنشائه لا يمتلكون بالضرورة المنظور الفلسفي لفهم تداعياته الأوسع. يركز العديد من مبتكري الذكاء الاصطناعي بشكل أساسي على التطبيقات التي يحاولون تحقيقها والمشكلات التي يريدون حلها: قد لا يتوقفون عن التفكير فيما إذا كان الحل سيحدث ثورة تاريخية ، أو كيف ستؤثر تقنيتهم على مختلف الحشود. يحتاج عصر الذكاء الاصطناعي إلى ديكارت وكانط لشرح ما أنشأناه وماذا يعني للبشر.
نحن بحاجة إلى تنظيم مناقشات ومفاوضات عقلانية تشمل الحكومات والجامعات والمبدعين في الصناعة الخاصة ، ويجب أن يكون الهدف هو وضع حدود للإجراءات العملية مثل تلك التي تحكم العمل الفردي والتنظيمي اليوم. يتمتع الذكاء الاصطناعي بسمات تشترك في بعض الشيء نفسه ، ولكنها تختلف عنها في بعض الجوانب المهمة ، من المنتجات والخدمات والتقنيات والكيانات الخاضعة للتنظيم حاليًا ، من حيث أنها تفتقر إلى إطار مفاهيمي وقانوني محدد تمامًا. على سبيل المثال ، تطرح الطبيعة الاستفزازية والمتطورة للذكاء الاصطناعي تحديات تنظيمية: قد يختلف من وكيف يعمل في العالم عبر المجالات ويتطور بمرور الوقت ، وليس دائمًا بطريقة يمكن التنبؤ بها. تسترشد حوكمة الناس بمدونة أخلاقية. يحتاج الذكاء الاصطناعي إلى بوصلة أخلاقية خاصة به لا تعكس طبيعة التكنولوجيا فحسب ، بل تعكس أيضًا التحديات التي تطرحها.
في كثير من الأحيان ، لا تنطبق هنا المبادئ المعمول بها. في عصر الإيمان ، عندما واجه المتهمون في محاكم التفتيش حكم معركة ، كان بإمكان المحكمة أن تقرر الجريمة ، لكن الله قرر من هو المنتصر. في عصر العقل ، حدد البشر الذنب وفقًا لمبادئ العقل ، وحكموا على الجرائم ومعاقبتهم وفقًا لمفاهيم مثل السببية والنية الإجرامية. لكن الذكاء الاصطناعي لا يعمل على العقل البشري ، ولا يمتلك الدافع البشري أو النية أو التأمل الذاتي. وبالتالي ، فإن إدخال الذكاء الاصطناعي سيعقد مبادئ العدالة الحالية التي تنطبق على البشر.
عندما يتصرف نظام مستقل بناءً على تصوراته وقراراته ، هل يتحمل منشئوه المسؤولية؟ أم لا ينبغي الخلط بين أفعال الذكاء الاصطناعي وأفعال صانعيها ، على الأقل فيما يتعلق بالذنب؟ إذا كان سيتم استخدام الذكاء الاصطناعي للكشف عن علامات السلوك الإجرامي ، أو للمساعدة في تحديد ما إذا كان شخص ما مذنبًا ، فهل يجب أن تكون منظمة العفو الدولية قادرة على "شرح" كيفية توصلها إلى استنتاجاتها حتى يتمكن المسؤولون البشريون من الوثوق بها؟ علاوة على ذلك ، في أي مرحلة وفي أي سياق من التطور التكنولوجي يجب أن يخضع الذكاء الاصطناعي للمفاوضات الدولية؟ هذا موضوع مهم آخر للنقاش. إذا تم التحقيق في وقت مبكر جدًا ، فقد يتم إعاقة تطوير التكنولوجيا ، أو قد تميل إلى إخفاء قدراتها ؛ إذا تأخرت لفترة طويلة ، فقد يكون لها عواقب مدمرة ، خاصة في الجيش. ويتفاقم هذا التحدي بسبب صعوبة تصميم آليات تحقق فعالة لتكنولوجيا تكون أثيريّة وغامضة وسهلة النشر. سيكون المفاوضون الرسميون بالضرورة حكومات ، ولكن ستكون هناك أيضًا حاجة إلى صوت للتقنيين وعلماء الأخلاق والشركات التي تنشئ وتشغل الذكاء الاصطناعي وآخرين خارج المجال.
لقطات من الدراما الأمريكية "العالم الغربي".
المعضلات التي يطرحها الذكاء الاصطناعي لها آثار بعيدة المدى على المجتمعات المختلفة. تتم معظم حياتنا الاجتماعية والسياسية اليوم على منصات الإنترنت التي تدعم الذكاء الاصطناعي ، وتعتمد الديمقراطيات بشكل خاص على مساحات المعلومات هذه للنقاش والتواصل ، وتشكيل الرأي العام ومنحهم الشرعية. من ، أو أي وكالة ، يجب أن تحدد دور التكنولوجيا؟ من يجب أن ينظمها؟ ما الدور الذي يجب أن يلعبه الأفراد الذين يستخدمون الذكاء الاصطناعي؟ ماذا عن الشركات التي تنتج الذكاء الاصطناعي؟ ماذا عن نشرها الحكومات الاجتماعية؟ كجزء من حل هذه المشكلات ، يجب أن نحاول جعلها قابلة للتدقيق ، أي أن عملياتها واستنتاجاتها قابلة للفحص والتصحيح. في المقابل ، فإن إمكانية تنفيذ التصحيحات ستعتمد على القدرة على صقل المبادئ لشكل إدراك الذكاء الاصطناعي واتخاذ القرار. الأخلاق والإرادة وحتى السببية لا تتناسب بشكل جيد مع عالم الذكاء الاصطناعي المستقل. تظهر مشاكل مماثلة في معظم مستويات المجتمع ، من النقل إلى التمويل إلى الطب.
ضع في اعتبارك تأثير الذكاء الاصطناعي على وسائل التواصل الاجتماعي. مع الابتكارات الحديثة ، أصبحت هذه المنصات بسرعة جانبًا مهمًا من حياتنا العامة. كما ناقشنا في الفصل 4 ، تعتمد الميزات التي يستخدمها Twitter و Facebook لتسليط الضوء على المحتوى أو الأفراد أو تقييدهما أو حظرهما بشكل تام على الذكاء الاصطناعي ، وهو دليل على قوته. يمثل استخدام الذكاء الاصطناعي للترويج أو إزالة المحتوى والمفاهيم من جانب واحد وغالبًا ما يكون مبهمًا تحديًا لجميع الدول ، وخاصة الديمقراطيات. هل من الممكن لنا أن نحتفظ بالهيمنة مع تحول حياتنا الاجتماعية والسياسية بشكل متزايد نحو المجالات التي يحكمها الذكاء الاصطناعي ، ولا يمكننا الاعتماد إلا على هذه الإدارة للتنقل فيها؟
تمثل ممارسة استخدام الذكاء الاصطناعي لمعالجة كميات كبيرة من المعلومات أيضًا تحديًا آخر: يزيد الذكاء الاصطناعي من تشويه العالم لتلبية التفضيلات الغريزية البشرية. هذا مجال يمكن للذكاء الاصطناعي فيه بسهولة تضخيم تحيزاتنا المعرفية ، ومع ذلك ما زلنا نتردد معها. مع هذه الأصوات ، التي تواجه مجموعة متنوعة من الخيارات ، وتمكينها من الاختيار والفرز ، سيتلقى الناس طوفانًا من المعلومات المضللة. لا تشجع شركات وسائل التواصل الاجتماعي الاستقطاب السياسي المتطرف والعنيف من خلال ملفات الأخبار الخاصة بها ، ولكن من الواضح أن هذه الخدمات لا تؤدي إلى تعظيم الخطاب المستنير أيضًا.
** الذكاء الاصطناعي والمعلومات الحرة والتفكير المستقل **
إذن ، كيف يجب أن تبدو علاقتنا مع الذكاء الاصطناعي؟ هل يجب تقييدها أو تمكينها أو معاملتها كشريك في إدارة هذه المجالات؟ لا شك في أن نشر معلومات معينة ، خاصة المعلومات الكاذبة عمدا ، يمكن أن يسبب الضرر والتقسيم والتحريض. لذلك هناك حاجة إلى بعض القيود. ومع ذلك ، فإن إدانة "المعلومات الضارة" والهجوم عليها وقمعها أصبحت الآن فضفاضة للغاية ، وينبغي أن يؤدي هذا أيضًا إلى التفكير.
في المجتمع الحر ، لا ينبغي أن يقتصر تعريف المعلومات الضارة والمضللة على اختصاص الشركات. ومع ذلك ، إذا تم إسناد هذه المسؤوليات إلى مجموعة أو وكالة حكومية ، فيجب أن تعمل تلك المجموعة أو الوكالة وفقًا للمعايير العامة المعمول بها ومن خلال إجراءات يمكن التحقق منها لتجنب الاستغلال من قبل من هم في السلطة. إذا تم تكليفها بخوارزمية الذكاء الاصطناعي ، فيجب أن تكون وظيفة الخوارزمية الموضوعية والتعلم والقرارات والإجراءات واضحة وخاضعة للتدقيق الخارجي ، وعلى الأقل شكلاً من أشكال الجاذبية البشرية.
بالطبع ، ستأتي المجتمعات المختلفة لإجابات مختلفة عن هذا. قد تؤكد بعض المجتمعات على حرية التعبير ، ربما بدرجات متفاوتة بناءً على فهمها النسبي للتعبيرات الفردية ، وبالتالي قد تحد من دور الذكاء الاصطناعي في تعديل المحتوى. يختار كل مجتمع الأفكار التي يقدرها ، والتي يمكن أن تؤدي إلى علاقات معقدة مع مشغلي منصات الشبكات متعددة الجنسيات. الذكاء الاصطناعي ماص مثل الإسفنج ، يتعلم من البشر ، حتى عندما نصممه ونشكله.
لقطات من الدراما الأمريكية "العالم الغربي".
لذلك ، لا تختلف اختيارات كل مجتمع فحسب ، بل تختلف أيضًا علاقة كل مجتمع بالذكاء الاصطناعي ، وتصور الذكاء الاصطناعي ، والطريقة التي يقلد بها الذكاء الاصطناعي البشر ويتعلم من المعلمين البشريين. لكن هناك شيء واحد مؤكد ، وهو أن البحث البشري عن الحقائق والحقيقة لا ينبغي أن يجعل المجتمع يختبر الحياة من خلال مرشح غير محدد وغير قابل للاختبار. التجربة العفوية للواقع ، بكل تناقضاتها وتعقيداتها ، هي جانب مهم من جوانب الحالة الإنسانية ، حتى لو أدت إلى عدم الكفاءة أو الأخطاء.
** الذكاء الاصطناعي والنظام الدولي **
في جميع أنحاء العالم ، ينتظر عدد لا يحصى من الأسئلة الإجابة. كيف يمكن تنظيم منصات الذكاء الاصطناعي على الإنترنت دون إثارة التوترات بين الدول المعنية بسلامتها؟ هل ستؤدي هذه المنصات عبر الإنترنت إلى تآكل المفاهيم التقليدية للسيادة الوطنية؟ هل ستؤدي التغييرات الناتجة إلى استقطاب للعالم لم يشهده منذ انهيار الاتحاد السوفيتي؟ هل يعترض الكونجرس الصغير؟ هل ستنجح محاولات التوسط في هذه العواقب؟ أم أن هناك أي أمل بالنجاح؟
مع استمرار زيادة قدرات الذكاء الاصطناعي ، ستصبح كيفية تحديد دور البشر بالتعاون مع الذكاء الاصطناعي مهمة ومعقدة بشكل متزايد. يمكننا أن نتخيل عالمًا يحترم فيه البشر بشكل متزايد آراء الذكاء الاصطناعي حول قضايا ذات أهمية متزايدة. في عالم ينشر فيه الأعداء الهجوميون الذكاء الاصطناعي بنجاح ، هل يمكن للقادة في الجانب الدفاعي أن يقرروا عدم نشر الذكاء الاصطناعي الخاص بهم وتحمل المسؤولية عنه؟ حتى أنهم ليسوا متأكدين من كيفية تطور هذا النشر. وإذا كان الذكاء الاصطناعي يتمتع بقدرة فائقة على التوصية بمسار عمل ، فهل هناك سبب لقبول صانعي القرار به ، حتى لو كان مسار العمل هذا يتطلب مستوى معينًا من التضحية؟ كيف يمكن للإنسان أن يعرف ما إذا كانت هذه التضحية ضرورية للنصر؟ إذا كان الأمر ضروريًا ، فهل يرغب صانعو السياسات حقًا في نقضه؟ بمعنى آخر ، قد لا يكون لدينا خيار سوى تعزيز الذكاء الاصطناعي. لكن علينا أيضًا مسؤولية تشكيله بطريقة تتوافق مع مستقبل البشرية. النقص هو أحد معايير التجربة الإنسانية ، خاصة عندما يتعلق الأمر بالقيادة.
غالبًا ما يغمر صانعو السياسات مخاوف لا تطاق. في بعض الأحيان ، تستند أفعالهم إلى افتراضات خاطئة ؛ وأحيانًا ، يتصرفون بدافع العاطفة الخالصة ؛ وفي أوقات أخرى ، تشوه الأيديولوجيا رؤيتهم. مهما كانت الاستراتيجيات المستخدمة لبناء شراكات بين الإنسان والذكاء الاصطناعي ، يجب تكييفها مع البشر. إذا أظهر الذكاء الاصطناعي قدرات خارقة في مجالات معينة ، فيجب أن يكون استخدامه متوافقًا مع البيئة البشرية غير الكاملة.
في مجال الأمن ، تستجيب الأنظمة التي تدعم الذكاء الاصطناعي بسرعة كبيرة لدرجة أن الأعداء قد يحاولون الهجمات قبل أن يتم تشغيل الأنظمة. قد تكون النتيجة حالة غير مستقرة بطبيعتها مماثلة لتلك التي أوجدتها الأسلحة النووية. ومع ذلك ، يتم تأطير الأسلحة النووية ضمن مفاهيم الأمن الدولي ومراقبة التسلح التي تم تطويرها على مدى العقود القليلة الماضية من قبل الحكومات والعلماء والاستراتيجيين وعلماء الأخلاق من خلال التحسين المستمر والنقاش والتفاوض. لا يوجد إطار عمل مماثل للذكاء الاصطناعي والأسلحة الإلكترونية.
في الواقع ، قد تكون الحكومات مترددة في الاعتراف بوجودها. تحتاج البلدان - وربما شركات التكنولوجيا - إلى الاتفاق على كيفية التعايش مع الذكاء الاصطناعي المُسلح. سيؤدي انتشار الذكاء الاصطناعي من خلال وظائف الدفاع الحكومية إلى تغيير التوازن الدولي والحوسبة التي يتم الحفاظ عليها في عصرنا. الأسلحة النووية باهظة الثمن ويصعب إخفاؤها بسبب حجمها وهيكلها. في المقابل ، يمكن تشغيل الذكاء الاصطناعي على أجهزة الكمبيوتر الموجودة في كل مكان. نظرًا لأن تدريب نموذج التعلم الآلي يتطلب خبرة وموارد حوسبية ، فإن إنشاء ذكاء اصطناعي يتطلب موارد على مستوى شركة أو دولة كبيرة ؛ وبما أن تطبيق الذكاء الاصطناعي يتم على أجهزة كمبيوتر صغيرة نسبيًا ، فمن المؤكد أنه سيتم استخدامه على نطاق واسع ، بما في ذلك الطرق التي لم نتوقعها. هل سيتمكن أي شخص لديه جهاز كمبيوتر محمول ، واتصال بالإنترنت ، وتفاني في التطفل في الجانب المظلم من الذكاء الاصطناعي ، أخيرًا من الوصول إلى سلاح يعمل بالذكاء الاصطناعي؟ هل ستسمح الحكومات للجهات الفاعلة التي تربطها بها صلات وثيقة أو لا تربطها بها علاقات باستخدام الذكاء الاصطناعي لمضايقة خصومهم؟ هل يخطط الإرهابيون لهجمات الذكاء الاصطناعي؟ هل سيكونون قادرين على عزو هذه الأنشطة إلى الدول أو الجهات الفاعلة الأخرى؟
في الماضي ، جرت الدبلوماسية في ساحة منظمة ويمكن التنبؤ بها ؛ واليوم ، سيتم توسيع وصولها إلى المعلومات ونطاق العمل بشكل كبير. الحدود الواضحة التي كانت تتشكل من خلال الاختلافات الجغرافية واللغوية ستختفي تدريجياً. سوف تسهل ترجمة الذكاء الاصطناعي الحوار دون الحاجة إلى المعرفة اللغوية والثقافية أيضًا كما فعل المترجمون السابقون. ستعمل المنصات الإلكترونية التي تعمل بالذكاء الاصطناعي على تسهيل الاتصال عبر الحدود ، بينما ستستمر عمليات القرصنة والمعلومات المضللة في تشويه التصورات والتقييمات. وكلما أصبح الوضع أكثر تعقيدًا ، سيصبح من الصعب تطوير اتفاقيات قابلة للتنفيذ ذات نتائج يمكن التنبؤ بها.
تضيف إمكانية الجمع بين قدرات الذكاء الاصطناعي والأسلحة الإلكترونية إلى هذه المعضلة. تتجنب الإنسانية المفارقة النووية من خلال التمييز الواضح بين الأسلحة التقليدية (التي تعتبر متوافقة مع الإستراتيجية التقليدية) والأسلحة النووية (تعتبر استثناءً). بمجرد إطلاق القوة التدميرية للأسلحة النووية ، فإنها تصبح عشوائية وبغض النظر عن الهدف ؛ بينما يمكن للأسلحة التقليدية تمييز الهدف. لكن الأسلحة الإلكترونية التي يمكنها تحديد الأهداف وإحداث الخراب على نطاق واسع تقضي على هذا التمييز.
إضافة إلى وقود الذكاء الاصطناعي ، ستصبح هذه الأسلحة غير متوقعة وربما أكثر تدميراً. في الوقت نفسه ، عندما تتجول هذه الأسلحة حول الشبكة ، من المستحيل تحديد مصدرها. لا يمكن اكتشافها لأنها ليست ضخمة مثل الأسلحة النووية ؛ يمكن أيضًا حملها على أقراص USB ، مما يسهل الانتشار. في بعض الأشكال ، يصعب التحكم في هذه الأسلحة بمجرد نشرها ، خاصةً بالنظر إلى الطبيعة الديناميكية والناشئة للذكاء الاصطناعي.
هذا الوضع يتحدى مقدمات النظام العالمي القائم على القواعد. بالإضافة إلى ذلك ، فقد جعل من الضروري تطوير المفاهيم المتعلقة بالحد من أسلحة الذكاء الاصطناعي. في عصر الذكاء الاصطناعي ، لن يتبع الردع الأعراف التاريخية ، ولن يفعل ذلك. في فجر العصر النووي ، تم تطوير إطار مفاهيمي للحد من الأسلحة النووية بناءً على رؤى من المناقشات بين الأساتذة والعلماء البارزين (من ذوي الخبرة في الحكومة) في هارفارد ومعهد ماساتشوستس للتكنولوجيا ومعهد كاليفورنيا للتكنولوجيا ، مما أدى بدوره إلى إنشاء نظام ( والمؤسسات التي تطبقها في الولايات المتحدة والدول الأخرى).
على الرغم من أهمية التفكير الأكاديمي ، فإنه يتم تنفيذه بشكل منفصل عن اعتبارات البنتاغون للحرب التقليدية - إضافة جديدة وليس تعديل. لكن الاستخدامات العسكرية المحتملة للذكاء الاصطناعي أوسع من الأسلحة النووية ، والفرق بين الهجوم والدفاع غير واضح ، على الأقل في الوقت الحالي. في عالم شديد التعقيد ، ولا يمكن التنبؤ به بطبيعته ، يصبح الذكاء الاصطناعي مصدرًا آخر محتملًا لسوء الفهم والخطأ ، وعاجلاً أم آجلاً ، سيتعين على القوى العظمى ذات القدرات التقنية العالية الانخراط في حوار مستمر.
مثل هذا الحوار يجب أن يركز على قضية أساسية واحدة: تجنب الكارثة والنجاة منها. يبدو أن الذكاء الاصطناعي وغيره من التقنيات الناشئة ، مثل الحوسبة الكمومية ، تجعل الحقائق التي تتجاوز الإدراك البشري أكثر سهولة. في النهاية ، ومع ذلك ، قد نجد أنه حتى هذه التقنيات لها حدودها. مشكلتنا هي أننا لم ندرك مضامينها الفلسفية. يتم دفعنا للأمام من قبلهم بشكل لا إرادي ، وليس بوعي.
كانت آخر مرة حدث فيها تحول كبير في الوعي البشري خلال عصر التنوير ، وحدث هذا التحول لأن التقنيات الجديدة أنتجت رؤى فلسفية جديدة تم نشرها بدورها من خلال التكنولوجيا (في شكل مطبعة). في عصرنا ، تم تطوير تقنيات جديدة دون وجود فلسفات إرشادية مقابلة. الذكاء الاصطناعي هو مهمة ضخمة ذات فوائد محتملة بعيدة المدى. يعمل البشر بجد لتطوير الذكاء الاصطناعي ، لكن هل نستخدمه لجعل حياتنا أفضل أم أسوأ؟ إنه يعد بأدوية أقوى ، ورعاية صحية أكثر كفاءة وإنصافًا ، وممارسات بيئية أكثر استدامة ، ورؤى أخرى للتقدم. ومع ذلك ، في الوقت نفسه ، يمكن أن يؤدي أيضًا إلى تشويه المعلومات ، أو على الأقل تعقيد عملية استهلاك المعلومات وتحديد الحقيقة ، وبالتالي إضعاف القدرة على التفكير المستقل والحكم لدى بعض الأشخاص.
في النهاية ، يظهر سؤال "ميتا": هل يستطيع البشر تلبية الحاجة إلى الفلسفة "بمساعدة" الذكاء الاصطناعي مع تفسيرات وفهم مختلفة للعالم؟ لا يفهم البشر الآلات تمامًا ، لكن هل سنصنع سلامًا معهم في النهاية ونغير العالم؟ يبدأ إيمانويل كانط مقدمة كتابه "نقد العقل الخالص" بهذه النقطة:
العقل البشري له هذا المصير الغريب ، وهو أنه في أحد فروع المعرفة كلها يعاني من مشاكل لا يمكن تجاهلها لأنها تفرضها على نفسه بسبب طبيعة العقل نفسها ، ولكنها لأنها تفوق كل قدرات العقل. لا يمكن حلها.
في القرون التي تلت ذلك ، استكشف البشر هذه الأسئلة بعمق ، وبعضها يتطرق إلى طبيعة العقل ، والعقل ، وحتى الواقع. لقد حققت الإنسانية اختراقات عظيمة ، لكنها واجهت أيضًا العديد من القيود التي طرحها كانط: عالم من الأسئلة لا تستطيع الإجابة عليها ، عالم من الحقائق لا تستطيع فهمه تمامًا. إن ظهور الذكاء الاصطناعي ، الذي يجلب القدرة على التعلم ومعالجة المعلومات التي لا يستطيع البشر تحقيقها بالعقل وحده ، قد يسمح لنا بإحراز تقدم في الأسئلة التي أثبتت أنها تتجاوز قدرتنا على الإجابة. لكن النجاح سيثير أسئلة جديدة ، حاولنا تسليط الضوء على بعضها في هذا الكتاب. إن الذكاء البشري والذكاء الاصطناعي عند مفترق طرق حيث سيتلاقى الاثنان في مساعي على نطاق وطني أو قاري أو حتى عالمي. سيتطلب فهم هذا التحول ، وتطوير مدونة أخلاقية إرشادية حوله ، الحكمة الجماعية والصوت والالتزام المشترك لجميع شرائح المجتمع ، بما في ذلك العلماء والاستراتيجيين والسياسيين والفلاسفة ورجال الدين والرؤساء التنفيذيين. لا ينبغي أن يتم هذا الالتزام داخل البلدان فقط ، ولكن أيضًا بين البلدان. ما نوع الشراكة التي يمكن أن تكون لدينا مع الذكاء الاصطناعي ، وما نوع الواقع الذي سينبثق عنها؟ الآن ، حان الوقت لتحديد هذا.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
كيسنجر يتحدث عن الذكاء الاصطناعي: كيف تنظرون إلى النظام الدولي في عصر الذكاء الاصطناعي؟
الأصل: بكين نيوز
من هزيمة AlphaGo من Google للاعبي الشطرنج البشريين إلى ChatGpt التي تثير مناقشات ساخنة في مجتمع التكنولوجيا ، كل تقدم في تكنولوجيا الذكاء الاصطناعي يؤثر على أعصاب الناس. ليس هناك شك في أن الذكاء الاصطناعي يغير بشكل عميق مجتمعنا واقتصادنا وسياستنا وحتى سياستنا الخارجية ، وغالبًا ما تفشل نظريات الماضي التقليدية في تفسير تأثير كل هذه النظريات. في كتاب "عصر الذكاء الاصطناعي ومستقبل الإنسانية" ، كيسنجر ، الدبلوماسي الشهير ، شميدت ، الرئيس التنفيذي السابق لشركة Google ، وهوتنلشر ، عميد كلية شوارزمان لعلوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا ، نوعًا ما خارج الحياة الماضية للذكاء الاصطناعي من وجهات نظر مختلفة هذه الحياة ، وناقش بشكل شامل التأثيرات المختلفة التي قد يجلبها تطوره على الأفراد والمؤسسات والحكومات والمجتمعات والبلدان. يعتقد العديد من كبار المفكرين أنه كلما أصبحت قدرات الذكاء الاصطناعي أقوى وأقوى ، فإن كيفية تحديد دور البشر ستكون اقتراحًا يجب أن نفكر فيه لفترة طويلة في المستقبل. تم اقتباس المحتوى التالي من "عصر الذكاء الاصطناعي ومستقبل الإنسانية" بإذن من الناشر ، مع حذف وتنقيحات ، تمت إضافة ترجمات بواسطة المحرر.
المؤلف الأصلي | [الولايات المتحدة] هنري كيسنجر / [الولايات المتحدة] إريك شميدت / [الولايات المتحدة] دانيال هاتنلوشير
** ما الذي سيحققه الذكاء الاصطناعي العام؟ **
هل يستطيع البشر والذكاء الاصطناعي الاقتراب من نفس الواقع من وجهات نظر مختلفة ، وهل يمكن أن يكمل كل منهما الآخر ويكمل بعضهما البعض؟ أم أننا ندرك حقيقتين مختلفتين ولكن متداخلتين جزئيًا: أحدهما يمكن للبشر تفسيره بعقلانية ، والآخر يمكن للذكاء الاصطناعي أن يفسره خوارزميًا؟ إذا كانت الإجابة هي الأخيرة ، فيمكن للذكاء الاصطناعي أن يدرك الأشياء التي لم ندركها بعد ولا يمكننا إدراكها - ليس فقط لأننا لا نملك الوقت الكافي للتفكير بها في طريقتنا ، ولكن لأنها موجودة في مكان تراه أذهاننا. لا يمكن تصورها. في هذا المجال. سيتغير سعي البشرية إلى "الفهم الكامل للعالم" ، وسيدرك الناس أنه من أجل الحصول على معرفة معينة ، قد نحتاج إلى تكليف الذكاء الاصطناعي بالحصول على المعرفة لنا وتقديم تقرير إلينا. بغض النظر عن الإجابة ، بينما يسعى الذكاء الاصطناعي إلى تحقيق أهداف أكثر شمولاً وشمولاً ، سيبدو للبشر أكثر فأكثر مثل "مخلوق" يختبر العالم ويفهمه - مزيج من الأدوات والحيوانات الأليفة والعقول. موجودة.
مع اقتراب الباحثين من الذكاء العام الاصطناعي أو تحقيقه ، سيزداد اللغز بشكل أعمق. كما ناقشنا في الفصل 3 ، لن يقتصر الذكاء الاصطناعي العام على التعلم وأداء مهام محددة ؛ بدلاً من ذلك ، بحكم التعريف ، سيكون الذكاء الاصطناعي العام قادراً على التعلم وأداء مجموعة واسعة للغاية من المهام ، تمامًا كما يفعل البشر. يتطلب تطوير الذكاء الاصطناعي العام قدرة هائلة على الحوسبة ، والتي قد تؤدي فقط إلى عدد قليل من المنظمات جيدة التمويل القادرة على إنشاء مثل هذا الذكاء الاصطناعي. كما هو الحال مع الذكاء الاصطناعي الحالي ، في حين أن الذكاء الاصطناعي العام قد يتم نشره بسهولة بشكل لامركزي ، نظرًا لقدراته ، فإن تطبيقاته ستكون بالضرورة محدودة. يمكن فرض قيود على الذكاء الاصطناعي العام من خلال السماح فقط للمنظمات المعتمدة بتشغيله. يصبح السؤال بعد ذلك: من سيتحكم في الذكاء الاصطناعي العام؟ من الذي سيأذن باستخدامه؟ هل لا تزال الديمقراطية ممكنة في عالم حيث يتم تشغيل عدد قليل من الآلات "العبقرية" من قبل عدد قليل من المنظمات؟ في هذه الحالة ، كيف سيبدو التعاون بين الإنسان والذكاء الاصطناعي؟
إذا ظهر الذكاء الاصطناعي العام في العالم ، فسيكون ذلك إنجازًا فكريًا وعلميًا واستراتيجيًا كبيرًا. ولكن حتى لو فشلت في القيام بذلك ، يمكن للذكاء الاصطناعي أيضًا أن يحدث ثورة في الشؤون الإنسانية. إن دافع الذكاء الاصطناعي وقدرته على الاستجابة لحالات الطوارئ (أو الأحداث غير المتوقعة) وتقديم الحلول يميزه عن التقنيات السابقة. إذا تُركت منظمة العفو الدولية دون تنظيم ، يمكن أن ينحرف الذكاء الاصطناعي عن توقعاتنا ، وبالتالي ، نيتنا. إن قرار تقييده أو التعاون معه أو طاعته لن يتم اتخاذه من قبل البشر فقط. في بعض الحالات ، سيتم تحديد ذلك من خلال الذكاء الاصطناعي نفسه ؛ وفي حالات أخرى ، سيعتمد على عوامل تمكين مختلفة. قد ينخرط البشر في "سباق نحو القاع".
نظرًا لأن الذكاء الاصطناعي يعمل على أتمتة العمليات ، ويسمح للبشر باستكشاف كميات هائلة من البيانات ، وينظم ويعيد هيكلة المجالات المادية والاجتماعية ، فقد يكتسب هؤلاء المحركون الأوائل ميزة المحرك الأول. قد تجبر الضغوط التنافسية الأطراف على التسابق لنشر الذكاء الاصطناعي العام دون وقت كافٍ لتقييم المخاطر أو ببساطة تجاهلها. الأخلاق حول الذكاء الاصطناعي ضرورية. قد يكون لكل قرار فردي - بالحد ، أو التعاون ، أو الامتثال - عواقب وخيمة ، ولكن عند الجمع ، يتضاعف التأثير.
لا يمكن اتخاذ هذه القرارات بمعزل عن غيرها. إذا أرادت البشرية تشكيل المستقبل ، فعليها الاتفاق على مبادئ مشتركة توجه كل خيار. صحيح أن العمل الجماعي صعب ، وأحيانًا مستحيل ، لكن الأفعال الفردية بدون توجيه من قاعدة أخلاقية مشتركة لن تؤدي إلا إلى مزيد من الاضطراب والفوضى للبشرية جمعاء. سيتمكن أولئك الذين يصممون الذكاء الاصطناعي ويتدربون ويعملون معه ، من تحقيق أهداف على نطاق وتعقيد لم يكن بالإمكان تحقيقه حتى الآن للبشر ، مثل الاكتشافات العلمية الجديدة والكفاءات الاقتصادية الجديدة وأشكال الأمن الجديدة والبعد الجديد للمراقبة الاجتماعية. وفي توسع الذكاء الاصطناعي واستخداماته ، قد يشعر أولئك الذين لم يتم تمكينهم بأنهم يخضعون للمراقبة والدراسة والتصرف من قبل قوى لا يفهمونها ، وأن ذلك ليس من تصميمهم أو اختيارهم. تعمل هذه القوة بطريقة مبهمة لا يمكن للفاعلين أو المؤسسات البشرية التقليدية التسامح معها في العديد من المجتمعات. يجب أن يكون مصممو الذكاء الاصطناعي والقائمون على نشره مستعدين للتعامل مع هذه المشكلات ، بدءًا من شرح ما يفعله الذكاء الاصطناعي للأشخاص غير التقنيين وما "يعرفه" وكيف يفعل ذلك. تخلق الطبيعة الديناميكية والناشئة للذكاء الاصطناعي الغموض بطريقتين على الأقل. أولاً ، قد يعمل الذكاء الاصطناعي بالشكل الذي نتوقعه ، ولكنه ينتج نتائج لا يمكننا توقعها. قد تقود هذه النتائج الإنسانية إلى أماكن لم يتوقعها أبدًا مبتكروها ، تمامًا كما فشل السياسيون في عام 1914 في إدراك أن المنطق القديم للتعبئة العسكرية مقترنًا بالتكنولوجيا الجديدة من شأنه أن يجر أوروبا إلى الحرب. يمكن أن يكون للذكاء الاصطناعي أيضًا عواقب وخيمة إذا تم نشره واستخدامه دون دراسة متأنية.
يمكن أن تكون هذه العواقب صغيرة ، مثل قرار مهدد للحياة تتخذه سيارة ذاتية القيادة ، أو بالغ الأهمية ، مثل نزاع عسكري خطير. ثانيًا ، في بعض مجالات التطبيق ، قد يكون الذكاء الاصطناعي غير متوقع ، ويتصرف بشكل غير متوقع تمامًا. بأخذ AlphaZero كمثال ، فقد طور أسلوبًا في الشطرنج لم يتخيله البشر أبدًا منذ آلاف السنين من تاريخ الشطرنج ، فقط وفقًا لتعليمات "الفوز بالشطرنج". في حين أن البشر قد يكونون حريصين على وصف أهداف الذكاء الاصطناعي ، فإننا نمنحه مجالًا أكبر ، فإن طريقه إلى هذا الهدف قد يفاجئنا ، بل ويثير ذعرنا. لذلك ، يجب تصميم كل من استهداف وتفويض الذكاء الاصطناعي بعناية ، لا سيما في المناطق التي يمكن أن تكون فيها قراراته قاتلة. لا ينبغي النظر إلى الذكاء الاصطناعي على أنه مستقل أو غير مراقب ولا يسمح له باتخاذ إجراءات لا رجعة فيها دون إشراف أو مراقبة أو تحكم مباشر. تم إنشاء الذكاء الاصطناعي من قبل البشر ، لذلك يجب أن يتم الإشراف عليه أيضًا من قبل البشر. لكن أحد تحديات الذكاء الاصطناعي في عصرنا هو أن الأشخاص الذين يمتلكون المهارات والموارد اللازمة لإنشائه لا يمتلكون بالضرورة المنظور الفلسفي لفهم تداعياته الأوسع. يركز العديد من مبتكري الذكاء الاصطناعي بشكل أساسي على التطبيقات التي يحاولون تحقيقها والمشكلات التي يريدون حلها: قد لا يتوقفون عن التفكير فيما إذا كان الحل سيحدث ثورة تاريخية ، أو كيف ستؤثر تقنيتهم على مختلف الحشود. يحتاج عصر الذكاء الاصطناعي إلى ديكارت وكانط لشرح ما أنشأناه وماذا يعني للبشر.
نحن بحاجة إلى تنظيم مناقشات ومفاوضات عقلانية تشمل الحكومات والجامعات والمبدعين في الصناعة الخاصة ، ويجب أن يكون الهدف هو وضع حدود للإجراءات العملية مثل تلك التي تحكم العمل الفردي والتنظيمي اليوم. يتمتع الذكاء الاصطناعي بسمات تشترك في بعض الشيء نفسه ، ولكنها تختلف عنها في بعض الجوانب المهمة ، من المنتجات والخدمات والتقنيات والكيانات الخاضعة للتنظيم حاليًا ، من حيث أنها تفتقر إلى إطار مفاهيمي وقانوني محدد تمامًا. على سبيل المثال ، تطرح الطبيعة الاستفزازية والمتطورة للذكاء الاصطناعي تحديات تنظيمية: قد يختلف من وكيف يعمل في العالم عبر المجالات ويتطور بمرور الوقت ، وليس دائمًا بطريقة يمكن التنبؤ بها. تسترشد حوكمة الناس بمدونة أخلاقية. يحتاج الذكاء الاصطناعي إلى بوصلة أخلاقية خاصة به لا تعكس طبيعة التكنولوجيا فحسب ، بل تعكس أيضًا التحديات التي تطرحها.
في كثير من الأحيان ، لا تنطبق هنا المبادئ المعمول بها. في عصر الإيمان ، عندما واجه المتهمون في محاكم التفتيش حكم معركة ، كان بإمكان المحكمة أن تقرر الجريمة ، لكن الله قرر من هو المنتصر. في عصر العقل ، حدد البشر الذنب وفقًا لمبادئ العقل ، وحكموا على الجرائم ومعاقبتهم وفقًا لمفاهيم مثل السببية والنية الإجرامية. لكن الذكاء الاصطناعي لا يعمل على العقل البشري ، ولا يمتلك الدافع البشري أو النية أو التأمل الذاتي. وبالتالي ، فإن إدخال الذكاء الاصطناعي سيعقد مبادئ العدالة الحالية التي تنطبق على البشر.
عندما يتصرف نظام مستقل بناءً على تصوراته وقراراته ، هل يتحمل منشئوه المسؤولية؟ أم لا ينبغي الخلط بين أفعال الذكاء الاصطناعي وأفعال صانعيها ، على الأقل فيما يتعلق بالذنب؟ إذا كان سيتم استخدام الذكاء الاصطناعي للكشف عن علامات السلوك الإجرامي ، أو للمساعدة في تحديد ما إذا كان شخص ما مذنبًا ، فهل يجب أن تكون منظمة العفو الدولية قادرة على "شرح" كيفية توصلها إلى استنتاجاتها حتى يتمكن المسؤولون البشريون من الوثوق بها؟ علاوة على ذلك ، في أي مرحلة وفي أي سياق من التطور التكنولوجي يجب أن يخضع الذكاء الاصطناعي للمفاوضات الدولية؟ هذا موضوع مهم آخر للنقاش. إذا تم التحقيق في وقت مبكر جدًا ، فقد يتم إعاقة تطوير التكنولوجيا ، أو قد تميل إلى إخفاء قدراتها ؛ إذا تأخرت لفترة طويلة ، فقد يكون لها عواقب مدمرة ، خاصة في الجيش. ويتفاقم هذا التحدي بسبب صعوبة تصميم آليات تحقق فعالة لتكنولوجيا تكون أثيريّة وغامضة وسهلة النشر. سيكون المفاوضون الرسميون بالضرورة حكومات ، ولكن ستكون هناك أيضًا حاجة إلى صوت للتقنيين وعلماء الأخلاق والشركات التي تنشئ وتشغل الذكاء الاصطناعي وآخرين خارج المجال.
المعضلات التي يطرحها الذكاء الاصطناعي لها آثار بعيدة المدى على المجتمعات المختلفة. تتم معظم حياتنا الاجتماعية والسياسية اليوم على منصات الإنترنت التي تدعم الذكاء الاصطناعي ، وتعتمد الديمقراطيات بشكل خاص على مساحات المعلومات هذه للنقاش والتواصل ، وتشكيل الرأي العام ومنحهم الشرعية. من ، أو أي وكالة ، يجب أن تحدد دور التكنولوجيا؟ من يجب أن ينظمها؟ ما الدور الذي يجب أن يلعبه الأفراد الذين يستخدمون الذكاء الاصطناعي؟ ماذا عن الشركات التي تنتج الذكاء الاصطناعي؟ ماذا عن نشرها الحكومات الاجتماعية؟ كجزء من حل هذه المشكلات ، يجب أن نحاول جعلها قابلة للتدقيق ، أي أن عملياتها واستنتاجاتها قابلة للفحص والتصحيح. في المقابل ، فإن إمكانية تنفيذ التصحيحات ستعتمد على القدرة على صقل المبادئ لشكل إدراك الذكاء الاصطناعي واتخاذ القرار. الأخلاق والإرادة وحتى السببية لا تتناسب بشكل جيد مع عالم الذكاء الاصطناعي المستقل. تظهر مشاكل مماثلة في معظم مستويات المجتمع ، من النقل إلى التمويل إلى الطب.
ضع في اعتبارك تأثير الذكاء الاصطناعي على وسائل التواصل الاجتماعي. مع الابتكارات الحديثة ، أصبحت هذه المنصات بسرعة جانبًا مهمًا من حياتنا العامة. كما ناقشنا في الفصل 4 ، تعتمد الميزات التي يستخدمها Twitter و Facebook لتسليط الضوء على المحتوى أو الأفراد أو تقييدهما أو حظرهما بشكل تام على الذكاء الاصطناعي ، وهو دليل على قوته. يمثل استخدام الذكاء الاصطناعي للترويج أو إزالة المحتوى والمفاهيم من جانب واحد وغالبًا ما يكون مبهمًا تحديًا لجميع الدول ، وخاصة الديمقراطيات. هل من الممكن لنا أن نحتفظ بالهيمنة مع تحول حياتنا الاجتماعية والسياسية بشكل متزايد نحو المجالات التي يحكمها الذكاء الاصطناعي ، ولا يمكننا الاعتماد إلا على هذه الإدارة للتنقل فيها؟
تمثل ممارسة استخدام الذكاء الاصطناعي لمعالجة كميات كبيرة من المعلومات أيضًا تحديًا آخر: يزيد الذكاء الاصطناعي من تشويه العالم لتلبية التفضيلات الغريزية البشرية. هذا مجال يمكن للذكاء الاصطناعي فيه بسهولة تضخيم تحيزاتنا المعرفية ، ومع ذلك ما زلنا نتردد معها. مع هذه الأصوات ، التي تواجه مجموعة متنوعة من الخيارات ، وتمكينها من الاختيار والفرز ، سيتلقى الناس طوفانًا من المعلومات المضللة. لا تشجع شركات وسائل التواصل الاجتماعي الاستقطاب السياسي المتطرف والعنيف من خلال ملفات الأخبار الخاصة بها ، ولكن من الواضح أن هذه الخدمات لا تؤدي إلى تعظيم الخطاب المستنير أيضًا.
** الذكاء الاصطناعي والمعلومات الحرة والتفكير المستقل **
إذن ، كيف يجب أن تبدو علاقتنا مع الذكاء الاصطناعي؟ هل يجب تقييدها أو تمكينها أو معاملتها كشريك في إدارة هذه المجالات؟ لا شك في أن نشر معلومات معينة ، خاصة المعلومات الكاذبة عمدا ، يمكن أن يسبب الضرر والتقسيم والتحريض. لذلك هناك حاجة إلى بعض القيود. ومع ذلك ، فإن إدانة "المعلومات الضارة" والهجوم عليها وقمعها أصبحت الآن فضفاضة للغاية ، وينبغي أن يؤدي هذا أيضًا إلى التفكير.
في المجتمع الحر ، لا ينبغي أن يقتصر تعريف المعلومات الضارة والمضللة على اختصاص الشركات. ومع ذلك ، إذا تم إسناد هذه المسؤوليات إلى مجموعة أو وكالة حكومية ، فيجب أن تعمل تلك المجموعة أو الوكالة وفقًا للمعايير العامة المعمول بها ومن خلال إجراءات يمكن التحقق منها لتجنب الاستغلال من قبل من هم في السلطة. إذا تم تكليفها بخوارزمية الذكاء الاصطناعي ، فيجب أن تكون وظيفة الخوارزمية الموضوعية والتعلم والقرارات والإجراءات واضحة وخاضعة للتدقيق الخارجي ، وعلى الأقل شكلاً من أشكال الجاذبية البشرية.
بالطبع ، ستأتي المجتمعات المختلفة لإجابات مختلفة عن هذا. قد تؤكد بعض المجتمعات على حرية التعبير ، ربما بدرجات متفاوتة بناءً على فهمها النسبي للتعبيرات الفردية ، وبالتالي قد تحد من دور الذكاء الاصطناعي في تعديل المحتوى. يختار كل مجتمع الأفكار التي يقدرها ، والتي يمكن أن تؤدي إلى علاقات معقدة مع مشغلي منصات الشبكات متعددة الجنسيات. الذكاء الاصطناعي ماص مثل الإسفنج ، يتعلم من البشر ، حتى عندما نصممه ونشكله.
لذلك ، لا تختلف اختيارات كل مجتمع فحسب ، بل تختلف أيضًا علاقة كل مجتمع بالذكاء الاصطناعي ، وتصور الذكاء الاصطناعي ، والطريقة التي يقلد بها الذكاء الاصطناعي البشر ويتعلم من المعلمين البشريين. لكن هناك شيء واحد مؤكد ، وهو أن البحث البشري عن الحقائق والحقيقة لا ينبغي أن يجعل المجتمع يختبر الحياة من خلال مرشح غير محدد وغير قابل للاختبار. التجربة العفوية للواقع ، بكل تناقضاتها وتعقيداتها ، هي جانب مهم من جوانب الحالة الإنسانية ، حتى لو أدت إلى عدم الكفاءة أو الأخطاء.
** الذكاء الاصطناعي والنظام الدولي **
في جميع أنحاء العالم ، ينتظر عدد لا يحصى من الأسئلة الإجابة. كيف يمكن تنظيم منصات الذكاء الاصطناعي على الإنترنت دون إثارة التوترات بين الدول المعنية بسلامتها؟ هل ستؤدي هذه المنصات عبر الإنترنت إلى تآكل المفاهيم التقليدية للسيادة الوطنية؟ هل ستؤدي التغييرات الناتجة إلى استقطاب للعالم لم يشهده منذ انهيار الاتحاد السوفيتي؟ هل يعترض الكونجرس الصغير؟ هل ستنجح محاولات التوسط في هذه العواقب؟ أم أن هناك أي أمل بالنجاح؟
مع استمرار زيادة قدرات الذكاء الاصطناعي ، ستصبح كيفية تحديد دور البشر بالتعاون مع الذكاء الاصطناعي مهمة ومعقدة بشكل متزايد. يمكننا أن نتخيل عالمًا يحترم فيه البشر بشكل متزايد آراء الذكاء الاصطناعي حول قضايا ذات أهمية متزايدة. في عالم ينشر فيه الأعداء الهجوميون الذكاء الاصطناعي بنجاح ، هل يمكن للقادة في الجانب الدفاعي أن يقرروا عدم نشر الذكاء الاصطناعي الخاص بهم وتحمل المسؤولية عنه؟ حتى أنهم ليسوا متأكدين من كيفية تطور هذا النشر. وإذا كان الذكاء الاصطناعي يتمتع بقدرة فائقة على التوصية بمسار عمل ، فهل هناك سبب لقبول صانعي القرار به ، حتى لو كان مسار العمل هذا يتطلب مستوى معينًا من التضحية؟ كيف يمكن للإنسان أن يعرف ما إذا كانت هذه التضحية ضرورية للنصر؟ إذا كان الأمر ضروريًا ، فهل يرغب صانعو السياسات حقًا في نقضه؟ بمعنى آخر ، قد لا يكون لدينا خيار سوى تعزيز الذكاء الاصطناعي. لكن علينا أيضًا مسؤولية تشكيله بطريقة تتوافق مع مستقبل البشرية. النقص هو أحد معايير التجربة الإنسانية ، خاصة عندما يتعلق الأمر بالقيادة.
غالبًا ما يغمر صانعو السياسات مخاوف لا تطاق. في بعض الأحيان ، تستند أفعالهم إلى افتراضات خاطئة ؛ وأحيانًا ، يتصرفون بدافع العاطفة الخالصة ؛ وفي أوقات أخرى ، تشوه الأيديولوجيا رؤيتهم. مهما كانت الاستراتيجيات المستخدمة لبناء شراكات بين الإنسان والذكاء الاصطناعي ، يجب تكييفها مع البشر. إذا أظهر الذكاء الاصطناعي قدرات خارقة في مجالات معينة ، فيجب أن يكون استخدامه متوافقًا مع البيئة البشرية غير الكاملة.
في مجال الأمن ، تستجيب الأنظمة التي تدعم الذكاء الاصطناعي بسرعة كبيرة لدرجة أن الأعداء قد يحاولون الهجمات قبل أن يتم تشغيل الأنظمة. قد تكون النتيجة حالة غير مستقرة بطبيعتها مماثلة لتلك التي أوجدتها الأسلحة النووية. ومع ذلك ، يتم تأطير الأسلحة النووية ضمن مفاهيم الأمن الدولي ومراقبة التسلح التي تم تطويرها على مدى العقود القليلة الماضية من قبل الحكومات والعلماء والاستراتيجيين وعلماء الأخلاق من خلال التحسين المستمر والنقاش والتفاوض. لا يوجد إطار عمل مماثل للذكاء الاصطناعي والأسلحة الإلكترونية.
في الواقع ، قد تكون الحكومات مترددة في الاعتراف بوجودها. تحتاج البلدان - وربما شركات التكنولوجيا - إلى الاتفاق على كيفية التعايش مع الذكاء الاصطناعي المُسلح. سيؤدي انتشار الذكاء الاصطناعي من خلال وظائف الدفاع الحكومية إلى تغيير التوازن الدولي والحوسبة التي يتم الحفاظ عليها في عصرنا. الأسلحة النووية باهظة الثمن ويصعب إخفاؤها بسبب حجمها وهيكلها. في المقابل ، يمكن تشغيل الذكاء الاصطناعي على أجهزة الكمبيوتر الموجودة في كل مكان. نظرًا لأن تدريب نموذج التعلم الآلي يتطلب خبرة وموارد حوسبية ، فإن إنشاء ذكاء اصطناعي يتطلب موارد على مستوى شركة أو دولة كبيرة ؛ وبما أن تطبيق الذكاء الاصطناعي يتم على أجهزة كمبيوتر صغيرة نسبيًا ، فمن المؤكد أنه سيتم استخدامه على نطاق واسع ، بما في ذلك الطرق التي لم نتوقعها. هل سيتمكن أي شخص لديه جهاز كمبيوتر محمول ، واتصال بالإنترنت ، وتفاني في التطفل في الجانب المظلم من الذكاء الاصطناعي ، أخيرًا من الوصول إلى سلاح يعمل بالذكاء الاصطناعي؟ هل ستسمح الحكومات للجهات الفاعلة التي تربطها بها صلات وثيقة أو لا تربطها بها علاقات باستخدام الذكاء الاصطناعي لمضايقة خصومهم؟ هل يخطط الإرهابيون لهجمات الذكاء الاصطناعي؟ هل سيكونون قادرين على عزو هذه الأنشطة إلى الدول أو الجهات الفاعلة الأخرى؟
في الماضي ، جرت الدبلوماسية في ساحة منظمة ويمكن التنبؤ بها ؛ واليوم ، سيتم توسيع وصولها إلى المعلومات ونطاق العمل بشكل كبير. الحدود الواضحة التي كانت تتشكل من خلال الاختلافات الجغرافية واللغوية ستختفي تدريجياً. سوف تسهل ترجمة الذكاء الاصطناعي الحوار دون الحاجة إلى المعرفة اللغوية والثقافية أيضًا كما فعل المترجمون السابقون. ستعمل المنصات الإلكترونية التي تعمل بالذكاء الاصطناعي على تسهيل الاتصال عبر الحدود ، بينما ستستمر عمليات القرصنة والمعلومات المضللة في تشويه التصورات والتقييمات. وكلما أصبح الوضع أكثر تعقيدًا ، سيصبح من الصعب تطوير اتفاقيات قابلة للتنفيذ ذات نتائج يمكن التنبؤ بها.
تضيف إمكانية الجمع بين قدرات الذكاء الاصطناعي والأسلحة الإلكترونية إلى هذه المعضلة. تتجنب الإنسانية المفارقة النووية من خلال التمييز الواضح بين الأسلحة التقليدية (التي تعتبر متوافقة مع الإستراتيجية التقليدية) والأسلحة النووية (تعتبر استثناءً). بمجرد إطلاق القوة التدميرية للأسلحة النووية ، فإنها تصبح عشوائية وبغض النظر عن الهدف ؛ بينما يمكن للأسلحة التقليدية تمييز الهدف. لكن الأسلحة الإلكترونية التي يمكنها تحديد الأهداف وإحداث الخراب على نطاق واسع تقضي على هذا التمييز.
إضافة إلى وقود الذكاء الاصطناعي ، ستصبح هذه الأسلحة غير متوقعة وربما أكثر تدميراً. في الوقت نفسه ، عندما تتجول هذه الأسلحة حول الشبكة ، من المستحيل تحديد مصدرها. لا يمكن اكتشافها لأنها ليست ضخمة مثل الأسلحة النووية ؛ يمكن أيضًا حملها على أقراص USB ، مما يسهل الانتشار. في بعض الأشكال ، يصعب التحكم في هذه الأسلحة بمجرد نشرها ، خاصةً بالنظر إلى الطبيعة الديناميكية والناشئة للذكاء الاصطناعي.
هذا الوضع يتحدى مقدمات النظام العالمي القائم على القواعد. بالإضافة إلى ذلك ، فقد جعل من الضروري تطوير المفاهيم المتعلقة بالحد من أسلحة الذكاء الاصطناعي. في عصر الذكاء الاصطناعي ، لن يتبع الردع الأعراف التاريخية ، ولن يفعل ذلك. في فجر العصر النووي ، تم تطوير إطار مفاهيمي للحد من الأسلحة النووية بناءً على رؤى من المناقشات بين الأساتذة والعلماء البارزين (من ذوي الخبرة في الحكومة) في هارفارد ومعهد ماساتشوستس للتكنولوجيا ومعهد كاليفورنيا للتكنولوجيا ، مما أدى بدوره إلى إنشاء نظام ( والمؤسسات التي تطبقها في الولايات المتحدة والدول الأخرى).
على الرغم من أهمية التفكير الأكاديمي ، فإنه يتم تنفيذه بشكل منفصل عن اعتبارات البنتاغون للحرب التقليدية - إضافة جديدة وليس تعديل. لكن الاستخدامات العسكرية المحتملة للذكاء الاصطناعي أوسع من الأسلحة النووية ، والفرق بين الهجوم والدفاع غير واضح ، على الأقل في الوقت الحالي. في عالم شديد التعقيد ، ولا يمكن التنبؤ به بطبيعته ، يصبح الذكاء الاصطناعي مصدرًا آخر محتملًا لسوء الفهم والخطأ ، وعاجلاً أم آجلاً ، سيتعين على القوى العظمى ذات القدرات التقنية العالية الانخراط في حوار مستمر.
مثل هذا الحوار يجب أن يركز على قضية أساسية واحدة: تجنب الكارثة والنجاة منها. يبدو أن الذكاء الاصطناعي وغيره من التقنيات الناشئة ، مثل الحوسبة الكمومية ، تجعل الحقائق التي تتجاوز الإدراك البشري أكثر سهولة. في النهاية ، ومع ذلك ، قد نجد أنه حتى هذه التقنيات لها حدودها. مشكلتنا هي أننا لم ندرك مضامينها الفلسفية. يتم دفعنا للأمام من قبلهم بشكل لا إرادي ، وليس بوعي.
كانت آخر مرة حدث فيها تحول كبير في الوعي البشري خلال عصر التنوير ، وحدث هذا التحول لأن التقنيات الجديدة أنتجت رؤى فلسفية جديدة تم نشرها بدورها من خلال التكنولوجيا (في شكل مطبعة). في عصرنا ، تم تطوير تقنيات جديدة دون وجود فلسفات إرشادية مقابلة. الذكاء الاصطناعي هو مهمة ضخمة ذات فوائد محتملة بعيدة المدى. يعمل البشر بجد لتطوير الذكاء الاصطناعي ، لكن هل نستخدمه لجعل حياتنا أفضل أم أسوأ؟ إنه يعد بأدوية أقوى ، ورعاية صحية أكثر كفاءة وإنصافًا ، وممارسات بيئية أكثر استدامة ، ورؤى أخرى للتقدم. ومع ذلك ، في الوقت نفسه ، يمكن أن يؤدي أيضًا إلى تشويه المعلومات ، أو على الأقل تعقيد عملية استهلاك المعلومات وتحديد الحقيقة ، وبالتالي إضعاف القدرة على التفكير المستقل والحكم لدى بعض الأشخاص.
في النهاية ، يظهر سؤال "ميتا": هل يستطيع البشر تلبية الحاجة إلى الفلسفة "بمساعدة" الذكاء الاصطناعي مع تفسيرات وفهم مختلفة للعالم؟ لا يفهم البشر الآلات تمامًا ، لكن هل سنصنع سلامًا معهم في النهاية ونغير العالم؟ يبدأ إيمانويل كانط مقدمة كتابه "نقد العقل الخالص" بهذه النقطة:
العقل البشري له هذا المصير الغريب ، وهو أنه في أحد فروع المعرفة كلها يعاني من مشاكل لا يمكن تجاهلها لأنها تفرضها على نفسه بسبب طبيعة العقل نفسها ، ولكنها لأنها تفوق كل قدرات العقل. لا يمكن حلها.
في القرون التي تلت ذلك ، استكشف البشر هذه الأسئلة بعمق ، وبعضها يتطرق إلى طبيعة العقل ، والعقل ، وحتى الواقع. لقد حققت الإنسانية اختراقات عظيمة ، لكنها واجهت أيضًا العديد من القيود التي طرحها كانط: عالم من الأسئلة لا تستطيع الإجابة عليها ، عالم من الحقائق لا تستطيع فهمه تمامًا. إن ظهور الذكاء الاصطناعي ، الذي يجلب القدرة على التعلم ومعالجة المعلومات التي لا يستطيع البشر تحقيقها بالعقل وحده ، قد يسمح لنا بإحراز تقدم في الأسئلة التي أثبتت أنها تتجاوز قدرتنا على الإجابة. لكن النجاح سيثير أسئلة جديدة ، حاولنا تسليط الضوء على بعضها في هذا الكتاب. إن الذكاء البشري والذكاء الاصطناعي عند مفترق طرق حيث سيتلاقى الاثنان في مساعي على نطاق وطني أو قاري أو حتى عالمي. سيتطلب فهم هذا التحول ، وتطوير مدونة أخلاقية إرشادية حوله ، الحكمة الجماعية والصوت والالتزام المشترك لجميع شرائح المجتمع ، بما في ذلك العلماء والاستراتيجيين والسياسيين والفلاسفة ورجال الدين والرؤساء التنفيذيين. لا ينبغي أن يتم هذا الالتزام داخل البلدان فقط ، ولكن أيضًا بين البلدان. ما نوع الشراكة التي يمكن أن تكون لدينا مع الذكاء الاصطناعي ، وما نوع الواقع الذي سينبثق عنها؟ الآن ، حان الوقت لتحديد هذا.
المؤلف: / [الولايات المتحدة] هنري كيسنجر / [الولايات المتحدة] إريك شميدت / [الولايات المتحدة] دانيال هاتنلوشير
مقتطفات / ليو ياجوانج
المحرر / ليو ياجوانج
التدقيق اللغوي / تشاو لين