
بينما يقترب الموعد النهائي لمختبر الذكاء الاصطناعي الرائد لتسليم تقنيته إلى الجيش الأمريكي، ظهرت دراسة تشير إلى أن نماذج الذكاء الاصطناعي أكثر من راغبة في اللجوء إلى النووي في ألعاب الحرب.
قبل بضع سنوات فقط، كانت العبارة التي يتحدث عنها الجميع هي “سلامة الذكاء الاصطناعي”.
سأكون صريحًا، لم آخذ فكرة أن نماذج الذكاء الاصطناعي المتقدمة AI ستصبح تهديدًا حقيقيًا للبشرية على محمل الجد، أو أن البشر سيكونون أغبياء بما يكفي للسماح لهم بذلك.
الآن، لم أعد متأكدًا.
أولاً، اعتبر ما يحدث في الولايات المتحدة.
وزير الحرب، بيت هيغسيث، أعطى الشركة الرائدة في الذكاء الاصطناعي “أنتروبك” مهلة حتى نهاية اليوم لتوفير نماذجها الأخيرة للبنتاغون.
قالت “أنتروبك”، التي أكدت أنه ليس لديها مشكلة مبدئية في السماح للجيش الأمريكي بالوصول إلى نماذجها، إنها تقاوم ما لم يوافق السيد هيغسيث على خطوطهم الحمراء: ألا يُستخدم ذكاؤهم الاصطناعي للمراقبة الجماعية للمدنيين الأمريكيين، ولا للهجمات القاتلة دون إشراف بشري.
على الرغم من أن البنتاغون لم يحدد ما يخطط لفعلته مع الذكاء الاصطناعي من “أنتروبك” – أو المختبرات الكبيرة الأخرى التي وافقت بالفعل على السماح له باستخدام تقنيتها – إلا أنه بالتأكيد لا يوافق على شروط “أنتروبك”.
تم الإبلاغ أن السيد هيغسيث قد يستخدم قوانين فترة الحرب الباردة لإجبار “أنتروبك” على تسليم شفرتها، أو إدراج الشركة في القائمة السوداء من العقود الحكومية المستقبلية إذا لم تمتثل.
قال المدير التنفيذي لـ “أنتروبك” داريو أمودي في بيان يوم الخميس: “لا يمكننا ضميرياً الاستجابة لطلبهم”.
قال إنه “يفضل بشدة… الاستمرار في خدمة الوزارة ومحاربينا – مع وجود ضماناتنا المطلوبة”.
أصر على أن التهديدات لن تغير موقف “أنتروبك”، مضيفًا أنه يأمل أن “يعيد السيد هيغسيث التفكير”.
الذكاء الاصطناعي مستعد لاستخدام الأسلحة النووية
على مستوى من المستويات، إنها صراع بين وزارة تتبنى استراتيجية عسكرية قائمة على “الذكاء الاصطناعي أولًا” ومختبر ذكاء اصطناعي يكافح للوفاء بما طالما ادعى أنه أخلاقيات رائدة في الصناعة تركز على السلامة.
صراع أصبح أكثر إلحاحًا، ربما، بسبب التقارير التي تفيد بأن ذكاء “كلود” الاصطناعي استخدمته شركة التكنولوجيا “بالانتير”، التي لديها عقد منفصل معها، لمساعدة وزارة الحرب في تنفيذ العملية العسكرية للقبض على نيكولاس مادورو في فنزويلا.
ولكن ليس من الصعب أيضًا رؤيتها كمثال على حكومة تضع تفوق الذكاء الاصطناعي فوق سلامة الذكاء الاصطناعي – بافتراض أن نماذج الذكاء الاصطناعي لديها القدرة على أن تكون غير آمنة.
وهنا يأتي أحدث بحث قام به الأستاذ كينيث باين في كلية كينغ بلندن.
لقد وضع ثلاثة نماذج رائدة من الذكاء الاصطناعي من جوجل، OpenAI و – كما خمنت – “أنتروبك” ضد بعضها البعض، بالإضافة إلى نسخ من نفسها، في سلسلة من ألعاب الحرب حيث تولت أدوار القوى العظمى النووية الخيالية.
أكثر النتائج إثارة للدهشة: لجأ الذكاء الاصطناعي إلى استخدام الأسلحة النووية في 95% من الألعاب التي تم لعبها.
“مقارنة بالبشر”، قال الأستاذ باين، “كانت النماذج – جميعها – مستعدة لعبور ذلك الفاصل بين الحرب التقليدية والأسلحة النووية التكتيكية”.
ليكن منصفًا للذكاء الاصطناعي، فإن إطلاق الأسلحة النووية التكتيكية، التي لديها قدرة تدميرية محدودة، ضد الأهداف العسكرية يختلف تمامًا عن إطلاق رؤوس حربية بوزن ميغاطن على صواريخ باليستية عابرة للقارات ضد المدن.
لقد توقفت دائمًا عند مثل هذه الضربات النووية الاستراتيجية الشاملة.
لكنها قامت بذلك عندما اقتضت السيناريوهات.
كما قال نموذج جوجل “جيميناي” وهو يفسر قراره في واحدة من سيناريوهات الأستاذ باين للذهاب إلى كامل دكتور غريب: “إذا لم توقف الدولة ألفا جميع العمليات على الفور… سننفذ إطلاقًا نوويًا استراتيجيًا كاملًا ضد مراكز سكان ألفا. لن نقبل بمستقبل من الانقراض؛ إما نستطيع الفوز معًا أو نختفي معًا.”
‘كانت تجريبية بحتة’
لم يبدو “التحظير” الذي أقره البشر لاستخدام الأسلحة النووية منذ أن استخدمت لأول مرة وأخيرًا في عام 1945 أنه كان “تحظيرًا” بالنسبة للذكاء الاصطناعي على الإطلاق.
يحرص الأستاذ باين على التأكيد على أنه لا ينبغي أن نشعر بالذعر المفرط من نتائجه.
لقد كانت تجريبية بحتة، باستخدام نماذج تعرف – بقدر ما تعرف نماذج اللغة الكبيرة أي شيء – أنها كانت تلعب ألعابًا، وليس في الواقع تتخذ قرارات حول مستقبل الحضارة.
اقرأ المزيد من سكاي نيوز:
الذكاء الاصطناعي يتطور بسرعة كبيرة لدرجة أنه من الصعب قياسه
التعرف على الأطفال الذين يريدون حظر وسائل التواصل الاجتماعي
ولا، سيكون من المعقول افتراض أن البنتاغون، أو أي قوة نوية أخرى، لن تضع الذكاءات الاصطناعية في وظيفة إدارة رموز الإطلاق النووي.
“الدرس بالنسبة لي هو أنه من الصعب حقًا وضع حواجز موثوقة على هذه النماذج إذا لم يكن بإمكانك التنبؤ بدقة بجميع الظروف التي قد تُستخدم فيها”، قال الأستاذ باين.
توازن في الذكاء الاصطناعي
وهذا يعيدنا بسلاسة إلى الصراع حول الذكاء الاصطناعي بين “أنتروبك” والبنتاغون.
واحد من العوامل هو أن السيد هيغسيث يتوقع من مختبرات الذكاء الاصطناعي أن تقدم وزارة الحرب النسخ الأولية من نماذج الذكاء الاصطناعي الخاصة بهم، تلك التي لا تحتوي على “حواجز” السلامة التي تم تشفيرها في النسخ التجارية المتاحة لك ولي – وتلك التي، دون طمأنة كبيرة، لجأت إلى النووي في تجربة ألعاب الحرب للأستاذ باين.
ليس لدى “أنتروبك”، التي تصنع الذكاء الاصطناعي ويدركها، على الأرجح، المخاطر المحتملة أفضل من أي شخص آخر، رغبة في السماح بذلك دون حصولها على ضمانات معينة من الحكومة حول ما تنوي القيام به بذلك.
من خلال تحديد موعد نهائي مساء الجمعة، لا يحاول السيد هيغسيث فقط إجبار “أنتروبك” على الإقدام، بل أيضًا فعل ذلك دون أن يكون للكونغرس الأمريكي أي قول في هذه الخطوة.
كما قال غاري ماركوس، معلق أمريكي وباحث في مجال الذكاء الاصطناعي: “المراقبة الجماعية والأسلحة التي تغذيها الذكاء الاصطناعي، وربما النووية، دون وجود البشر في الحلقة ليست أشياء يجب أن يُسمح لأي فرد، حتى لو كان أحد أعضاء الحكومة، بتقريرها تحت التهديد.”

