
انسَ الخيال العلمي. عصر الذكاء الاصطناعي في الحرب قد بدأ.
استخدمت إسرائيل أنظمة الذكاء الاصطناعي في غزة لتحديد الأهداف المحتملة والمساعدة في تحديد الأولويات في العمليات.
قالت تقارير إن الجيش الأمريكي استخدم نموذج Anthropic، كلاود، خلال عملية اختطاف نيكولاس مادورو من فنزويلا.
وحتى بعد واجهت أنثروبك صعوبات مع الإدارة الأمريكية حول كيفية استخدام الذكاء الاصطناعي في الحرب، يبدو أن الجيش الأمريكي لا يزال استخدم كلاود في هجومه على إيران.
آخر التطورات في إيران: ترامب ينتقد ستارمر بسبب موقف المملكة المتحدة
يقول الخبراء إنه من المحتمل جداً أن الصواريخ التي تحلق فوق طهران اليوم تستهدفها أنظمة مدعومة بالذكاء الاصطناعي.
يقول كريغ جونز، محاضر أول في الجغرافيا السياسية من جامعة نيوكاسل: “الذكاء الاصطناعي يغير طبيعة الحرب الحديثة في القرن الواحد والعشرين. من الصعب المبالغة في تأثيره وما سيؤثر عليه”.
“إنها سيناريوهات مخيفة محتملة”.
سواء كانت مخيفة أم لا، يبدو أنه لا يمكن العودة إلى الوراء. إذا كنت تريد أن تعرف مدى أهمية الذكاء الاصطناعي بالنسبة للجيش الأمريكي، فمكان جيد للبدء هو مذكرة أرسلها وزير الدفاع بيت هيغسيث، الذي يلقب نفسه وزير الحرب، إلى جميع القادة العسكريين الكبار في وقت مبكر من هذا العام.
كتب السيد هيغسيث: “أوجه وزارة الحرب لتسريع هيمنة الذكاء الاصطناعي العسكري الأمريكي من خلال أن نصبح قوة قتالية ‘تستخدم الذكاء الاصطناعي أولاً’ عبر جميع المكونات، من الأمام إلى الخلف”.
هذه ليست تجربة، بل هي أمر – لتبني الذكاء الاصطناعي بسرعة وعلى نطاق واسع.
أو كما يقول هيغسيث: “السرعة تفوز”.
لكن السيناريو المعني ليس هو الذي قد يتبادر إلى الذهن أولاً.
نعم، الاستقلالية تتزايد في بعض المجالات. في أوكرانيا، على سبيل المثال، هناك طائرات مسيرة قادرة على متابعة مهمة حتى بعد فقد الاتصال بمشغل بشري.
لكننا لسنا في المرحلة التي تلاحق فيها الروبوتات القاتلة المستقلة ساحة المعركة.
يقول ديفيد ليسلي، أستاذ الأخلاق والتكنولوجيا والمجتمع في جامعة كوين ماري في لندن: “نحن لسنا في عصر المودعين بعد”.
الأنظمة التي يتم تضمين الذكاء الاصطناعي فيها – والمعروفة باسم “أنظمة دعم القرار” في jargon العسكري – هي مستشارون يحددون الأهداف، ويصنفون التهديدات ويقترحون الأولويات.
يمكن لأنظمة الذكاء الاصطناعي جمع صور الأقمار الصناعية، والاتصالات المعترضة، وبيانات اللوجستيات وتدفقات وسائل التواصل الاجتماعي – آلاف، بل حتى مئات الآلاف من المدخلات – واستخراج الأنماط بسرعة تفوق أي فريق بشري.
الفكرة هي أنها تساعد في تجاوز ضباب الحرب، مما يسمح للقادة بالتركيز على الموارد حيثما كانت في أمس الحاجة إليها، بينما قد تكون أكثر دقة من الجنود البشر المتعبين والمجهَدين والمضغوطين.
وهذا يعني أنها ليست مجرد أداة، كما يقول الدكتور جونز، بل هي طريقة جديدة لصنع القرارات.
“الذكاء الاصطناعي، كما نرى في حياتنا الخاصة، هو أكثر مثل بنية تحتية”، كما يقول. “إنه مدمج في النظام”.
“لدينا هذه القدرة على جمع تلك المراقبة التي كنا نقوم بها منذ عدة سنوات.
“لكن الآن يضفي الذكاء الاصطناعي استقرارًا للعمل بناءً على ذلك واغتيال قائد إيران وإسقاط خصوم خطيرين وأعداء خطيرين وإيجادهم بطرق غير متوقعة قد لا يتم اكتشافهم من قبل.”
‘أداة مقنعة للغاية’
يوافق البروفيسور ليسلي على أن الأنظمة الجديدة قادرة للغاية من المنظور العسكري.
“إن السباق من أجل السرعة هو ما يدفع هذا الاتجاه”، كما يقول. “جعل دورات صنع القرار أسرع هو ما يجلب ميزة عسكرية من الفتك.”
ميزة هامة لأنظمة دعم القرار هي أن الذكاء الاصطناعي لا يضغط الزر. إنسان يفعل ذلك. كانت هذه هي الضمانة المركزية في النقاشات حول الذكاء الاصطناعي العسكري. هناك دائماً “إنسان في الحلقة”.
كما وضعت OpenAI، الشركة التي تصنع ChatGPT، بعد إعلان شراكة لتزويد البنتاغون بالذكاء الاصطناعي: “سيكون لدينا مهندسو OpenAI المعتمدون في الموقع يساعدون الحكومة، مع باحثي السلامة والتوافق المعتمدين في الحلقة.”
كما أكدت OpenAI أنها حصلت على اتفاق مع البنتاغون بعدم استخدام تقنيتها بطرق تتجاوز ثلاث “خطوط حمراء”: مراقبة جماعية محلية، أنظمة أسلحة مستقلة مباشرة، وقرارات أوتوماتيكية ذات خطر عالٍ.
ولكن حتى مع وجود إنسان في الحلقة، يبقى سؤال.
اقرأ المزيد:
الذكاء الاصطناعي مستعد للذهاب إلى النووي في الألعاب الحربية، كما وجدت دراسة
Claude Opus 4.6: هذا الذكاء الاصطناعي اجتاز ‘اختبار آلة البيع’
عندما تكون في حالة حرب، هل يمكن أن يتحقق إنسان فعلاً من كل قرار صادر عن الذكاء الاصطناعي؟ عندما يكون الوقت مضغوطاً والمعلومات غير مكتملة، ماذا تعني “الرقابة البشرية” حقاً؟
“البشر من الناحية الفنية في الحلقة”، كما يقول الدكتور جونز.
“هذا لا يعني، في رأيي، أنهم في الحلقة بما يكفي ليكون لديهم السلطة الفعالة لصنع القرار والرقابة على ما حدث بالضبط. الذكاء الاصطناعي… هو أداة مقنعة جداً للناس الذين يتخذون القرار.”
أو كما يقول البروفيسور ليسلي: “نحن نواجه حقاً خطرًا محتملاً مقاسًا، حيث بسبب سرعة ما يحدث، لا يكون لديك تفاعل بشري حيوي ونقدي لتقييم التوصيات التي يتم تقديمها من قبل هذه الأنظمة.”
ثم هناك مسألة عدم موثوقية الذكاء الاصطناعي نفسه.
اقرأ المزيد:
المملكة المتحدة ستنشر HMS Dragon في قبرص، يؤكد رئيس الوزراء
إيران أسئلة وأجوبة: لماذا يمكن أن يحاول ترامب إعلان انتصار سريع
أظهرت اختبارات أجرتها Sky News أن لا كلاود ولا ChatGPT يمكن أن يخبرا عدد الأرجل التي تمتلكها الدجاجة، إذا لم تبدُ كما توقعا.
علاوة على ذلك، أصر الذكاء الاصطناعي على أنه كان على حق، حتى عندما كان واضحًا أنه كان مخطئًا.
جاء المثال من ورقة توضح عشرات الأمثلة على حالات الفشل المماثلة. “ليس مثالاً وحيدًا على أرجل الحيوانات”، كما قال المؤلف الرئيسي آن فوي.
“المشكلة عامة عبر أنواع البيانات والمهام،” أضاف فوي.
السبب هو أن الذكاء الاصطناعي لا يرى العالم بالطريقة البشرية – بل يخمن ما هو الأكثر احتمالًا بناءً على البيانات السابقة.
معظم الوقت، يمكن أن يكون هذا النوع من التفكير الإحصائي فعالًا بشكل مذهل. العالم قابل للتنبؤ إلى حد ما بحيث تعمل الاحتمالات.
لكن بعض البيئات بطبيعتها غير قابلة للتنبؤ وعالية المخاطر.
نحن نختبر حدود هذه التكنولوجيا في أقسى الظروف المتخيلة.
