هيغسيث والمدير التنفيذي لشركة أنثروبيك مستعدان للاجتماع مع تصاعد النقاش حول استخدام الجيش للذكاء الاصطناعي

هيغسيث والمدير التنفيذي لشركة أنثروبيك مستعدان للاجتماع مع تصاعد النقاش حول استخدام الجيش للذكاء الاصطناعي

واشنطن — يخطط وزير الدفاع بيت هيغسث للقاء الرئيس التنفيذي لشركة أنتروبك يوم الثلاثاء، حيث إن الشركة المتخصصة في الذكاء الصناعي هي الوحيدة من نظرائها التي لم تزود تقنيتها لشبكة داخلية جديدة تتبع الجيش الأمريكي الجديدة.

شركة أنتروبك، صانعة الدردشة الآلية كلود، رفضت التعليق على الاجتماع لكن الرئيس التنفيذي دافيد أمدي قد أوضح مخاوفه الأخلاقية بشأن استخدام الحكومة للذكاء الصناعي دون رقابة، بما في ذلك مخاطر الطائرات المسيرة المسلحة المستقلة بالكامل واستخدام الذكاء الصناعي في مراقبة جماعية قد تتبع معارضة الدولة.

تم تأكيد الاجتماع بين هيغسث وأمدي من قبل مسؤول دفاعي لم يُسمح له بالتعليق علنًا وتحدث شرط عدم الكشف عن هويته.

تسلط الأضواء على الجدل حول دور الذكاء الصناعي في الأمن القومي والمخاوف بشأن كيفية استخدام التكنولوجيا في المواقف عالية المخاطر التي تتطلب استخدام القوة القاتلة أو المعلومات الحساسة أو مراقبة الحكومة. كما تأتي في وقت تعهد فيه هيغسث بمكافحة ما يسميه “ثقافة الاستيقاظ” في القوات المسلحة.

كتب أمدي في مقال الشهر الماضي: “يمكن للذكاء الصناعي القوي الذي يبحث في مليارات المحادثات من ملايين الأشخاص أن يقيّم المشاعر العامة، ويكتشف جيوبًا من عدم الولاء تتشكل، ويمحوها قبل أن تتطور.”

أعلنت وزارة الدفاع الصيف الماضي أنها تمنح عقود دفاعية لأربعة شركات ذكاء صناعي – أنتروبك، جوجل، OpenAI وشركة xAI التابعة لإيلون ماسك. كل عقد يصل قيمته إلى 200 مليون دولار.

كانت شركة أنتروبك أول شركة ذكاء صناعي تحصل على الموافقة لشبكات عسكرية سرية، حيث تعمل مع شركاء مثل بالانتير. الشركات الثلاث الأخرى، في الوقت الحالي، تعمل فقط في بيئات غير سرية.

بحلول بداية هذا العام، كان هيغسث يسلط الضوء على اثنين فقط من هذه الشركات: xAI وجوجل.

قال وزير الدفاع في خطاب في يناير في شركة سبيس إكس التابعة لمسك في جنوب تكساس إنه يتجاهل أي نماذج للذكاء الاصطناعي “لن تسمح لك بخوض الحروب.”

قال هيغسث إن رؤيته لأنظمة الذكاء الاصطناعي العسكرية تعني أنها تعمل “بدون قيود أيديولوجية تقيد التطبيقات العسكرية القانونية”، قبل أن يضيف أن “الذكاء الاصطناعي في البنتاجون لن يكون مستيقظًا”.

في يناير، قال هيغسث إن الدردشة الاصطناعية للذكاء الاصطناعي الخاصة بمسك “جروك” ستنضم إلى شبكة البنتاجون، المسماة GenAI.mil. جاء الإعلان بعد أيام من انطلاق “جروك” – الذي تم إدراجه في X، شبكة التواصل الاجتماعي المملوكة لمسك – تحت المجهر العالمي بسبب إنشاء صور مشوهة جنسيًا للغاية لأشخاص دون موافقتهم.

أعلنت OpenAI في أوائل فبراير أنها، أيضًا، ستنضم إلى منصة الذكاء الاصطناعي الآمنة التابعة للجيش، مما يمكّن جنود الخدمة من استخدام نسخة مخصصة من ChatGPT للمهام غير السرية.

طالما أن شركة أنتروبك تقدم نفسها كأكثر الشركات الذكية المسؤولة واهتمامًا بالسلامة، منذ أن استقال مؤسسوها من OpenAI لتشكيل الشركة الناشئة في عام 2021.

تضع عدم اليقين مع البنتاجون تلك النوايا تحت الاختبار، وفقًا لأوين دانiels، المدير المساعد للتحليل وزميل في مركز جورجتاون للأمن والتكنولوجيا الناشئة.

قراءات شائعة

قال أوين: “إن نظراء أنتروبك، بما في ذلك ميتا، جوجل وxAI، كانوا مستعدين للامتثال لسياسة الإدارة بشأن استخدام النماذج لجميع التطبيقات القانونية”. “لذا فإن القدرة التفاوضية للشركة هنا محدودة، وتتعرض لخطر فقدان النفوذ في دفع الإدارة لاعتماد الذكاء الاصطناعي.”

في جنون الذكاء الاصطناعي الذي تلا إصدار ChatGPT، قامت أنتروبك بالتنسيق مع إدارة الرئيس جو بايدن طوعًا لعرض أنظمتها على تدقيق طرف ثالث للحماية من مخاطر الأمن القومي.

حذر أمدي، الرئيس التنفيذي، من المخاطر المحتملة الكارثية للذكاء الاصطناعي بينما رفض التصنيف الذي يجعله “متشائمًا”. جادل في المقالة في يناير أن “نحن أقرب بكثير إلى خطر حقيقي في عام 2026 مما كنا عليه في عام 2023” لكن يجب إدارة تلك المخاطر بطريقة “واقعية وعمليّة”.

هذه لن تكون المرة الأولى التي تؤدي فيها مناشدات أنتروبك لفرض قيود أكثر صرامة على الذكاء الاصطناعي إلى تضارب مع إدارة ترامب. قامت أنتروبك بتوجيه انتقادات علنية لشركة نيفيديا للرقائق، مُنتقدة مقترحات ترامب لتخفيف السيطرة على الصادرات لتمكين بعض شرائح الكمبيوتر للذكاء الاصطناعي للبيع في الصين. ومع ذلك، تبقى الشركة شريكًا وثيقًا مع نيفيديا.

كانت إدارة ترامب وأنتروبك أيضًا على جانبي مختلفين من حملة ضغط لتنظيم الذكاء الاصطناعي في الولايات الأمريكية.

اتهم ديفيد ساكس، كبير مستشاري ترامب في مجال الذكاء الاصطناعي، أنتروبك في أكتوبر “بتنفيذ استراتيجية شبه احتكارية قائمة على تخويف الناس.”

أدلى ساكس بهذه التصريحات على X ردًا على أحد مؤسسي أنتروبك، جاك كلارك، الذي كتب عن محاولته لتحقيق توازن بين التفاؤل التكنولوجي و”الخوف المناسب” بشأن المسيرة المستمرة نحو أنظمة ذكاء اصطناعي أكثر قدرة.

عينت أنتروبك عددًا من المسؤولين السابقين في إدارة بايدن مباشرة بعد عودة ترامب إلى البيت الأبيض، لكنها حاولت أيضًا الإشارة إلى نهج ثنائي الحزبية. أضافت الشركة مؤخرًا كريس ليدل، مسؤول البيت الأبيض السابق من فترة ترامب الأولى، إلى مجلس إدارتها.

إن الجدل بين البنتاجون وأنتروبك يذكّر بالضجة التي حدثت قبل عدة سنوات عندما اعترض بعض عمال التكنولوجيا على مشاركة شركاتهم في مشروع مافن، برنامج مراقبة الطائرات بدون طيار التابع للبنتاجون. بينما استقال بعض العمال بسبب المشروع وانسحبت جوجل نفسها، فإن اعتماد البنتاجون على مراقبة الطائرات بدون طيار قد زاد فقط.

وبالمثل، قال أوين: “استخدام الذكاء الاصطناعي في الأغراض العسكرية هو بالفعل واقع وليس سيتوقف”.

قال: “بعض السياقات تكون ذات مخاطر أقل، بما في ذلك الأعمال المكتبية، لكن نشر الذكاء الاصطناعي في ساحات المعارك ينطوي على مخاطر أعلى مختلفة”، مشيرًا إلى استخدام القوة القاتلة أو أسلحة مثل الأسلحة النووية. “المستخدمون العسكريون على علم بهذه المخاطر وقد كانوا يفكرون في التخفيف منها منذ ما يقرب من عقد من الزمان.”

___

أبلغ أوبراين من بروفيدنس، رود آيلاند.



المصدر

About عمار الشهابي

عمار الشهابي محرر اقتصادي يتابع أخبار المال والأعمال والأسواق، ويقدم تغطية دقيقة للتطورات الاقتصادية المحلية والدولية.

View all posts by عمار الشهابي →