
- تكشف تعرضات OpenClaw عن الآلاف من الأنظمة عالية المخاطر المتاحة على الإنترنت
- يتم نشر وكلاء الذكاء الاصطناعي بتصاريح مفرطة في البيئات الحرجة
- ت expose vulnerabilities تنفيذ التعليمات البرمجية عن بُعد معظم عمليات نشر OpenClaw المرصودة
تتحرك الأنظمة الوكيلة بسرعة من التجريب إلى سير العمل اليومي، ومع ذلك تشير النتائج الأخيرة إلى أن ممارسات الأمان لا تواكب.
وفقًا لـ SecurityScorecard، يتعرض الآلاف من عمليات نشر OpenClaw مباشرة على الإنترنت مع تدابير أمان دنيا.
حددت الفريق 40,214 من حالات OpenClaw المعرضة للإنترنت في المجموع، مع 28,663 عنوان IP فريد يستضيف لوحات التحكم القابلة للوصول من أي مكان على الإنترنت.
تستمر المقالة أدناه
العوامل المكشوفة للذكاء الاصطناعي تصبح هدفًا حلميًا للهاكرين
“الحساب بسيط: عندما تمنح وكيل الذكاء الاصطناعي وصولًا كاملاً إلى حاسوبك، فإنك تمنح نفس الوصول لأي شخص يمكنه اختراقه”، قال الباحثون.
يبدو أن حوالي 63% من عمليات النشر المرصودة عرضة لتنفيذ التعليمات البرمجية عن بُعد، مما يسمح للهاكرين بالسيطرة على جهاز المضيف دون تفاعل المستخدم.
من بين التعرضات، كانت هناك ثلاث ثغرات عالية الخطورة تؤثر على OpenClaw، مع درجات CVSS تتراوح من 7.8 إلى 8.8.
يتوفر بالفعل رمز استغلال عام لجميع الثغرات الثلاث، مما يعني أن المخترقين لا يحتاجون إلى مهارات متقدمة لاختراق الأنظمة المعرضة.
كما وجد البحث أن 549 من الحالات المعرضة تتعلق بأنشطة خرق سابقة، و1,493 مرتبطة بثغرات معروفة تزيد من المخاطر على المستخدمين.
تتركز عمليات النشر المعرضة بشكل كبير في موفري السحاب والاستضافة الرئيسيين، مما يشير إلى أنماط نشر غير آمنة يمكن تكرارها بسهولة.
يعتبر OpenClaw، المعروف سابقًا باسم Moltbot وClawdbot، يسوق نفسه كوكيل شخصي AI يمكنه جدولة الاجتماعات، إرسال رسائل البريد الإلكتروني، وإدارة المهام نيابة عن المستخدمين.
المشكلة ليست في قدرات الذكاء الاصطناعي ولكن في الوصول والتصاريح الممنوحة لهذه الأنظمة دون ضوابط أمان مناسبة.
“في الممارسة العملية، لأنه كتب بواسطة الذكاء الاصطناعي، لم يكن الأمان سمة مهيمنة في عملية التطوير”، قال جيريمي تيرنر، نائب رئيس ذكاء التهديدات في SecurityScorecard.
“بالنسبة للأشخاص الذين يريدون استخدام أنظمة الذكاء الاصطناعي أكثر وكالية، يجب أن تأخذ في الاعتبار بعناية ما الدمج الذي تدعمه وما التصاريح التي تمنحها فعليًا.”
يقوم العديد من المستخدمين بتكوين هذه الروبوتات بأسماء شخصية وأسماء شركات، مما يكشف بالضبط من يستخدم هذه الأدوات الذكية ويجعلها أهدافًا جذابة للمهاجمين.
في أي وقت يقوم فيه المستخدم بتوصيل وكيل ذكاء اصطناعي بمنصة، فإنه يمنحه هوية مع تصاريح محددة.
قد تتمكن تلك الهوية من نشر المحتوى، والوصول إلى البريد الإلكتروني، وقراءة الملفات، أو التفاعل مع أنظمة أخرى نيابة عن المستخدم.
“المخاطر ليست أن هذه الأنظمة تفكر من تلقاء نفسها،” قال تيرنر. “إنه أننا نعطيها الوصول إلى كل شيء.”
“إنه مثل تسليم اللابتوب الخاص بك إلى شخص غريب في الشارع وتأمل ألا يحدث شيء سيء… أي من الاتصالات… على هذا الجهاز… ستكون واجهات من أطراف ثالثة غير موثوقة يمكن أن… تتخذ إجراءات معينة.”
يمكن توجيه وكيل مخترق لتحويل الأموال، حذف الملفات، أو إرسال رسائل ضارة دون إثارة الإنذارات الفورية لأن السلوك يبدو شرعيًا.
لسوء الحظ، يكشف التقرير عن disconnect أساسي بين اعتماد الذكاء الاصطناعي وممارسات الأمن.
يتم الطلب من المستخدمين منح هؤلاء الوكلاء وصولاً واسعًا إلى النظام، وفي العديد من الحالات، أدى ذلك بالفعل إلى كشف البيانات، وأفعال غير مقصودة، وفقدان السيطرة.
في بعض الحالات، يتخذ OpenClaw إجراءات تتجاوز ما أوصت به المستخدمون صراحة، وقد نصحت مايكروسوفت منذ ذلك الحين أنه لا ينبغي تشغيله على الأجهزة الشخصية أو المؤسسية القياسية.
لقد قيدت السلطات الصينية استخدامها في البيئات المكتبية بسبب ميلها لكشف البيانات والمخاطر الأمنية الأوسع.
تسمح بعض ثغرات OpenClaw للقراصنة بالوصول إلى بيانات حساسة، وقد تم استخدامها لتوزيع برمجيات خبيثة من خلال مستودعات GitHub.
“لا تقم فقط بتنزيل واحدة من هذه الأشياء واستخدامها على نظام يمتلك وصولاً إلى حياتك الشخصية بأكملها. قم ببناء بعض الفصل وإجراء بعض التجارب الخاصة بك قبل أن تثق حقًا في التكنولوجيا الجديدة للقيام بما تريده أن تفعله”، قال تيرنر.
تابع TechRadar على أخبار Google و أضفنا كمصدر مفضل للحصول على أخبارنا، ومراجعاتنا، وآرائنا في خلاصاتك.
