سرّ الخلاف بين البنتاغون وAnthropic.. حروب باستخدام الـAI
كشفت تقارير إعلامية مؤخراً عن اتجاه وزارة الحرب الأميركية (البنتاغون) لاعتماد نموذج "غروك" التابع لشركة xAI المملوكة للملياردير إيلون ماسك داخل أنظمتها السرية.
فقد سمحت الوزارة سابقاً باستخدام عدة نماذج ذكاء اصطناعي من شركات كبرى مثل OpenAI وغوغل فضلاً عن نموذج شركة Anthropic، غير أن الأخير كان حتى وقت قريب الوحيد المخول بتنفيذ مهام عسكرية فائقة الحساسية قبل نشوب خلاف بسبب رفض الشركة توسيع استخدامه في تطبيقات عسكرية وتطبيقات معينة.
"مناطق خطرة في توظيف النماذج الذكية"
في هذا الإطار، قال رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، محمد محسن رمضان، في تصريحات خاصة لـ"العربية.نت/الحدث.نت" إن "الاستخدامات التي أثارت الجدل بين شركة Anthropic والبنتاغون لم تكن عادية للذكاء الاصطناعي، بل تطبيقات عسكرية عالية الحساسية اعتُبرت — تقنياً وأخلاقياً مناطق خطرة في توظيف النماذج الذكية".
كما أضاف محسن رمضان أنه "حسب ما تسرّب من تقارير وتحليلات تقنية، فإن أبرز هذه الاستخدامات التي رفضت الشركة توسيعها كانت تشمل: أولاً المراقبة واسعة النطاق (Mass Surveillance Analytics)، فالوزارة طلبت توسيع قدرة النموذج على تحليل بيانات ضخمة تشمل اتصالات وصوراً ومصادر استخباراتية متنوعة لاستخراج أنماط سلوكية للأفراد أو الجماعات". وأوضح أن هذا النوع من الاستخدام يثير مخاوف تتعلق بالخصوصية، والانحياز الخوارزمي، واحتمال إساءة التفسير التحليلي.
(رويترز)
"تحليل استخباراتي عملياتي مباشر"
كذلك تابع: "ثانياً: دعم الأنظمة الذاتية التشغيل عسكرياً (Autonomous Systems Support). والمقصود هنا استخدام النموذج لدعم أنظمة تعمل دون تدخل بشري مباشر، مثل الطائرات أو المنصات غير المأهولة أو أنظمة القرار التكتيكي". وبيّن أن "الاعتراض التقني يتمثل في أن النماذج اللغوية لا تملك فهماً إدراكياً حقيقياً، بل تعمل باحتمالات إحصائية، ما يجعل الاعتماد عليها في سياقات قتالية مخاطرة عالية".
ومضى قائلاً: "ثالثاً: تحليل استخباراتي عملياتي مباشر (Operational Intelligence Processing) أي إشراك النموذج في تفسير بيانات ميدانية حية واقتراح تقديرات موقف أو توصيات استراتيجية"، لافتاً إلى أن هذا النوع من الاستخدام ينقل الذكاء الاصطناعي من دور الأداة إلى دور الشريك في القرار، وهو ما تعتبره بعض الشركات تجاوزاً لحدود الاستخدام الآمن.
"اعتبارات هندسية وأمنية"
كما ذكر محسن رمضان أن التقارير أشارت إلى أن الجهة العسكرية طلبت إتاحة النموذج لكل الأغراض التي تعتبرها قانونية، وهو توصيف واسع جداً. وأردف أن الشركة رأت أن هذا التعريف الفضفاض قد يفتح الباب لاستخدامات لم تُختبر سلامتها أو آثارها الجانبية.
كذلك تابع أن الرفض فلم يكن موقفاً سياسياً بقدر ما كان قائماً على اعتبارات هندسية وأمنية، أهمها أنه قد يساء السيطرة على النماذج المتقدمة أو التلاعب بمخرجاتها، وأن نشرها في بيئات عملياتية حساسة قبل ضمان صلابة آليات الحماية قد يخلق مخاطر استراتيجية غير قابلة للعكس.
ورأى من وجهة نظره المهنية، أن جوهر القضية لا يكمن في اسم النموذج المستخدم، "بل في طبيعة المرحلة الجديدة التي ندخلها. إذ إن إدماج نموذج ذكاء اصطناعي لغوي داخل منظومات عسكرية سيادية يعني انتقاله من مجرد أداة تحليل بيانات إلى عنصر مؤثر في صناعة القرار العملياتي".
(تعبيرية من آيستوك)
"اتساع سطح الهجوم السيبراني"
كما شدد على أن هذا التحول يخلق واقعاً عسكرياً مختلفاً جذرياً، لأن أي نظام يعتمد على الخوارزميات في تحليل التهديدات أو تقييم الخصوم أو اقتراح السيناريوهات التكتيكية يصبح جزءًا من سلسلة القيادة الرقمية، وليس مجرد برنامج مساعد.
كذلك حذر من أن "أخطر ما في هذا المسار هو اتساع سطح الهجوم السيبراني، فالنماذج الذكية يمكن التلاعب بها عبر ما يعرف تقنياً بهجمات حقن التعليمات، وهي أساليب تعتمد على تمرير مدخلات مصاغة بدقة لتغيير سلوك النموذج دون اختراق النظام نفسه في بيئة عسكرية، ما قد يؤدي إلى تحليل استخباراتي مضلل أو تقدير تهديدات غير دقيق أو حتى توصيات عملياتية خاطئة".
فيما ختم مؤكداً أن "خطر تسميم البيانات يظل قائماً، إذ يمكن لجهة معادية التأثير على مصادر البيانات التي يتعلم منها النموذج، ما يغير سلوكه تدريجياً دون أن تكتشف المؤسسة ذلك إلا بعد حدوث خلل استراتيجي".
(تعبيرية من آيستوك)
"سباق سيطرة خوارزمية"
من جانبه قال مساعد وزير الداخلية المصري الأسبق لأمن المعلومات، محمود الرشيدي، في تصريحات خاصة لـ"العربية.نت/الحدث.نت" إن رفض بعض شركات التكنولوجيا توسيع استخدام نماذجها عسكرياً لم يكن موقفاً أخلاقياً فحسب، بل قراراً تقنياً عقلانياً لأن النماذج اللغوية بطبيعتها تعتمد على الاحتمالات الإحصائية لا على الفهم الحقيقي للسياق، وهو ما يجعل استخدامها في بيئات قتالية عالية الحساسية مخاطرة حسابية قد لا يمكن التنبؤ بنتائجها. وأضاف أنه مهما بلغت قدرة الذكاء الاصطناعي، غير أنه لا يملك إدراكاً استراتيجياً حقيقياً، بل يعيد تركيب المعرفة وفق أنماط البيانات التي تدرب عليها.
كما اعتبر الرشيدي، من خلال قراءته التقنية للمشهد، أن ما يحدث حالياً ليس سباق تسلح تقليدياً بين دول، بل سباق سيطرة خوارزمية بين نماذج ذكاء اصطناعي. وأوضح أن الدولة التي تمتلك النموذج الأكثر دقة في التحليل والتنبؤ ستملك أفضلية استراتيجية حتى لو لم تمتلك التفوق العسكري التقليدي، لهذا فإن إدخال نموذج جديد مثل "غروك" لا يعني مجرد إضافة تقنية، بل يعكس تبني مبدأ التعدد الخوارزمي داخل المؤسسات العسكري الذي يهدف إلى تقليل الاعتماد على مصدر واحد، لكنه في الوقت نفسه يزيد عدد نقاط الضعف المحتملة.
في حين شدد على أن السيناريو الأخطر يتمثل في احتمال استخدام الذكاء الاصطناعي نفسه كسلاح سيبراني. وبيّن أنه "بدلاً من أن يكون هدف الهجوم هو الشبكة أو الخادم، يصبح الهدف هو النموذج ذاته. وإذا نجح خصم في التأثير على مخرجاته قد يوجه قرارات المؤسسة العسكرية دون أن يخترق أنظمتها فعلياً". فيما أشار إلى أن هذا النوع من الهجمات يُعرف في علوم الأمن السيبراني بهجمات التلاعب بالقرار، وهي أخطر من الاختراقات التقليدية لأنها تستهدف العقل.