كتب: بنيمين زرزور
يبدي خبراء القانون وحقوق الإنسان قلقاً متزايداً حيال اتساع دائرة استخدام الذكاء الاصطناعي وتطبيقاته في الحياة اليومية، ويتحدثون عن تغيير شامل بدأ يطرأ على علاقات العمل واستراتيجيات الإنتاج وغيرها من القطاعات. لكن الأخطر من ذلك استخدامات تطبيقات الذكاء الاصطناعي كسلاح تدمير شامل، والتي يكتنفها الكتمان والسرية الشديدة، وتتنافس جيوش القوى العظمى عليها سعياً للتفوق ودوام السيطرة.
يقول الخبراء إن الذكاء الاصطناعي التوليدي وتطبيقاته يمكن أن يؤثر في «مستقبل الحرب بأكمله»، من خلال تطوير عملية اتخاذ القرار في المناورات العسكرية والمعارك القتالية وانفلاتها من أية ضوابط.
ويعالج الذكاء الاصطناعي عدداً من مشكلات المناورات والمعارك تتعلق بالتكلفة والشفافية وحيز المناورة، لكن هناك أيضاً قيوداً يجب على المستخدمين أخذها في الاعتبار. ومن المؤكد أن الطريقة التي تستعد بها الجيوش لحروب المستقبل وتخوضها آخذة في التطور بشكل جذري مع تطور برامج تعلم الآلة من خلال سيناريوهات معقدة على المستويين التكتيكي والاستراتيجي.
وينطوي إدخال الذكاء الاصطناعي التوليدي في المناورات، وعمليات المحاكاة التي يستخدمها الخبراء والاستراتيجيون العسكريون والجيوش في تطوير خطط الحرب، على تحسين عملية اتخاذ القرار من قبل العناصر المشاركة. صحيح أن قسماً كبيراً من هذه الحقائق ظهر في الكتابة الخيالية عن حروب مستقبلية لم تبرح حيز الخيال البشري حتى الآن، ولكن يتم النظر فيه بعناية ويشهد تحولاً تدريجياً إلى واقع لا أحد يدرك مدى خطورته.
الاهتمام الأمريكي
فقد بدأ الجيش الأمريكي عملياً في التركيز على الحاجة إلى المناورات في عام 2015، وخلال بضع سنوات زاد الاهتمام بإمكانيات الذكاء الاصطناعي. ففي فبراير/شباط 2023، على سبيل المثال، سمح الجيش الأمريكي للذكاء الاصطناعي بقيادة طائرة مقاتلة بنجاح والانخراط في محاكاة معركة جوية.
وقال شويلر مور، كبير مسؤولي التكنولوجيا في القيادة المركزية الأمريكية إن خوارزميات التعلم الآلي ساعدت البنتاغون على تحديد الأهداف لأكثر من 85 غارة جوية في الشرق الأوسط.
نفذت القاذفات والطائرات المقاتلة الأمريكية تلك الضربات الجوية ضد سبع منشآت في العراق وسوريا في 2 فبراير/ شباط، ما أدى إلى تدمير الصواريخ والقذائف ومنشآت تخزين الطائرات من دون طيار ومراكز عمليات الميليشيات بالكامل أو على الأقل إتلافها.
وتم تطوير خوارزميات التعلم الآلي المستخدمة لتضييق نطاق الأهداف في إطار مشروع «مارفين» المشترك مع شركة «غوغل»، والذي لم تجدد الشركة عقده على خلفية اعتراض عدد من موظفيها وتركهم العمل لديها. وتطلب المشروع استخدام الجيش الأمريكي تكنولوجيا الذكاء الاصطناعي من «غوغل»، لتحليل لقطات ومشاهد صورتها الطائرات من دون طيار وإخضاعها لمزيد من المراجعة البشرية.
ولم تتوقف القوات الأمريكية في الشرق الأوسط عن تجربة استخدام الخوارزميات لتحديد الأهداف المحتملة باستخدام صور الطائرات من دون طيار أو صور الأقمار الصناعية حتى بعد أن أنهت «غوغل» مشاركتها. واختبر الجيش الأمريكي استخدامها خلال العام الماضي في تدريبات رقمية، لكنه بدأ في استخدام خوارزميات الاستهداف في العمليات الفعلية بعد هجمات حماس في 7 أكتوبر.
وخلصت دراسة أجراها معهد آلان تورينغ في لندن عام 2023 إلى أن «المناورات والمحاكاة لا تزال أدوات حاسمة لصناع القرار في مجال الدفاع. ويمكن استخدامها لتدريب الأفراد على المعارك المستقبلية، وتقديم رؤى حول القرارات الحاسمة في القتال، ومفاوضات السلام، والحد من الأسلحة، والاستجابة لحالات الطوارئ».
وتستعد شركات مثل «أوبن إيه» لتطوير «عناصر مستقلة» قادرة على أداء المهام منفردة، لكن عناصر الإصدار الحالي من عسكر المناورات قادرون فقط على تقديم الاستجابات الأكثر ترجيحاً بناءً على متوسط حسابي لمحصلة البيانات وصور الإنترنت.
دور الروبوتات
وتشهد ساحة المعركة الحديثة تغيراً متسارعاً، حيث تلعب الروبوتات والذكاء الاصطناعي أدواراً محورية في تشكيلات العمليات العسكرية. وتعمل الطائرات من دون طيار والهياكل الخارجية الآلية، على تكامل التقنيات المتقدمة في تعزيز الفعالية القتالية، وتعيد تحديد النماذج الاستراتيجية.
وتوفر الطائرات من دون طيار معلومات استخباراتية في الوقت الحقيقي دون تعريض حياة البشر للخطر. ولا تقل أهمية المركبات الأرضية المستقلة عن ذلك، حيث تتنقل في التضاريس الصعبة لتوصيل الإمدادات وإجراء الاستطلاع، ما يقلل من ضرورة الوجود البشري في المناطق الخطرة.
وتتخصص الروبوتات التكتيكية في التخلص من الذخائر المتفجرة، ما يوفر بديلاً أكثر أماناً لنزع فتيلها يدوياً. أضف إلى ذلك أن ظهور المركبات غير المأهولة تحت الماء يوسع القدرات التشغيلية تحت سطح البحر، ما يتيح قدرات مراقبة متطورة وإجراءات مضادة للألغام دون المخاطرة بحياة الغواصين. ومن خلال خوارزميات التعلم الآلي، يعالج الذكاء الاصطناعي مجموعات بيانات ضخمة للمساعدة في اتخاذ القرار، ما يوفر للقادة وعياً غير مسبوق بالموقف ورؤى استراتيجية.
وتحسباً للحرج والإشكالات القانونية التي تترتب على هذا الاستخدام في المجال العسكري، ووسط الدعوات العالمية المتلاحقة لضبط وحوكمة استخدام تطبيقات الذكاء الاصطناعي عموماً، عمدت شركة «أوبن إيه أي» منذ العاشر من يناير/ كانون الثاني الماضي إلى تعديل سياسة الاستخدام المنشورة على موقعها الشبكي بحيث فرضت حظراً على «الأنشطة التي تنطوي على مخاطر عالية منها الأذى الجسدي، بما في ذلك، على وجه التحديد،«تطوير الأسلحة» واستخدام التطبيقات في «الجيش والحرب».
وتأتي هذه التغييرات في الوقت الذي تتوق فيه الجيوش في جميع أنحاء العالم إلى دمج تقنيات التعلم الآلي للحصول على ميزة تنافسية؛ ولا يزال البنتاغون يستكشف مبدئياً كيفية استخدام تطبيقات «تشات جي تي بي» أو نماذج أخرى في إنشاء مخرجات نصية معقدة ببراعة وعلى جناح السرعة.
ورغم أن الفوائد المترتبة على مثل هذه التطورات واضحة، فإنها تفسح المجال أيضاً للتفكير جدياً في عدد من الاعتبارات الأخلاقية والاستراتيجية المعقدة التي يجب معالجتها لتسخير إمكاناتها الكاملة على أسس مدروسة بعيداً عن الفوضى والاستهتار بالأرواح والممتلكات.