هل يؤدي الذكاء الاصطناعي إلى زيادة احتمالية نشوب حرب نووية؟ إذا كان الأمر كذلك، فكيف يمكن تقليل هذه المخاطر؟ يقدّم الكتاب تشكيلة من التأثيرات المحتملة لتقنية الذكاء الاصطناعي في الاستراتيجية النووية ومخاطر التصعيد، إلى جانب تدابير الحد من المخاطر النووية المحتملة وتوصيات لإدارة تداخل الذكاء الاصطناعي مع الأسلحة النووية.
يعالج هذا العمل فجوة في العلاقات الدولية وأدبيات الدراسات الاستراتيجية ونتائجها مع تداعيات نظرية وسياسية كبيرة لاستخدام تكنولوجيا الذكاء الاصطناعي في المشروع النووي، ويقدم إطاراً نظرياً مبتكراً لمعاينة تكنولوجيا الذكاء الاصطناعي والمخاطر النووية، وذلك بالاعتماد على رؤى من علم النفس السياسي وعلم الأعصاب وعلوم الكمبيوتر والدراسات الاستراتيجية. يفكك المؤلف جيمس جونسون السمات المعرفية والنفسية الأساسية لفترة الحرب الباردة، ويقدم تفسيراً جديداً لسبب أهمية تطبيقات الذكاء الاصطناعي والتفكير الاستراتيجي، مقدماً آراء مهمة لواضعي السياسات، ومساهمة في الأدبيات التي تعاين تأثير القوة العسكرية والتغير التكنولوجي.
يتكون هذا العمل الصادر عن جامعة أكسفورد 2023 من مقدمة بعنوان «الذكاء الاصطناعي والأسلحة النووية»، وخمسة فصول هي:
1) الاستقرار الاستراتيجي: عاصفة كاملة من المخاطر النووية؟
2) الردع النووي: تحديات جديدة لنظرية الردع وتطبيقها.
3) التصعيد غير المقصود: نموذج جديد للمخاطر النووية.
4) معضلة أمن الذكاء الاصطناعي: انعدام الأمن وانعدام الثقة وسوء الفهم في الظل النووي.
5) الحرب النووية التحفيزية في العصر الرقمي. الخلاصة: إدارة العلاقة الاستراتيجية بين الذكاء الاصطناعي والنووي.
العقيدة النووية والتخطيط الاستراتيجي
يوضح المؤلف في البداية أننا الآن في عصر التغيير التكنولوجي السريع المضطرب، خاصة الذكاء الاصطناعي الذي يظهر في الآلات العسكرية التي تستخدمها القوات المسلحة في العالم بشكل متقدم في التخطيط والبحث والتطوير. لذلك، فإن الرحلة لإعادة توجيه القوات العسكرية للتحضير لساحة المعركة الرقمية المستقبلية لم تعد مجرد تكهنات أو خيال علمي. وفي حين أن الكثير من المناقشات الأخيرة قد ركزت على قضايا تقنية محددة وشكوك متضمنة عندما طورت الجيوش تطبيقات الذكاء الاصطناعي على المستوى التكتيكي والتشغيلي للحرب، لم يتم البحث إلا قليلاً في القضايا الاستراتيجية. يعالج الكتاب هذه الفجوة، ويعاين التقاطع بين التغيير التكنولوجي والتفكير الاستراتيجي والمخاطر النووية أو «المعضلة النووية».
يستكشف الكتاب تأثير تقنية الذكاء الاصطناعي في الروابط الحاسمة بين الواقع الجريء للحرب على المستوى التكتيكي والشؤون الاستراتيجية، وخاصة العقيدة النووية والتخطيط الاستراتيجي. يركز المؤلف على شقين:
*أولاً، تعمل التطورات السريعة في الذكاء الاصطناعي – وفئة أوسع من «التكنولوجيا الناشئة» – على تغيير الطريقة التي يجب أن نتصور بها إدارة ومراقبة التكنولوجيا وخطر الاستخدام النووي.
*ثانياً، مع إدراك للفوائد المحتملة للابتكار والتعقيد وتشويه المعلومات وضغط اتخاذ القرار المرتبط بعصر المعلومات الرقمية المزدهر، فإنها قد تؤدي أيضاً إلى تفاقم التوترات القائمة بين الخصوم وإنشاء آليات وتهديدات جديدة تزيد من مخاطر الحوادث النووية والتصعيد غير المقصود.
للتعامل مع هذه التحديات، يطبق الكتاب التنظير والمفاهيم الاستراتيجية النووية في حقبة الحرب الباردة (الردع النووي، الاستقرار الاستراتيجي، المعضلة الأمنية، التصعيد غير المقصود، والحرب النووية «التحفيزية» العرضية) لدراسة تأثير إدخال تكنولوجيا الذكاء الاصطناعي في مشروع نووي. نظراً لندرة الأمثلة الواقعية حول كيفية تأثير الذكاء الاصطناعي في الأزمات والردع والتصعيد، فإن استخدام الأدوات المفاهيمية من الماضي أمر بالغ الأهمية، كما يوضح الكاتب، لذلك يتحرك هذا الإطار النظري إلى ما وراء المبادئ والافتراضات المقيدة المرتبطة بالقطبية الثنائية، والسياسات العالمية المتناظرة المتمحورة حول الدولة، والردع العقلاني الكلاسيكي الذي لا يزال يهيمن على الأدبيات. يرى الكتاب بأن هذه الحكمة السائدة مضللة في عالم من الثنائيات المسلحة نووياً غير المتكافئة والجهات الفاعلة غير الحكومية والجهات الفاعلة غير البشرية أو الآلات الذكية.
يقدم الكتاب إطاراً نظرياً مبتكراً للنظر في تكنولوجيا الذكاء الاصطناعي والمخاطر النووية، ويستخلص السمات السياسية السيكولوجية البارزة لمفاهيم حقبة الحرب الباردة المختارة، ويقدم تفسيراً نظرياً جديداً لسبب أهمية هذه التطبيقات في التفكير الاستراتيجي النووي. وهكذا، يقترح الكتاب إعادة صياغة مبتكرة للمفاهيم النووية في حقبة الحرب الباردة مع الأخذ في الاعتبار تأثير التغيير التكنولوجي في المخاطر النووية وتحسين فهم السيكولوجيا البشرية.
ويشير المؤلف إلى أنه «بسبب عدم وجود مجموعات بيانات تجريبية في المجال النووي، من الصعب جداً التحدث بثقة حول مستويات المخاطر التي قد تكون مرتبطة بالاستخدام النووي (عرضياً أو متعمداً)» ويتساءل: «كيف يمكننا أن نعرف على وجه اليقين، على سبيل المثال، عدد الحوادث النووية الوشيكة، ونحدد أين ومتى يمكن أن تقع؟».
تهديد الاستقرار الدولي
يأتي هذا الكتاب في خمسة فصول. يبحث الفصل الأول في الآثار المحتملة المزعزعة للاستقرار لاستخدام الذكاء الاصطناعي مع القدرات النووية وغير النووية على حد سواء ضد القوى المسلحة نووياً. يسلط الفصل أيضاً الضوء على التقاطعات متعددة الأوجه الممكنة لتقنية الذكاء الاصطناعي مع الاستقرار النووي. يطرح الفصل عدداً من الأسئلة: كيف يمكن أن يؤثر الذكاء الاصطناعي في مخاطر الحرب النووية؟ وكيف يمكن للآلات الذكية تصعيد الموقف، وما مدى سهولة التلاعب بها؟ يبين المؤلف أن الفجوة الموجودة حالياً بين توقعات ومخاوف صانعي السياسات والجمهور بشأن تقاطع الذكاء الاصطناعي وغيرها من التقنيات الناشئة مع الأسلحة النووية، يقلل من القدرة على التنبؤ والتفاهم المشترك، والثقة، ويفرض تعتيماً على النقاش الرصين حول هذه الموضوعات المهمة، على وجه التحديد، تحقيق التوازن بشأن تسخير الفوائد التكتيكية التشغيلية والنوعية مع إدارة المخاطر التي يشكلها الاستقرار الاستراتيجي (استقرار الضربة الأولى، واستقرار الأزمة، واستقرار سباق التسلح) والأمن النووي أو «المعضلة النووية».
يرى المؤلف في هذا الفصل بأن تأثير الذكاء الاصطناعي في الاستراتيجية النووية للدول سيعتمد إلى حد كبير (أو ربما أكثر) على تصورات الخصوم لقدراتها، كما يعتمد على ما يمكن أن تفعله تطبيقات مدعمة بالذكاء الاصطناعي. مثل الكثير من التقنيات التحويلية السابقة، من المرجح أن يكون لعدم اليقين وسوء الفهم حول سرعة المنفعة المتصورة، والانتشار، والتأثير المحتمل للردع واتخاذ القرارات لتطبيقات الذكاء الاصطناعي تأثير كبير في الاستقرار الاستراتيجي. إن تأثير الذكاء الاصطناعي في الاستقرار الاستراتيجي، وبالتالي مخاطر الحرب النووية، سوف يتوقف على الخوف الذي يدركه الآخرون والتلاعب بهذا الخوف. يتناول الفصل الطرق التي قد يؤدي بها نظام الذكاء الاصطناعي العسكري إلى تفاقم التوتر بين القوى المسلحة نووياً (خاصة الولايات المتحدة والصين)، مما يعقّد استقرار الأزمة. تتمثل إحدى النتائج الأساسية في أن المدى الذي يشكل فيه الجيش مخاطر على الاستقرار الاستراتيجي سيعتمد إلى حد كبير على وتيرة هذه التكنولوجيا ونطاقها لتيسير طرق جديدة لتحسين إيصال الأسلحة النووية والأسلحة الاستراتيجية غير النووية ومواجهتها.
يركز الفصل الثاني على نظرية وممارسة الردع النووي، ويسلط الضوء على بعض التأثيرات النفسية المعرفية البشرية المتنوعة والمتناقضة، لا سيما التأثيرات النفسية المعرفية البشرية لتقنية الذكاء الاصطناعي للردع النووي. ويأخذ في الاعتبار الآثار المحتملة لإدخال عملاء غير بشريين في أزمة بين تأثير القوى النووية في الردع والتصعيد واستقرار الأزمة. ويطرح المؤلف فيه أسئلة منها: كيف يمكن أن يتأثر الردع النووي بانتشار الذكاء الاصطناعي وأنظمة التحكم الذاتي؟ وكيف سيؤثر إدخال الآلات الذكية في الردع من إنسان إلى إنسان (ومن إنسان إلى آلة)؟ هل الحل هو أن يجمع الذكاء الاصطناعي والبشر مواهبهم كوحدة متآزرة؟
ويرى أن العديد من القوى العسكرية العظمى تستثمر رأس المال السياسي والموارد المالية في تطوير تكنولوجيا الذكاء الاصطناعي وأنظمة الأسلحة المستقلة المحسنة في استخلاص أقصى الفوائد العسكرية المحتملة التي يمكن أن تقدمها هذه الأنظمة. يعاين المؤلف تأثير اعتماد هذه التقنيات في الردع النووي، قائلاً عن ذلك: أصبح انتشار هذه الفئات الجديدة من القدرات المتقدمة في كل مكان – والحوافز التي تدفع الجيوش لتبنيها – في ساحة المعركة المستقبلية أمراً مفروغاً منه بسرعة. وينظر في الكيفية التي قد تؤدي بها هذه القدرات – والتكوينات المختلفة – إلى إضعاف الردع أو تعزيزه وكيف ستستجيب الدول ذات الأنظمة السياسية المختلفة وفلسفات الاستخدام وسياسات الردع لهذه الديناميكيات على الأرجح. ويشير المؤلف إلى أن «تكنولوجيا الذكاء الاصطناعي يمكن أن تزيد من مخاطر سوء الفهم، وسباق التسلح، والتصعيد المحتمل للاستخدام النووي من خلال سوء التقدير، وبالتالي تقويض الردع. باختصار، النظريات والافتراضات التقليدية المرتبطة بالردع الكلاسيكي لها قابلية تطبيق مشكوك فيها في العصر الرقمي».
تصعيد نووي غير مقصود
يعيد الفصل الثالث التفكير في حقبة الحرب الباردة بشأن التصعيد غير المقصود، ويعاين كيفية تأثير التعزيز التكنولوجي لأسلحة تقليدية متقدمة معينة، ضد الخصوم، ومن خلال آليات مختلفة على مخاطر التصعيد غير المقصود. يرى المؤلف في هذا الفصل بأن المفاهيم الراهنة للتصعيد النووي غير المقصود، وهيمنة التصعيد على نطاق أوسع، تحتاج إلى إعادة النظر في العصر الرقمي، ويتساءل: كيف يمكن دمج الذكاء الاصطناعي في العمليات النووية والتقليدية بطرق تؤثر في مخاطر التصعيد؟ كيف يمكن لتطبيقات وتكوينات محددة للذكاء الاصطناعي تضخيم المخاطر الراهنة للتصعيد غير المقصود؟ يجد المؤلف هنا بأن الاختلاط (أو التشابك) بين الأسلحة النووية وغير النووية من المرجح أن يؤدي إلى تفاقم مخاطر التصعيد لجيل جديد من القدرات التقليدية المعززة. وعلى وجه التحديد، يمكن أن تؤدي التقاطعات المحتملة متعددة الأوجه لتقنية الذكاء الاصطناعي مع مجموعة من الأسلحة التقليدية المتقدمة (القوة المضادة التقليدية بشكل أساسي) إلى تعريض الأسلحة النووية للخطر، وبالتالي تضخيم الآثار المزعزعة للاستقرار لهذه الأسلحة في المستوى الاستراتيجي. يقيِّم المؤلف الاختلافات الناشئة في كيفية تصور الأنظمة السياسية المختلفة لاستخدام الذكاء الاصطناعي لتعزيز قوتها العسكرية، خاصة الصين والولايات المتحدة.
وفي إجابة لسؤال: «كيف يمكن أن تؤثر تقنية الذكاء الاصطناعي المزعجة ذات الاستخدام المزدوج في المعضلة الأمنية؟» يعيد المؤلف في الفصل الرابع النظر في «نظرية معضلة الأمن» الكلاسيكية والنماذج الحلزونية الأوسع الموجودة في العلاقات الدولية الأمنية في حقبة الحرب الباردة، مع الأخذ في الاعتبار تداعيات التقدم في تكنولوجيا الذكاء الاصطناعي ذات الاستخدام المزدوج – ودور تقنيات الأمن الناشئة بشكل عام – بالنسبة للاستراتيجية الخاصة بالدول الكبرى المتنافسة. يتناول الكاتب التقاطع بين المعضلة الأمنية والتكنولوجيا الناشئة، ولا يقدّم فيه إطاراً نظرياً لاستكشاف تكنولوجيا الذكاء الاصطناعي ذات الاستخدام المزدوج والمعضلة الأمنية (أو «معضلة أمن الذكاء الاصطناعي») فحسب، بل يسلط الضوء أيضاً على الديناميات والمخاطر المحتملة لهذا الأمن الدولي سريع التطور. يتناول أيضاً نطاق وتوازن الدفاع والجريمة وكيفية تأثير العوامل النفسية في تمييز هذا التوازن. كما يوضح أهمية تنظير علم النفس الإدراكي البشري والمعضلة الأمنية لفهم الطبيعة والمخاطر المحتملة التي تشكلها «معضلة الأمن» ضمن التنافس بين الدول، أي مسارات جديدة لسباقات التسلح واحتمال حدوث تصعيد غير مقصود من خلال سوء الفهم.
يعيد الفصل الخامس النظر في مفهوم حقبة الحرب الباردة «للحرب النووية التحفيزية»، حيث يمكن أن تثير الآثار الجانبية لأفعال الأطراف الثالثة أو الجهات الفاعلة غير الحكومية حرباً نووية بين قوتين مسلحتين نووياً. ويرى بأن سلسلة التحفيز من رد الفعل وديناميات الانتقام المضاد التي بدأتها حركة متعمدة من جهة فاعلة غير حكومية أو طرف ثالث أصبحت سريعاً سيناريو أكثر منطقية في العصر الرقمي. يشرح هذا الفصل سبب وجوب إعادة النظر في فكرة «الحرب النووية المحفزة» مع الأخذ في الاعتبار التغيرات التكنولوجية الحديثة وتحسين فهم علم النفس البشري. على وجه التحديد، يتفاقم الميل البشري إلى إصدار أحكام سريعة وبديهية وانعكاسية وإرشادية (المعروفة باسم تفكير «النظام 1») عندما تكون المعلومات الزائدة والتقنيات غير المألوفة سمة أكثر بروزاً في عملية صنع القرار. يدور الفصل الخامس حول سؤال: «كيف يمكن للجيوش الحفاظ على قيادة وسيطرة فعالة على القوات النووية في بيئة صراع سريعة التطور وغير مؤكدة ومعقدة؟»، يتطرق المؤلف فيه إلى الوسائل المتطورة المتاحة للجهات الفاعلة لتحقيق أهدافها في العصر الرقمي. يتناول الفصل العوامل المختلفة التي قد تؤدي إلى تفاقم مسارات التصعيد أثناء الأزمة.
ويخلص إلى أن تقنية الذكاء الاصطناعي تعمل على إنشاء مسارات تصعيد قديمة جديدة وتفاقم من خطر تحفيز المواجهة النووية العرضية بين القوى المسلحة نووياً، لا سيما في ظل ظروف غير عقلانية (أو دون عقلانية).
يجمع الفصل الختامي بين الحجج والنتائج الرئيسية من الكتاب، وينظر في تدابير الحد من المخاطر النووية المحتملة وتوصيات السياسة لإدارة تقاطع تكنولوجيا الذكاء الاصطناعي مع الأسلحة النووية. يوضح هذا القسم الديناميكيات الأساسية (على سبيل المثال، التعاون المعياري والسلوكي وتعاون أصحاب المصلحة الأوسع) وآليات الحد من المخاطر (على سبيل المثال… الحد من التسلح والتحقق وبناء الثقة والحوار الاستراتيجي) التي يتعين على صانعي القرار النظر فيها إذا أردنا التخفيف أو منع أسوأ سيناريو من آثار ومخاطر مستقبلنا النووي، أي قبل أن تتجاوز وتيرة التغيير التكنولوجي (أو تتجاوز) الشؤون الاستراتيجية.