عرض: د. إيمان عبد الحليم
تتنامى استخدامات الذكاء الاصطناعي في المجالات العسكرية، بدءاً من صيانة المعدات واتخاذ القرارات المتعلقة بالميزانية حتى اعتماد محللي الاستخبارات على الذكاء الاصطناعي لمسح كميات كبيرة من المعلومات، وبما يساعدهم على إصدار أحكام أفضل وفي أقصر وقت متاح. وفي المستقبل، يتوقع تغيير الذكاء الاصطناعي الطريقة التي تقاتل بها الجيوش المسلحة خصومها في ساحة القتال، لتثير مثل هذه التقنيات ثورة أمنية واسعة الأبعاد.
ومن هذا المنطلق، نشرت مجلة "فورين أفيرز"، في عددها المنشور في نوفمبر/ديسمبر 2023، مقالاً بعنوان "الذكاء الاصطناعي في الحرب بالفعل.. كيف سيحول الذكاء الاصطناعي الجيوش؟"، لـ"ميشيل فلورنوي" المؤسس المشارك والشريك الإداري لشركة WestExec Advisors، ورئيس "مركز الأمن الأمريكي الجديد"، التي سبق أن شغلت منصب وكيل وزارة الدفاع الأمريكية بين عامي 2009 و2012. ويتناول المقال أبعاد تأثير الذكاء الاصطناعي في المجال العسكري في ظل تزايد اعتماد الجيوش على تقنيات الذكاء الاصطناعي في عملياتها المختلفة.
أبعاد التأثير
يشير المقال إلى تعدد استخدامات الذكاء الاصطناعي في الأنشطة العسكرية وفي المجالات الاستخباراتية للجيوش في الوقت الآني؛ وذلك على النحو التالي:
1– استخدامات الذكاء الاصطناعي في صيانة الأسلحة: وهو الأمر الذي ظهر بصورة عملية من جانب العديد من الدول؛ حيث بدأ الجيش الأمريكي على نحو خاص، في استخدام نماذج الذكاء الاصطناعي في صيانة أنظمة الأسلحة المعقدة، من السفن إلى الطائرات المقاتلة؛ إذ يمكن لبرامج الذكاء الاصطناعي في الوقت الحالي جمع البيانات من أجهزة الاستشعار الخاصة بأنظمة التسلح للتنبؤ بموعد ونوع الصيانة الخاصة بها، وبما يزيد من جاهزيتها ويساعد على إطالة عمرها وتقليل التكاليف.
2– المساعدة في فحص الصور ومقاطع الفيديو: يستخدم ضباط المخابرات بالفعل الذكاء الاصطناعي يومياً لفحص آلاف الصور ومقاطع الفيديو. وبعد أن كان على المحللين العسكريين في الماضي قضاء آلاف الساعات في مشاهدة مقاطع الفيديو لتحليل التفاصيل محل الاهتمام، مكَّن استخدام الذكاء الاصطناعي من تطوير نموذج لفحص المواد، يركز فقط على الأبعاد محل الاهتمام. وبما أن مثل هذه النماذج أضحت أكثر دقة وموثوقية، فإن لديها القدرة على مساعدة القادة على الأرض على اتخاذ قرارات تشغيلية حاسمة بشكل أسرع بكثير؛ ما يمنح القوات ميزة هائلة، وربما حاسمة في ساحة المعركة.
3– المساهمة في التحكم في أنظمة تسليحية متعددة: يمكن أيضاً للذكاء الاصطناعي أن يساعد الجيوش من خلال استكمال أنشطة أفراد الخدمة في الميدان؛ حيث تسمح بعض التطبيقات قيد التطوير في الوقت الحالي لمشغل بشري واحد بالتحكم في أنظمة متعددة غير مأهولة، مثل سرب من الطائرات بدون طيار في الهواء أو على الماء أو تحت سطح البحر. على سبيل المثال، يمكن للطيار المقاتل استخدام سرب من الطائرات بدون طيار لإرباك نظام الرادار والدفاع الجوي الخاص بالعدو، كما يمكن لقائد الغواصة استخدام المركبات غير المأهولة تحت سطح البحر لإجراء أنشطة الاستطلاع في منطقة محصنة دفاعياً أو للبحث عن الألغام تحت سطح البحر، مع توفير فرقة كاملة من العسكريين. وقد أعلن البنتاجون مؤخراً عن برنامج الطائرات بدون طيار Replicator، الذي يَعِد بإدخال آلاف من الأنظمة الصغيرة والذكية والمنخفضة التكلفة خلال العامين المقبلين.
4– دعم عمليات اتخاذ القرار: بدأت القوات الجوية الأمريكية تستخدم الذكاء الاصطناعي لمساعدتها في تخصيص الموارد والتنبؤ بالكيفية التي يمكن بها لقرار واحد أن يعيد تشكيل برنامجها وميزانيتها. على سبيل المثال، إذا أضاف قادة القوات الجوية سرباً آخر من طائرات F–35، يمكن لمنصة تخصيص الموارد المدعومة بالذكاء الاصطناعي أن تسلط الضوء فوراً، ليس فقط على التكاليف المباشرة للقرار، بل أيضاً على آثاره على الأفراد والقواعد وتوافر الطائرات والأبعاد الأخرى المهمة.
5– إمكانية التنبؤ بالأحداث المستقبلية: يُضاف إلى ما سبق، توسع استخدام الاستخبارات الأمريكية والعديد من القيادات العسكرية لتقنيات الذكاء الاصطناعي لأجل التدقيق في مجموعات من البيانات السرية وغير السرية لتحديد أنماط السلوك والتنبؤ بالأحداث الدولية المستقبلية. وأوضح مثال على ذلك كان نجاح مجتمع الاستخبارات في التنبؤ بالغزو الروسي لأوكرانيا قبل أشهر من وقوعه، وباستخدام الذكاء الاصطناعي؛ ما مكَّن الولايات المتحدة الأمريكية من تحذير العالم وحرمان موسكو من عنصر المفاجأة. وأيضاً في القيادة الاستراتيجية الأمريكية، يتم استخدام الذكاء الاصطناعي الذي طورته شركة Rhombus Power للمساعدة في تحذير المسؤولين بشأن حركة الصواريخ المسلحة نووياً، التي لم تتمكن غالباً من اكتشافها في الماضي.
6– إتاحة فهم أفضل لتفكير الخصوم: يمكن كذلك للذكاء الاصطناعي التنبؤي أن يمنح الدول فهماً أفضل لما قد يفكر فيه خصومها المحتملون، ولعل النموذج الأهم على ذلك الولايات المتحدة التي يمكن أن تستخدم الذكاء الاصطناعي في التنبؤ بطريقة تفكير خصومها، وخاصة القادة في بكين، وكيف تترجم القيادة الصينية السياسة إلى أفعال محددة.
ويرى "فلورنوي" أنه يمكن لمجتمع الاستخبارات، على سبيل المثال، تطوير نموذج لغوي يمكنه استيعاب جميع الكتابات والخطب المتاحة للقادة الصينيين، فضلاً عن تقارير المخابرات الأمريكية حول هذه الشخصيات، ومن ثم محاكاة الكيفية التي قد يقرر بها الرئيس الصيني "شي جين بينج" تنفيذ سياسته المعلنة. ويمكن للمحللين أن يطرحوا أسئلة محددة على النموذج، مثل التساؤل عن الظروف التي قد يكون معها الرئيس "بينج" على استعداد لاستخدام القوة ضد تايوان.
تحديات الاستخدام
بالرغم من تنامي أهمية تقنيات الذكاء الاصطناعي، وتوسع استخداماتها العسكرية، فإن الاعتماد عليها يفرض في المقابل العديد من التحديات، وفي ضوء الآتي:
1– تزايد التهديدات الأمنية للذكاء الاصطناعي: يحذر علماء الكمبيوتر من أنه يمكن لتقنيات الذكاء الاصطناعي أن تساعد في تمكين الهجمات الإلكترونية وبسرعات كبيرة، كما يحذر الكيميائيون من أن الذكاء الاصطناعي قادر على تصنيع الأسلحة الكيميائية، وأعرب علماء الأحياء عن قلقهم من إمكانية استخدامه لتصميم مسببات الأمراض أو الأسلحة البيولوجية الجديدة. وقد دفعت شدة المخاطر المحتملة إلى توقيع كل رؤساء المختبرات الرئيسية للذكاء الاصطناعي في الولايات المتحدة تقريباً في مايو 2023، على رسالة تحذر من أن اختراعاتهم يمكن أن تشكل تهديداً وجودياً للبشرية.
2– انتشار المعلومات المضللة واحتمالات الخطأ: يساعد الذكاء الاصطناعي على تسريع انتشار المعلومات المضللة عبر الإنترنت، والأخطر أنه في مجال الأمن القومي؛ حيث تكون المخاطر أكثر عمقاً، فإنه يمكن لنماذج الذكاء الاصطناعي أن تخطئ في تحديد الأشخاص أو الأشياء كأهداف؛ ما يؤدي إلى حالات قتل ودمار غير مقصودين أثناء الصراعات. وأيضاً فإن نماذج الصندوق الأسود للذكاء الاصطناعي – تلك التي لا يمكن فهم أسبابها أو تفسيرها بشكل كافٍ – قد تدفع المخططين العسكريين إلى اتخاذ قرارات خطيرة، وسيكون هذا الخطر أكثر حدة إذا تم تنفيذ التطبيقات التي تم تطويرها في موقف ما على موقف آخر دون إجراء ما يكفي من الاختبارات والرقابة.
3– فرص التشويش من قِبل الأعداء: لا تنبع مخاطر الذكاء الاصطناعي من الأنظمة السيئة التصميم أو المستخدمة بلا حرص فحسب؛ فيمكن أن تكون الدول شديدة الدقة في تطوير وتنفيذ برامج الذكاء الاصطناعي فقط، فيتمكن خصومها من إيجاد طرق لإفساد بياناتها. على سبيل المثال، إذا كان الخصم قادراً على محاكاة أداة رؤية حاسوبية مدعمة بالذكاء الاصطناعي لاستهداف مركبة مدنية بدلاً من مركبة عسكرية، فقد يؤدي ذلك إلى قيام الدولة بإيذاء المدنيين في منطقة النزاع عن غير قصد. ويمكن للخصم أيضاً أن يفسد البيانات بطرق من شأنها أن تؤدي إلى تدهور أداء نظام الأسلحة الذي يدعم الذكاء الاصطناعي أو قد يؤدي إلى إيقاف تشغيله.
التنافس المحتدم
إزاء التحديات السابقة، ومع المشكلات المتعددة التي تفرضها استخدامات الذكاء الاصطناعي، دعا بعض الباحثين، وخصوصاً في الولايات المتحدة، الذين يشعرون بالقلق إزاء مخاطر الذكاء الاصطناعي، إلى التوقف مؤقتاً عن تطوير تقنياته المختلفة، وهو ما يُعد أمراً مستحيلاً في الوقت الآني. وفي هذا الصدد، يشير المقال إلى عدد من الأبعاد الخاصة بالتنافس الصيني الأمريكي حول استخدامات الذكاء الاصطناعي:
1– توسع استخدامات الذكاء الاصطناعي: ذلك أن الأسس الرياضية للذكاء الاصطناعي موجودة في العديد من المجالات، والمهارات البشرية اللازمة لإنشاء نماذج الذكاء الاصطناعي انتشرت على نطاق واسع، كما أن محركات البحث والتطوير في مجال الذكاء الاصطناعي – الإبداع البشري والمكاسب التجارية – قوية للغاية.
2– تخوف واشنطن من تفوق الصين: حيث إن التوقف الأمريكي عن تطوير تقنيات الذكاء الاصطناعي سيمنح الصين في المقابل الفرصة للاستمرار في جهودها للتفوق على الولايات المتحدة في هذا المجال، وهو ما يزداد خطره عندما يتعلق الأمر بالتطبيقات العسكرية. وإذا نجحت الصين في مساعيها، فسوف تمتلك حينها جيشاً أقوى بكثير، كما أن قدرة الصين على استخدام الحرب السيبرانية والإلكترونية ضد الشبكات والبنية التحتية الحيوية الأمريكية سوف تتعزز بشكل خطير.
3– امتلاك بكين مجموعة من المزايا التقنية: في السباق نحو التفوق التكنولوجي، تتمتع الصين ببعض المزايا الواضحة. وعلى عكس واشنطن، يمكن للقيادة السياسية في بكين تحديد الأولويات الاقتصادية للبلاد على نحو شبه منفرد، وتخصيص الموارد التي تراها ضرورية لتحقيق أهداف الذكاء الاصطناعي. ولأن الصين تنتهج سياسة "الدمج المدني العسكري"، التي تعمل على إزالة الحواجز بين قطاعيها المدني والعسكري، فإن جيش التحرير الشعبي الصيني يستطيع أن يعتمد على عمل الخبراء والشركات الصينية متى شاء.
4– عدم تقيد بكين بالقواعد الأخلاقية للذكاء الاصطناعي: يشير المقال إلى أن الصين تستثمر بكثافة في العديد من حالات استخدام الذكاء الاصطناعي – كما هو الحال بالنسبة إلى الولايات المتحدة – مثل المراقبة وتحديد الأهداف وأسراب الطائرات بدون طيار، ولكن الفرق – بحسب ما جاء في المقال – أنها قد لا تكون ملزمة بالقيود الأخلاقية التي تدعمها الولايات المتحدة وحلفاؤها، خاصة عندما يتعلق الأمر باستخدام أنظمة الأسلحة المستقلة بالكامل.
ويشير المقال إلى أن سياسة الأمن القومي الصينية تساعد على سرقة الملكية الفكرية الغربية، ولا تمانع بكين في توظيف كبار خبراء التكنولوجيا الغربيين للعمل مع المؤسسات الصينية. وفي ضوء ذلك، يتوقع أن تُخرِّج الصين بحلول عام 2025 ما يقرب من ضعف عدد طلاب الدكتوراه في مجالات العلوم والتكنولوجيا والهندسة والرياضيات كما تفعل الولايات المتحدة؛ وذلك ما يؤدي إلى إغراق الاقتصاد الصيني بعلماء الكمبيوتر الموهوبين على وجه الخصوص.
5– مساعي واشنطن للاستفادة من قوتها الاقتصادية: إذ تتمتع الولايات المتحدة – في مقابل نقاط القوة التي تتمتع بها الصين – بنقاط قوة فريدة خاصة بها. وبالنظر إلى أن اقتصاد البلاد القائم على السوق والنظام السياسي الأكثر انفتاحاً يمنح المطورين مساحة للإبداع؛ تتمتع الولايات المتحدة بأنظمة بيئية ابتكارية لا مثيل لها في وادي السليكون، ومنطقة أوستن الحضرية، وممر طريق ماساتشوستس 128، وأماكن أخرى، وتتمتع أيضاً برأس مال استثماري حيوي ونظام بيئي للأسهم الخاصة يمكن أن يساعد في جذب استثمارات محلية ودولية كبيرة، كما أنها موطن للعديد من الجامعات الرائدة في العالم، بما يسمح لها بجذب بعض أفضل المواهب التقنية في العالم والاحتفاظ بها.
6– معاناة واشنطن من تراجع كفاءة العنصر البشري: لا تمتلك وزارة الدفاع الأمريكية في الوقت الحالي القوة العاملة الكافية والماهرة رقمياً، مع محدودية عدد الموظفين القادرين على توظيف الذكاء الاصطناعي وإدارة استخدامه بشكل صحيح، ولاختبار وتقييم أدوات الذكاء الاصطناعي للتأكد من أنها تلبي معايير البنتاجون بخصوص "الذكاء الاصطناعي المسؤول"، أو لتقييم نماذج الذكاء الاصطناعي التي تلبي احتياجات الجيش أو وزارة الدفاع على أفضل وجه. ولضمان أن تكون تطبيقات الذكاء الاصطناعي الدفاعية آمنة وناجحة، سيحتاج البنتاجون إلى إضافة موظفين فنيين جدد، وتطوير طرق جديدة لاختبار الذكاء الاصطناعي وشراء تقنياته وبرامجه المختلفة. ولجذب المزيد من مواهب الذكاء الاصطناعي والاستفادة بشكل أفضل من القوى العاملة التكنولوجية الموجودة لديها بالفعل، ستكون هناك حاجة إلى تحسين كيفية توظيف وإدارة الموظفين ذوي المهارات الرقمية.
7– حاجة الولايات المتحدة إلى جذب المواهب الخارجية: مع عدم تمكن البنتاجون من جذب عدد كبير من خبراء الذكاء الاصطناعي أسوة بالقطاع الخاص، سيكون على المؤسسة الدفاعية العمل لتحسين كيفية الاستفادة من المواهب الخارجية؛ إذ يتعين على البنتاجون تعميق محادثاته مع شركات التكنولوجيا وأقسام علوم الكمبيوتر في الجامعات الرائدة، وينبغي أيضاً معالجة بعض الحواجز التي تقف عقبة أمام شركات التكنولوجيا التي تتعامل مع الحكومة. وللقيام بذلك، يجب على مسؤولي الدفاع إعادة التفكير في كيفية شراء المنتجات والخدمات القائمة على البرمجيات، بما في ذلك الذكاء الاصطناعي.
وستكون هناك حاجة أيضاً إلى الاستمرار في جذب أفضل المواهب التقنية في العالم، بما في ذلك عن طريق إصلاح عناصر نظام الهجرة الأمريكي؛ إذ قد يرغب طلاب وعمال العلوم والتكنولوجيا في القدوم إلى الولايات المتحدة والبقاء فيها، لكن قواعد الهجرة تجعل من الصعب على الكثير القيام بذلك. على سبيل المثال، لا تسمح التأشيرات التعليمية للطلاب الأجانب بالبقاء في الولايات المتحدة لأكثر من ثلاث سنوات بعد التخرج، وبما يعني عملياً تدريب المؤسسات الأمريكية العديد من أفضل خبراء التكنولوجيا في العالم، ثم إرسالهم بعيداً، والعديد منهم صينيون ويعودون إلى الصين.
8– معضلة تمويل الكونجرس لمؤسسة الدفاع: بالرغم من أن إنشاء مكتب رئيسي للذكاء الاصطناعي والرقمي في البنتاجون كان بمنزلة علامة فارقة مهمة، فإن الكونجرس لم يزود هذا المكتب بعد بالموارد التي يحتاجها لدفع تبني الذكاء الاصطناعي المسؤول عبر المؤسسة الدفاعية.
وبالرغم من أن الإصلاحات الداخلية ستساعد البنتاجون على تسريع التقدم، فإن مسؤولي الدفاع سيحتاجون أيضاً إلى دعم مستمر من الكونجرس لمواكبة نظرائهم الصينيين. ولتحقيق هذه الغاية، يجب على الكونجرس منح وزارة الدفاع تمويلاً أكثر مرونة يسمح لها بإدارة برامج الذكاء الاصطناعي على النحو الأمثل، ولمواكبة تطور تقنيات الذكاء الاصطناعي بسرعة كبيرة، وفي اتجاهات مختلفة، مع حاجة مسؤولي الدفاع إلى المزيد من سلطات إعادة البرمجة وتمويل أكثر مرونة حتى يتمكنوا من نقل الأموال بسرعة من المشاريع ذات الأداء الضعيف وإعادة استثمارها في مشاريع واعدة أكثر.
9– تصاعد الجدل حول المبادئ التوجيهية والأخلاقية: مع إدراك البنتاجون لمخاطر الذكاء الاصطناعي، أصدر في فبراير 2020 مجموعة من المبادئ الأخلاقية التي تحكم كيفية استخدام الذكاء الاصطناعي. وقد وجه قادة الدفاع موظفيهم للتأكد من أن أنظمة الذكاء الاصطناعي تخضع لاختبارات صارمة للتأكد من سلامتها وأمنها وفاعليتها، وأن أنظمة الذكاء الاصطناعي مخصصة لاستخدامات محددة بوضوح، وأنه يمكن فصل أنظمة الذكاء الاصطناعي أو إلغاء تنشيطها إذا أظهرت سلوكاً غير مقصود.
وتنص قواعد وزارة الدفاع أيضاً على استخدام القادة لتقنيات الذكاء الاصطناعي وفقاً لقوانين الحرب. على سبيل المثال، يجب أن يكون أي سلاح مدعوم بالذكاء الاصطناعي تمييزياً، وقادراً على التمييز بين المقاتلين وغير المقاتلين في ساحة المعركة، وقادراً على تجنب استهداف الأخيرين عمداً، كما حظر البنتاجون استخدام الذكاء الاصطناعي في أنظمة القيادة والسيطرة النووية، وحث القوى النووية الأخرى على أن تحذو حذوها.
وبجانب عمل قادة البنتاجون والمشغلين على ضمان استخدام الأسلحة المدعومة بالذكاء الاصطناعي بطرق تتفق مع معايير تدريب النموذج ومع قواعد الاشتباك للعملية التي يستخدم فيها الذكاء الاصطناعي، فإنه يجب أيضاً على وزارة الدفاع زيادة استثماراتها في البحث والتطوير في مجال سلامة وأمن الذكاء الاصطناعي. وبطبيعة الحال، لا تستطيع الولايات المتحدة أن تضمن بمفردها تطوير الذكاء الاصطناعي واستخدامه بشكل مسؤول، وسيتعين على البلدان الأخرى – بما في ذلك المنافسون – أن تتبنى حواجز ومعايير سياسية لتنظيم استخدامات الذكاء الاصطناعي في المجالات العسكرية.
وقد اتخذ المجتمع الدولي خطوة أولى قيمة عندما وافقت 193 دولة، في نوفمبر 2021، على اتفاقية عالمية بشأن أخلاقيات الذكاء الاصطناعي، وهي الأولى من نوعها، وتتضمن تأكيداً أن الدول يجب أن تضمن الإشراف البشري على كافة أنشطة الذكاء الاصطناعي. وعلى الرغم من أن هذه الاتفاقية تشكل أساساً مهماً، يجب على الولايات المتحدة البحث عن الفرص لمناقشة تقنيات الذكاء الاصطناعي مع خصومها المحتملين، وخاصة الصين، تماماً كما وجدت طرقاً للحديث عن الأسلحة النووية وغيرها من أشكال الحد من الأسلحة مع الاتحاد السوفييتي السابق خلال الحرب الباردة. ومن خلال القيام بذلك، يمكن للبنتاجون أن يساعد في جعل الذكاء الاصطناعي أكثر أماناً؛ ليس فقط للقوات المسلحة، بل للجميع.
وختاماً يؤكد المقال أهمية تحقيق التوازن المطلوب لاستيفاء الحاجة إلى الإسراع في الاستفادة من تقنيات الذكاء الاصطناعي المختلفة، وخصوصاً في المجالات العسكرية، لكن دون إغفال متطلبات السلامة، وبالنظر إلى أن المخاطر المترتبة على إبطاء الذكاء الاصطناعي مرتفعة إلى حد غير مقبول، وأيضاً فإن المخاطر المترتبة على المضي قدماً دون اتخاذ الاحتياطات اللازمة هي أيضاً مرتفعة.
ولحل هذه المشكلة الخاصة بتحقيق التوازن بين الحاجة إلى السرعة والحاجة إلى السلامة، سيتعين على صناع السياسات تنفيذ أساليب أفضل لتسريع اعتماد مثل هذه التكنولوجيات المتقدمة، توازياً مع إعطاء الاهتمام اللازم لضمان السلامة. وبخلاف ذلك ستشتد التحديات في عالم مليء بمخاطر الذكاء الاصطناعي المتصاعدة.
المصدر:
Michèle A. Flournoy," AI Is Already at War: How Artificial Intelligence Will Transform the Military, Foreign Affairs, Volume 102, Number 6, November/December 2023.