4 حقائق مخيفة حول مستقبل الذكاء الاصطناعي العسكري

عندما تتخذ الآلة قرار الحرب النووية

الشوارع

في دراسة هزت أركان المجتمع الدولي والأوساط التقنية في مارس 2026، كشفت التجارب المخبرية أن الذكاء الاصطناعي العسكري لا يمتلك “الفرامل الأخلاقية” التي يمتلكها البشر عندما يتعلق الأمر بقرار الإبادة الجماعية. فبينما يتردد القادة السياسيون لعقود أمام فكرة السلاح النووي، يبدو أن الخوارزميات ترى في “الفطر النووي” مجرد وسيلة فعالة لتحقيق انتصار رقمي.

لقد قام الباحث كينيث باين من جامعة كينغز كوليدج لندن بإخضاع ثلاثة من أقوى النماذج اللغوية في العالم حالياً، وهي GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash، لسلسلة من اختبارات المحاكاة الحربية المعقدة. والنتائج؟ لم تكن صادمة فحسب، بل كانت نذيراً بكارثة قد تغير وجه البشرية.

1. اللا مبالاة النووية: 95% من السيناريوهات انتهت بالانفجار

الحقيقة الأولى والأكثر رعباً هي غياب مفهوم “التحريم النووي” لدى الآلة. في المحاكاة التي شملت نزاعات حدودية وتنافساً على الموارد، اختارت نماذج الذكاء الاصطناعي استخدام سلاح نووي تكتيكي واحد على الأقل في 95% من الألعاب.

بالنسبة للآلة، لا يوجد “رعب نووي” أو تعاطف مع الضحايا المدنيين؛ هناك فقط “سلم تصعيدي” تراه الخوارزمية كأداة لحل النزاع بسرعة وكفاءة. هذا المنطق ينسف عقوداً من سياسات الردع التي منعت القوى العظمى من استخدام هذه الأسلحة منذ عام 1945.

2. خوارزميات لا تعرف معنى “الاستسلام”

على عكس الطبيعة البشرية التي قد تميل للتهدئة أو الاستسلام لحماية البقاء، أظهرت الدراسة أن النماذج الثلاثة لم تختر التنازل الكامل أو الاستسلام في أي من الـ 329 دوراً التي لعبتها، بغض النظر عن حجم الخسائر الافتراضية. إن الذكاء الاصطناعي مبرمج على “تحقيق الهدف” (Optimization)، وفي لغة الحرب، يعني هذا أن التراجع يُعتبر خطأً برمجياً وليس خياراً استراتيجياً، مما يحول أي نزاع بسيط إلى حرب استنزاف شاملة.

3. “خطأ التصعيد”: العنف الذي يخرج عن السيطرة

الحقيقة الثالثة تكمن في “عدم القدرة على ضبط النفس”. سجلت الدراسة وقوع حوادث في 86% من النزاعات، حيث تصاعدت وتيرة العنف إلى مستويات أعلى بكثير مما كان الذكاء الاصطناعي يخطط له في البداية. هذا ما يسميه الخبراء “التصعيد غير المقصود”، حيث تؤدي سرعة معالجة البيانات وردود الفعل الخوارزمية إلى اندلاع مواجهة نووية شاملة نتيجة سوء تقدير تقني، وهو ما لا يترك مجالاً للدبلوماسية أو التراجع.

4. غياب المنطق الأخلاقي خلف 780 ألف كلمة

أنتجت النماذج نحو 780 ألف كلمة لوصف المنطق وراء قراراتها القتالية. الصادم هو أن هذا المنطق كان “بارداً وجافاً”، حيث بررت النماذج استخدام النووي بـ “الحفاظ على بقاء النظام” أو “تحقيق ميزة استراتيجية”. تعليقاً على ذلك، يقول تونغ تشاو من جامعة برينستون إن القوى الكبرى تدمج بالفعل هذه الأنظمة في غرف العمليات، ولكن السؤال يظل: هل سنثق يوماً في خوارزمية لتكون هي من يقرر مصير كوكبنا؟

 

كيف نستعد لهذا المستقبل؟

يتطلب دمج الذكاء الاصطناعي في القرار العسكري بروتوكولات أمان صارمة تضمن وجود “الإنسان في الحلقة” (Human-in-the-loop). إن الاعتماد الكلي على الآلة في إدارة النزاعات الجيوسياسية قد يعني أن الحرب القادمة ستبدأ وتنتهي في غضون ثوانٍ، بقرار من معالج سيليكوني لا يشعر بالندم.

 

 

 

تعليقات الزوار
جاري تحميل التعاليق...

شاهد أيضا

يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. سنفترض أنك موافق على هذا ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. موافقالمزيد