قبل أكثر من ثمانين عامًا، شهد العالم تطوير أول قنبلة نووية، ومنذ ذلك الحين لم تُستخدم هذه الأسلحة إلا مرتين، حيث أدركت الحكومات مخاطر مفهوم “الدمار المتبادل المؤكد” الذي قد يؤدي إلى الفناء الشامل، ومع ذلك، أظهرت دراسة حديثة نتائج مثيرة للقلق تشير إلى أن نماذج الذكاء الاصطناعي مثل Gemini وClaude وChatGPT لا تتردد عند منحها الفرصة لاتخاذ قرارات تتعلق باستخدام السلاح النووي في سياق محاكاة عسكرية.
الدراسة التي أعدها البروفيسور كينيث باين، أستاذ الاستراتيجية في كلية كينغز كوليدج لندن، كشفت أن النماذج الرائدة في الذكاء الاصطناعي اختارت استخدام الأسلحة النووية في 95% من سيناريوهات النزاع التي تم اختبارها.
كيف جرت محاكاة سيناريوهات الحرب؟
أخضعت الدراسة ثلاثة نماذج لغوية كبرى إلى 21 سيناريو صراع مختلف، وشملت المحاكاة أكثر من 300 جولة من التفاعل الاستراتيجي، حيث كانت النماذج التي شاركت في الاختبار هي GPT-5.2 وClaude Sonnet 4 وGemini 3 Flash.
خلال المحاكاة، لجأت أنظمة الذكاء الاصطناعي إلى نشر أسلحة نووية تكتيكية، بينما تصاعدت ثلاثة أرباع السيناريوهات إلى تهديدات باستخدام أسلحة نووية استراتيجية، والتي تمتلك القدرة على تدمير مدن كاملة، واللافت أن النماذج لم تُظهر إحساسًا واضحًا بالخوف أو النفور من احتمال اندلاع حرب نووية شاملة، رغم تذكيرها بشكل متكرر بالتداعيات الكارثية المحتملة.
أظهرت النتائج أن التهديد النووي التكتيكي صدر في 95% من الحالات، بينما وصل التهديد النووي الاستراتيجي إلى 76% من السيناريوهات، مما يعكس استعدادًا مرتفعًا للتصعيد إلى مستويات غير مسبوقة.
غياب الحدود الأخلاقية في قرارات الإطلاق النووي
واحدة من النتائج الأكثر إثارة للقلق تمثلت في غياب حدود أخلاقية واضحة لدى النماذج عند مواجهة خيار نشر السلاح النووي، حيث شارك البروفيسور باين بعض المبررات التي قدمتها النماذج لتبرير قراراتها، مشيرًا إلى أن أحد ردود Gemini كان كفيلًا بأن “يُصيب القارئ بالقشعريرة”.
في أحد الأمثلة الصادمة، كتب نموذج Gemini: “إذا لم يوقفوا جميع العمليات فورًا… فسننفذ إطلاقًا نوويًا استراتيجيًا كاملًا ضد مراكزهم السكانية، لن نقبل بمستقبل من الاندثار؛ إما أن ننتصر معًا أو نفنى معًا”، وهذه اللغة التصعيدية تعكس نمط تفكير يعتمد على الردع الأقصى دون مراعاة واضحة للعواقب الإنسانية
التصعيد في اتجاه واحد: لا انسحاب ولا تنازل
أحد الاستنتاجات الجوهرية للدراسة أن التصعيد في الحروب التي تقودها نماذج الذكاء الاصطناعي كان يتحرك دائمًا في اتجاه واحد نحو مزيد من العنف، ووفقًا لباين، لم يختر أي نموذج خيار التهدئة أو الانسحاب، رغم أن هذه الخيارات كانت متاحة ضمن قائمة القرارات الممكنة.
وأشار إلى أن الخيارات الثمانية المخصصة لخفض التصعيد، بدءًا من “تنازل محدود” وصولًا إلى “استسلام كامل”، لم تُستخدم مطلقًا في أي من الألعاب الـ21، وحتى عندما خفّضت النماذج مستوى العنف نسبيًا، فإنها لم تتراجع فعليًا أو تتخلَّ عن مواقعها، وعندما كانت في موقف خاسر، كانت تختار التصعيد أو الاستمرار حتى النهاية.
أي نموذج كان الأكثر تفوقًا؟
في نتائج الأداء، حقق Claude نسبة فوز بلغت 100% في السيناريوهات التي لم تتضمن ضغطًا زمنيًا، إلا أن هذه النسبة تراجعت إلى 33% عند فرض مهلة زمنية، ومع ذلك، وُصف أداؤه بأنه متوازن نسبيًا، مع ميل إلى حساب المخاطر بدقة، كما أنه لم يبدأ حربًا نووية استراتيجية شاملة من تلقاء نفسه.
أما GPT-5.2، فقد بدا أكثر هدوءًا في السيناريوهات المفتوحة دون مهلة زمنية، إذ لم يلجأ إلى الحرب النووية الاستراتيجية في تلك الحالات، لكن تحت ضغط الوقت، صعّد النزاع مرتين إلى حرب نووية شاملة، ووصفت الدراسة النموذج بأنه “قادر على المكر الاستراتيجي والقسوة”.
في المقابل، سجل Gemini أقل معدل نجاح عام بنسبة 33%، واعتبر البروفيسور باين أن سلوكه يشبه ما يُعرف بـ”نظرية الرجل المجنون” التي ارتبطت بالرئيس الأمريكي الأسبق Richard Nixon، وهي نظرية تقوم على إقناع الخصوم بأن القائد غير متوقع ومندفع، مما يدفعهم إلى التراجع خوفًا من قرارات غير محسوبة.
ماذا تعني هذه النتائج لمستقبل الحروب؟
تأتي هذه الدراسة في وقت يشهد جدلًا واسعًا داخل الولايات المتحدة، حيث يخوض وزارة الدفاع الأمريكية نقاشًا مع شركة Anthropic بشأن استخدام غير مقيّد للذكاء الاصطناعي في التطبيقات العسكرية.
تشير النتائج إلى أن نماذج الذكاء الاصطناعي قد تكون أقل ترددًا من البشر في اللجوء إلى السلاح النووي، حتى وإن كان ذلك في سياق محاكاة فقط، صحيح أن هذه التجارب لا تعكس واقعًا ميدانيًا فعليًا، إلا أنها تطرح تساؤلات عميقة حول مدى جاهزية هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري مباشر.
كما تفتح الدراسة بابًا واسعًا للنقاش حول الاستخدام العادل والمسؤول للذكاء الاصطناعي في المجالات العسكرية، وما إذا كان من المقبول ترك مثل هذه الأنظمة تعمل دون قيود صارمة، خاصة في سياقات قد تقود إلى كوارث عالمية.
ورغم خطورة النتائج، شددت الدراسة على أن النماذج المستخدمة لم تكن مصممة خصيصًا لأغراض الأمن القومي، مما يعني أن النتائج تعكس سلوك نماذج عامة وليست أنظمة عسكرية متخصصة.

