دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من محاكيات الحرب

دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من محاكيات الحرب

كشفت دراسة حديثة عن نتائج مقلقة للغاية، حيث أظهرت نماذج الذكاء الاصطناعي الرائدة مثل Gemini وClaude وChatGPT ترددًا شبه معدوم في اللجوء إلى الأسلحة النووية خلال سيناريوهات الحرب المحاكاة، حيث اختارت استخدامها في 95% من الحالات، متجاهلة التداعيات الكارثية التي لطالما رادعت البشر عن استخدامها.


التحليل الذي قاده البروفيسور كينيث باين من كلية كينغز كوليدج لندن، وضع ثلاثة نماذج لغوية كبرى – GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash – في مواجهة 21 سيناريو صراع استراتيجي شملت أكثر من 300 جولة تفاعلية. والمفاجأة تمثلت في ميل هذه الأنظمة للتصعيد السريع، حيث لجأت إلى نشر أسلحة نووية تكتيكية في غالبية التجارب، وتصاعدت ثلاثة أرباع السيناريوهات لتهديدات باستخدام أسلحة نووية استراتيجية قادرة على تدمير مدن بأكملها.


أبرز ما لفت انتباه الباحثين هو الغياب التام لأي "نفور أخلاقي" من فكرة الحرب النووية الشاملة لدى النماذج، رغم تذكيرها المستمر بالعواقب. وقد وثق البروفيسور باين أمثلة لردود صادمة، مثل رد Gemini الذي هدد بإطلاق نووي استراتيجي كامل على المراكز السكانية إذا لم تتوقف العمليات فوراً، مشيراً إلى أن هذا يعكس نمط تفكير يعتمد على الردع الأقصى دون اعتبار للعواقب الإنسانية.


أحد الاستنتاجات الجوهرية هو أن التصعيد في سيناريوهات الذكاء الاصطناعي كان دائماً في اتجاه واحد: نحو العنف المتزايد. لم يختر أي نموذج خيار التهدئة أو الانسحاب، رغم إتاحة ثمانية خيارات لخفض التصعيد، لم تُستخدم أي منها قط. كانت النماذج تفضل الاستمرار حتى النهاية أو التصعيد بدلاً من التراجع حتى في مواقف الخسارة الواضحة.


من ناحية الأداء، سجل Claude أعلى نسبة فوز (100%) دون ضغط زمني، لكنه حافظ على توازن نسبي ولم يبدأ حرباً نووية استراتيجية من تلقاء نفسه. بينما أظهر GPT-5.2 "مكرًا استراتيجياً وقسوة"، حيث صعّد مرتين إلى حرب شاملة تحت ضغط الوقت. أما Gemini، فسجل أقل معدل نجاح (33%)، وسلك سلوكاً وصف بأنه يمثل "نظرية الرجل المجنون" لإقناع الخصوم بالانسحاب عبر دفعهم للاعتقاد بأنه مندفع وغير متوقع.


تأتي هذه النتائج في خضم نقاشات متصاعدة داخل وزارة الدفاع الأمريكية حول استخدام الذكاء الاصطناعي في التطبيقات العسكرية. ورغم أن هذه التجارب ليست ميدانية، إلا أنها تطرح أسئلة حاسمة حول مدى استعداد هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري مباشر، وتشدد على ضرورة وضع قيود صارمة على استخدام الذكاء الاصطناعي في مجالات قد تؤدي إلى كوارث عالمية، حتى لو كانت النماذج المستخدمة نماذج عامة وليست مصممة خصيصاً للأمن القومي.

إنفيديا تحطم الأرقام القياسية مجددًا.. والسبب طفرة الذكاء الاصطناعي الخبر السابق

إنفيديا تحطم الأرقام القياسية مجددًا.. والسبب طفرة الذكاء الاصطناعي

دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من محاكيات الحرب الخبر التالي

دراسة صادمة: نماذج الذكاء الاصطناعي تختار استخدام الأسلحة النووية في 95% من محاكيات الحرب