حذّرت الصين من المخاطر المحتملة لاستخدام الذكاء الاصطناعي في المجال العسكري، مشيرة إلى أن هذه التكنولوجيا قد تؤدي إلى نتائج كارثية في غياب الأطر التنظيمية الدولية اللازمة، حيث أبدت قلقها من قدرة الأنظمة العسكرية على اتخاذ قرارات قاتلة دون تدخل بشري مما قد يهدد الأمن الدولي.

وأصدرت الحكومة الصينية تحذيراً قوياً بشأن المخاطر المرتبطة بتوظيف الذكاء الاصطناعي في العمليات العسكرية، مؤكدة أن استخدامه دون ضوابط قد يقود إلى سيناريوهات خطيرة، حيث تبرز هذه التحذيرات في سياق مؤتمر دولي حول الأمن التكنولوجي نقلته صحيفة لابانجورديا الإسبانية.

أهمية الـ AI فى النزاعات العسكرية

وأوضحت الصين أن النزاعات في الشرق الأوسط تعكس الأهمية المتزايدة للذكاء الاصطناعي في تحليل المعلومات واختيار الأهداف، إلا أن هناك جدلاً واسعاً حول موثوقيته ودوره في اتخاذ قرارات الهجوم، حيث يتفق المتخصصون في الاستراتيجية العسكرية على أن القلق الأكبر يتعلق بأنظمة الأسلحة الذاتية القاتلة القادرة على تحديد الأهداف وتنفيذ الهجمات دون أوامر مباشرة من مشغل بشري.

وأفاد المحلل العسكري الصيني والعقيد المتقاعد تشو بو أن دمج الذكاء الاصطناعي في الطائرات المسيّرة والصواريخ يمكن أن يقلص زمن اتخاذ القرار إلى أجزاء من الألف من الثانية، مما يزيد من خطر وقوع أخطاء كارثية في العمليات العسكرية.

غياب قواعد دولية لتنظيم الاستخدام

وترى السلطات الصينية أن المشكلة لا تقتصر على قدرة هذه الأنظمة على التدمير، بل تتعلق أيضاً بغياب قواعد دولية واضحة لتنظيم استخدامها، حيث أكد المتحدث باسم وزارة الخارجية الصينية لين جيان أن الاستخدام غير المسؤول لهذه التكنولوجيا قد يؤدي إلى نتائج كارثية، داعياً المجتمع الدولي إلى منع تحول الذكاء الاصطناعي إلى أداة قد تؤدي إلى نهاية مدمرة للبشرية.

وأضاف أن غياب القواعد الواضحة قد يدفع العالم نحو شكل جديد من الحروب تهيمن عليه الآلات، مشدداً على ضرورة بقاء القرارات الحاسمة في ساحة المعركة تحت السيطرة البشرية، مما يعكس القلق من أن تصبح الخوارزميات هي من تحدد مصير الحروب.

غياب الشفافية

كما أشار خبراء إلى أن غياب الشفافية في خوارزميات الصندوق الأسود يجعل من الصعب معرفة أسباب اتخاذ الآلات لقرارات معينة، مما يخلق فراغاً قانونياً في تحديد المسؤولية، حيث يؤكد بعض الباحثين أنه لا يمكن محاسبة آلة على انتهاك قوانين الحرب.

وفي هذا السياق، تدعو بكين إلى وضع قواعد دولية تحد من استخدام الأسلحة الذاتية القاتلة وتضمن بقاء القرارات الحاسمة تحت السيطرة البشرية، حيث تأتي هذه التحذيرات في وقت يتصاعد فيه الجدل العالمي حول تنظيم استخدام الذكاء الاصطناعي في المجال العسكري.

ويشير خبراء ومراكز أبحاث أمنية إلى أن التطور السريع لهذه التكنولوجيا قد يؤدي إلى سباق تسلح جديد بين القوى العالمية، حيث جددت الصين دعوتها إلى إبرام اتفاقيات دولية متعددة الأطراف تفرض قيوداً على استخدام الأسلحة الذاتية وتضمن إشراف الإنسان على القرارات القتالية.