اندلعت أزمة حادة بين وزارة الدفاع الأمريكية (البنتاغون) وشركة Anthropic الرائدة في مجال الذكاء الاصطناعي، حيث تتعلق الخلافات بإصرار الشركة على فرض قيود صارمة تمنع استخدام نماذجها في تطوير أسلحة ذاتية التشغيل أو في عمليات المراقبة الجماعية، وهو ما يعتبره الجيش الأمريكي عائقًا أمام تفوقه الاستراتيجي.

وفقًا لتقرير نشره موقع “The Decoder” نقلًا عن مصادر مطلعة، يدرس البنتاجون إنهاء شراكته مع Anthropic إذا استمرت في رفض منح الجيش “وصولًا غير مقيد” لنماذجها المتطورة مثل Claude، حيث تشير التقارير إلى أن شركات منافسة مثل OpenAI و Google أبدت مرونة أكبر في التعاون مع وزارة الدفاع، حيث وافقت على إزالة بعض حواجز الحماية المعتادة في العقود العسكرية، بينما ترى Anthropic أن استخدام الذكاء الاصطناعي في اتخاذ قرارات القتل دون تدخل بشري يمثل خطًا أحمر أخلاقيًا لا يمكن تجاوزه.

تُسلط هذه المواجهة الضوء على المعضلة الأخلاقية الكبرى في عصر الذكاء الاصطناعي، حيث يسعى الجيش الأمريكي لدمج أحدث التقنيات للحفاظ على تفوقه العسكري في مواجهة قوى عالمية أخرى، بينما تتمسك بعض شركات التكنولوجيا بمبادئ “الذكاء الاصطناعي الآمن” لتجنب سيناريوهات كارثية، وقد تؤدي نتيجة هذا الخلاف إلى تحول كبير في خارطة التحالفات بين شركات التكنولوجيا والحكومات.

جوهر الخلاف الأخلاقي

تشترط Anthropic ضمانات تمنع استخدام تقنياتها في الأسلحة المستقلة تمامًا والمراقبة الداخلية، بينما يطالب البنتاغون بمرونة كاملة للأغراض “القانونية”، ويضع هذا الموقف Anthropic في عزلة محتملة مقارنة بمنافسيها الذين يسعون للفوز بعقود دفاعية مليارية، مما قد يؤثر على حصتها السوقية وتمويلها المستقبلي.