أدى الخلاف بين شركة Anthropic ووزارة الدفاع الأمريكية إلى نقاشات عميقة حول الاستخدام الأخلاقي للتقنيات الحديثة في مجال الذكاء الاصطناعي حيث جاء هذا النزاع بعد رفض الشركة الالتزام بشروط عقد عسكري جديد يتطلب منها السماح للجيش الأمريكي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأغراض قانونية متعددة تشمل المراقبة الجماعية واستخدام الأسلحة الفتاكة ذاتية التشغيل.

خلفية الصراع
 

تشير التقارير إلى أن وزير الدفاع Pete Hegseth يسعى لتعديل العقود الحالية لشركات الذكاء الاصطناعي مع وزارة الدفاع مما يمنح الجيش الأمريكي صلاحيات واسعة للوصول إلى تقنياتهم بينما وافقت شركتا OpenAI و xAI على الشروط الجديدة إلا أن Anthropic تمسكت بخطوطها الحمراء الأخلاقية.

موقف أنثروبيك

أكد الرئيس التنفيذي للشركة Dario Amodei أن الشركة لن تسمح باستخدام تقنيتها في المراقبة الجماعية للأمريكيين أو الأسلحة الذاتية القتل مشيرًا إلى أن التهديدات لا تُغير موقفهم ويعتبر هذا الموقف التزامًا بالمعايير الأخلاقية للشركة حتى في ظل احتمال خسائر مالية كبيرة نتيجة العقود مع الحكومة.

الإجراءات الحكومية
 

في خطوة تصعيدية صنّف البنتاجون شركة Anthropic على أنها تشكل خطرًا على سلسلة التوريد وهو تصنيف يُستخدم عادةً لتحذير القطاع من تهديدات قد تمس الأمن القومي وقد يؤثر هذا التصنيف على عقود الشركة مع الحكومة الفيدرالية ويهدد استمراريتها في تقديم خدماتها للبنتاجون.

ردود فعل الصناعة
 

توجهت ردود الفعل نحو المخاطر الأخلاقية المحتملة حيث أعرب موظفون في شركات تقنية تعمل مع البنتاجون عن قلقهم من استخدام الذكاء الاصطناعي لأغراض المراقبة الجماعية والأسلحة الفتاكة معتبرين أن الهدف الأصلي من التقنية يجب أن يكون تحسين حياة الناس لا التحكم أو القتل.

يمثل الصراع الحالي نموذجًا حقيقيًا للصراع بين الأخلاقيات والتمويل العسكري في صناعة الذكاء الاصطناعي ويعكس موقف أنثروبيك التزامًا صريحًا بالحدود الأخلاقية مما قد يشكل معيارًا مستقبليًا لشركات الذكاء الاصطناعي في التعامل مع العقود العسكرية والتهديدات الحكومية.