تشهد العلاقات بين الولايات المتحدة وإيران توترات متزايدة تتصاعد إلى مستويات جديدة حيث أطلقت الإدارة الأمريكية بقيادة الرئيس دونالد ترامب مواجهة تقنية مع شركة Anthropic ونظامها الذكي Claude AI، وهي خطوة اعتبرها العديد من الخبراء بمثابة تعبير عن صراع تقني يتواكب مع الأحداث العسكرية الجارية.

في خطوة سابقة، كانت الحكومة الأمريكية قد أبرمت صفقة بقيمة 200 مليون دولار مع Anthropic، إلا أن البيت الأبيض ووزارة الدفاع اتخذوا قرارًا بحظر استخدام منصة Claude في أي جهة اتحادية، مما أدى إلى فصل الشركة عن القطاع الدفاعي الأمريكي.

وأصدر الرئيس الأمريكي دونالد ترامب توجيهًا لجميع الوكالات الفيدرالية بوقف استخدام أنظمة الذكاء الاصطناعي الخاصة بـAnthropic بشكل فوري، حيث اعتبرت وزارة الدفاع الشركة تهديدًا لسلسلة التوريد المتعلقة بالأمن القومي، وجاء هذا القرار بعد فترة من الخلافات بين الحكومة الأمريكية ومختبر الذكاء الاصطناعي حول ضوابط أمان استخدام هذه التقنية.

على مدار عامين، تعاونت Anthropic، المطورة لـClaude AI، بشكل وثيق مع الحكومة الأمريكية بما في ذلك وزارة الدفاع، حيث كانت الشركة، التي تقدر قيمتها بأكثر من 380 مليار دولار، قد أبرمت عقدًا بقيمة 200 مليون دولار مع البنتاغون لتخصيص ونشر نموذج Claude لأغراض الأمن القومي.

اعتمد البنتاغون على Claude كنظام الذكاء الاصطناعي الرئيسي المصرح له بالعمل على الشبكات الحساسة والمصنفة، واكتسبت النسخة “Claude Gov” شهرة واسعة بين موظفي الدفاع الأمريكي لسهولة استخدامها، وقد تم استخدامها سابقًا في عمليات عسكرية مثل ملاحقة الرئيس الفنزويلي مادورو.

أكدت شركة Anthropic التزامها بالسلامة كأولوية قصوى، مما أدى إلى صراع طويل حول كيفية استخدام الذكاء الاصطناعي في الأنظمة العسكرية، حيث انقسمت العلاقة بين الحكومة وAnthropic حول من يحدد كيفية استخدام الذكاء الاصطناعي للأمن القومي.

طالب البنتاغون بإزالة القيود المفروضة على استخدام Claude، مما يتيح للجيش الوصول الكامل للنموذج لأي غرض دفاعي قانوني، بينما تمسك الرئيس التنفيذي للشركة، ديمو أمودي، بالضوابط الأخلاقية، مؤكدًا على نقطتين رئيسيتين، الأولى عدم استخدام Claude للمراقبة الداخلية الشاملة للمواطنين الأمريكيين، والثانية عدم نشره في أنظمة أسلحة مستقلة تتخذ قرارات مصيرية دون إشراف بشري، وأكد البنتاغون أن القانون الأمريكي هو الذي يجب أن يحدد استخدام الذكاء الاصطناعي الدفاعي وليس سياسات شركة خاصة.

بعد رفض Anthropic التنازل، أصدر الرئيس الأمريكي دونالد ترامب أمرًا بحظر استخدام جميع أنظمة الشركة في الوكالات الفيدرالية مع فترة انتقالية مدتها ستة أشهر، وتبع ذلك إعلان وزارة الدفاع أن Anthropic أصبحت مصنفة كخطر على سلسلة التوريد للأمن القومي، وهو تصنيف كان يخصص عادةً للشركات الأجنبية المعادية مثل هواوي، مما يمنع أي متعاقد أو شريك مع الجيش الأمريكي من التعامل مع الشركة، وردت Anthropic بأنها ستطعن في هذا التصنيف قانونيًا، معتبرة أنه سابقة خطيرة وغير قانونية.

يركز التحرك ضد Anthropic على مسألة التفوق العسكري والسيادة الوطنية، حيث أكد البنتاغون عدم اهتمامه بالمراقبة الجماعية أو بأسلحة مستقلة قاتلة، لكنه يرى أن الضوابط الأخلاقية للشركات الخاصة قد تحد من مرونة الجيش في ساحة المعركة، خاصة في مواجهة دول مثل الصين.

وفي تعليق له على منصة Truth Social، اعتبر الرئيس الأمريكي دونالد ترامب أن شركة Anthropic ارتكبت خطأ جسيمًا بمحاولة فرض شروط خدمتهم على وزارة الحرب بدلًا من الالتزام بالدستور، مؤكدًا أن الولايات المتحدة هي من ستقرر مصيرها وليس شركة ذكاء اصطناعي غير مدركة للواقع.

بعد ساعات من الحظر، أعلن الرئيس التنفيذي لـOpenAI، سام ألتمان، عن صفقة جديدة مع وزارة الدفاع لتطبيق نماذج شركته على الشبكات المصنفة للبنتاغون، مع الالتزام بمبادئ السلامة، بما يشمل منع المراقبة الجماعية المحلية وضمان مسؤولية بشرية واضحة عن استخدام القوة.

أوضح ألتمان أن هذه المبادئ منصوص عليها في القانون الأمريكي ومدمجة رسميًا في العقد الجديد، مما يمهد الطريق لـOpenAI لتحل محل Anthropic في المشاريع الدفاعية الحساسة دون التخلي عن الضوابط الأمنية.