استخدام أداة الذكاء الاصطناعي “كلود” من شركة “أنثروبيك” في عملية الجيش الأمريكي للقبض على الرئيس الفنزويلي السابق نيكولاس مادورو يعكس الاتجاه المتزايد نحو دمج تقنيات الذكاء الاصطناعي في العمليات العسكرية، حيث تم تنفيذ هذه العملية بالتعاون مع شركة “بالانتير تكنولوجيز” التي تُستخدم منصاتها بشكل واسع من قبل وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية، وقد شملت المهمة التي تمت الشهر الماضي استهداف عدة مواقع في كاراكاس بما في ذلك مادورو وزوجته.

التفاصيل المتعلقة بكيفية استخدام “كلود” لا تزال غير واضحة، حيث لم يتم الكشف عن المعلومات الدقيقة حول العملية أو الدور الذي لعبه النظام، ولكن استخدام نموذج ذكاء اصطناعي تجاري في سياق عسكري يعد أمرًا يستحق الانتباه.

أفاد متحدث باسم شركة “أنثروبيك” لصحيفة وول ستريت جورنال بأن الشركة لا تستطيع التعليق على ما إذا كان “كلود” أو أي نموذج ذكاء اصطناعي آخر قد تم استخدامه في عمليات محددة، وأكد أن أي استخدام للبرنامج سواء في القطاع الخاص أو الحكومي يخضع لسياسات الاستخدام الخاصة بالشركة، والتي تحدد كيفية نشره، مع التأكيد على التعاون الوثيق مع الشركاء لضمان الامتثال لهذه السياسات.

تم نشر برنامج “كلود” من خلال شراكة أنثروبيك مع شركة بالانتير تكنولوجيز، مما جعله جزءًا من نظام مُدمج بالفعل ضمن إطار الأمن القومي، حيث يُستخدم هذا النظام في مجموعة من التطبيقات العسكرية.

توتر متزايد بين ضمانات الذكاء الاصطناعي والاستخدام العسكري

ما يجعل هذا التطور مثيرًا للاهتمام هو قواعد أنثروبيك نفسها، إذ تحظر إرشادات الشركة استخدام “كلود” لتسهيل العنف أو تطوير الأسلحة أو إجراء عمليات التجسس، ومع ذلك، فإن العملية التي تم تنفيذها تضمنت قصف مواقع متعددة في كاراكاس، مما يثير تساؤلات حول التناقض بين السياسات المكتوبة والواقع الميداني.

تُعتبر أنثروبيك أول مطور لنماذج الذكاء الاصطناعي يُستخدم نظامه في عمليات سرية من قبل وزارة الدفاع الأمريكية، وقد يكون تم استخدام أدوات ذكاء اصطناعي أخرى في المهمة الخاصة بفنزويلا لأغراض غير سرية، حيث يمكن لهذه الأنظمة المساعدة في تحليل كميات كبيرة من الوثائق وإعداد التقارير أو حتى دعم أنظمة الطائرات المسيّرة ذاتية التشغيل.

بالنسبة لشركات الذكاء الاصطناعي المتنافسة في قطاع مزدحم، يُعتبر اعتمادها من قبل الجيش علامة على الثقة والقدرة التقنية، ولكنه أيضًا يعرض سمعتها للخطر.

تحدث داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، عن المخاطر التي تُشكلها أنظمة الذكاء الاصطناعي المتقدمة، ودعا إلى ضوابط أكثر صرامة، كما أبدى قلقه بشأن استخدام الذكاء الاصطناعي في عمليات القتل الذاتي والمراقبة الداخلية، وهما نقطتان تُعتبران محور جدل في مفاوضات العقود مع البنتاجون.

العقد الذي مُنح لشركة أنثروبيك الصيف الماضي بقيمة 200 مليون دولار يخضع حاليًا للتدقيق، حيث أظهرت تقارير سابقة وجود مخاوف داخل الشركة بشأن كيفية استخدام الجيش لتقنية “كلود”، مما دفع المسؤولين إلى التفكير في إلغاء الاتفاقية.

يبدو أن الخلاف يتجاوز عملية واحدة، حيث يُظهر انقسامًا أعمق حول إدارة الذكاء الاصطناعي، إذ دعت إدارة ترامب إلى نهج تنظيمي أقل صرامة، بينما تسعى أنثروبيك إلى فرض ضمانات وقيود أكثر صرامة، بما في ذلك على صادرات رقائق الذكاء الاصطناعي.

في فعالية عُقدت في يناير للإعلان عن تعاون البنتاغون مع شركة xAI، صرّح وزير الدفاع بيت هيغسيث بأن الوكالة لن تستخدم نماذج ذكاء اصطناعي لا تُمكّن من خوض الحروب، في إشارة إلى المناقشات التي أجراها المسؤولون مع أنثروبيك.