أعلن أكثر من ثلاثين موظفًا من شركتي OpenAI وGoogle DeepMind عن دعمهم لشركة Anthropic في الدعوى القضائية التي رفعتها ضد وزارة الدفاع الأمريكية، حيث اعتبرت الوزارة الشركة المتخصصة في الذكاء الاصطناعي تهديدًا لسلسلة التوريد، مما أثار قلقًا حول تأثير هذا القرار على قطاع الذكاء الاصطناعي في الولايات المتحدة.
ووفقًا لوثائق المحكمة المقدمة يوم الاثنين، وقع الموظفون على بيان قانوني يدعم موقف Anthropic، مشيرين إلى أن القرار الحكومي يعد تعسفيًا وغير مبرر، وقد يؤدي إلى آثار سلبية كبيرة على صناعة الذكاء الاصطناعي في البلاد.
بيان قانوني ينتقد قرار الحكومة الأمريكية
أكدت المذكرة القانونية التي قدمها موظفو الشركات التقنية أن تصنيف Anthropic كمخاطر في سلسلة التوريد يمثل استخدامًا غير مناسب للسلطة الحكومية، ومن بين الموقعين على البيان العالم البارز Jeff Dean، كبير العلماء في Google DeepMind، بالإضافة إلى عدد من الباحثين والمهندسين في مجال الذكاء الاصطناعي، حيث شدد الموقعون على أن مثل هذه القرارات الحكومية قد تؤثر بشكل كبير على مستقبل الصناعة في ظل المنافسة العالمية المتزايدة.
سبب الخلاف بين أنثروبيك والبنتاجون
تعود جذور الخلاف إلى قرار وزارة الدفاع الأمريكية تصنيف الشركة كمخاطر في سلسلة التوريد، وهو تصنيف يستخدم عادة في حالات تتعلق بشركات مرتبطة بدول معادية، وقد جاء هذا القرار بعد رفض Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأمريكيين أو في أنظمة إطلاق الأسلحة بشكل مستقل، بينما جادلت الوزارة بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود تفرضها الشركات المتعاقدة.
رفع دعويين قضائيتين ضد الحكومة الأمريكية
قبل ساعات من ظهور البيان الداعم في المحكمة، كانت شركة Anthropic قد رفعت دعويين قضائيتين ضد وزارة الدفاع الأمريكية وعدد من الوكالات الفيدرالية الأخرى، حيث تسعى الشركة من خلال هذه الدعاوى إلى الطعن في قرار تصنيفها كمخاطر في سلسلة التوريد، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها على العمل مع الجهات الحكومية.
بدائل متاحة للحكومة الأمريكية
في الوثيقة القانونية، أشار موظفو شركتي OpenAI وGoogle DeepMind إلى أنه إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، كان بإمكانها ببساطة إلغاء العقد واللجوء إلى شركة أخرى لتوفير خدمات الذكاء الاصطناعي، وأوضحوا أن الحكومة كانت لديها خيار واضح يتمثل في شراء الخدمات من شركات أخرى رائدة في المجال بدلاً من اتخاذ قرار تصنيف الشركة كمصدر خطر.
عقد جديد بين البنتاجون وOpenAI
الجدير بالذكر أن وزارة الدفاع الأمريكية وقعت اتفاقًا مع OpenAI بعد لحظات من تصنيف Anthropic كمخاطر في سلسلة التوريد، مما أثار اعتراضات داخلية بين بعض موظفي شركة OpenAI الذين أعربوا عن قلقهم من الطريقة التي تم بها التعامل مع الشركة المنافسة في قطاع الذكاء الاصطناعي.
مخاوف من تأثير القرار على صناعة الذكاء الاصطناعي
يحذر البيان القانوني الذي قدمه الموظفون من أن السماح بمثل هذه الإجراءات قد يؤدي إلى إضعاف القدرة التنافسية للولايات المتحدة في مجال الذكاء الاصطناعي، كما يشير إلى أن معاقبة إحدى الشركات الرائدة في هذا المجال قد ينعكس سلبًا على الابتكار العلمي والصناعي داخل البلاد، خاصة في ظل المنافسة الدولية المتزايدة، وأكد البيان أن هذه الخطوة قد تؤدي أيضًا إلى تقييد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول المخاطر والفوائد المرتبطة بهذه التقنيات المتقدمة.
الدفاع عن القيود الأخلاقية للذكاء الاصطناعي
أكدت الوثيقة كذلك أن الخطوط الحمراء التي وضعتها Anthropic بشأن استخدام تقنياتها تمثل مخاوف مشروعة تستدعي وجود ضوابط صارمة، وأشار الموقعون إلى أنه في ظل غياب تشريعات واضحة تنظم استخدام الذكاء الاصطناعي، فإن القيود التقنية والتعاقدية التي تفرضها الشركات المطورة لهذه الأنظمة تعد إحدى أهم وسائل الحماية ضد إساءة الاستخدام الكارثية للتكنولوجيا.
شارك العديد من الموظفين الذين وقعوا على البيان القانوني أيضًا خلال الأسابيع الماضية في رسائل مفتوحة تدعو وزارة الدفاع الأمريكية إلى سحب تصنيف “خطر سلسلة التوريد” عن شركة Anthropic، كما طالبوا قيادات شركاتهم، بما في ذلك OpenAI وGoogle، باتخاذ موقف واضح لدعم الشركة ورفض استخدام أنظمة الذكاء الاصطناعي الخاصة بهم بشكل أحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.

