أثارت شركة claude-من-anthropic-لأتمتة-مهام-الشركا/">Anthropic جدلاً واسعاً حول مستقبل العمل البشري بعد تحذيرها من أن أنظمتها للذكاء الاصطناعي قد تتولى قريباً المهام التي يقوم بها كبار الباحثين حيث جاء هذا التحذير ضمن خريطة الطريق الجديدة لسياسة “التوسع المسؤول” التي تحدد كيفية تشغيل أنظمة الشركة خلال العام المقبل مع التركيز على ضوابط الأمان التي تعتزم تطبيقها قبل الوصول إلى هذه المرحلة.
تشير الوثيقة المنشورة بأهداف محددة حتى 19 فبراير 2026 إلى أن وتيرة تطور الذكاء الاصطناعي تسير بشكل أسرع بكثير مما كان يتوقعه كثيرون ورغم أن الجزء الأكبر من الخطة يركز على مواءمة السلامة ووضع سياسات حماية صارمة فإن فقرة بعينها انتشرت على نطاق واسع عبر منصة X بسبب صراحتها في تقييم قدرات الذكاء الاصطناعي المرتقبة وتأثيرها المحتمل على الباحثين البشر في مجالات حساسة.
أتمتة كاملة لأعمال البحث بحلول 2027
في بيانها المتعلق بأتمتة البحث والتطوير قالت أنثروبيك إنه من “المعقول” أن تتمكن أنظمتها بحلول عام 2027 من أتمتة العمل الذي تقوم به فرق بحثية كبيرة من النخبة أو على الأقل تسريع هذا العمل بشكل حاد وتشير الشركة إلى أن هذا التطور قد يشمل مجالات بالغة الحساسية مثل الطاقة والروبوتات وتطوير الأسلحة بل وحتى أبحاث الذكاء الاصطناعي نفسه.
ولا تقتصر مخاوف الشركة على سرعة التطور فحسب بل تمتد إلى حجم التأثير المحتمل إذ ترى أن أي تقدم متسارع في هذه القطاعات قد ينعكس بشكل مباشر على الأمن الدولي ويؤثر في توازن القوى العالمي كما أن احتمال أن تتمكن الآلات من قيادة الأبحاث بشكل مستقل في مثل هذه المجالات دفع الشركة إلى تبني أهداف داخلية تصفها بـ”الطموحة للغاية” فيما يتعلق بإجراءات السلامة.
إجراءات أمان صارمة قبل الوصول إلى المرحلة الحرجة
بحلول الوقت الذي تبلغ فيه أنظمة الذكاء الاصطناعي هذا المستوى المتقدم تتوقع أنثروبيك أن تكون قد أنجزت معظم الأهداف الواردة في خريطة الطريق وتشمل هذه الأهداف تمويل وإنهاء مشاريع أمنية بحثية كبرى تصفها الشركة بأنها “مشاريع قفزة نوعية” إضافة إلى بناء أنظمة متقدمة لاختبارات الاختراق الداخلية.
كما تخطط الشركة لتطوير أدوات مؤتمتة للتحقيق في أي هجمات محتملة أو إساءة استخدام لأنظمتها وتؤكد التزامها بما تصفه بـ”مراقبة شاملة لكل شيء” داخل عمليات تطوير الذكاء الاصطناعي لديها إلى جانب إجراء عمليات تدقيق دورية للتأكد من التزام النماذج بالمبادئ المنصوص عليها في “دستور كلود” وهو الإطار القيمي الذي يحكم سلوك نموذجها.
توسع فعلي في أتمتة وظائف المعرفة
تحذير أنثروبيك بشأن وظائف البحث يأتي في وقت تعمل فيه الشركة بالفعل على توسيع حضور الذكاء الاصطناعي في وظائف المعرفة اليومية ففي وقت سابق من هذا الشهر كشفت الشركة عن منصة “Claude Cowork” التي تعتمد على نموذج Claude تلاها إطلاق إضافات متخصصة لقطاعات معينة من بينها أدوات موجهة للعمل القانوني.
هذا التوسع أثار قلق المستثمرين حيث تعرضت أسهم شركات البرمجيات لضغوط ملحوظة بعد أن تفاعلت الأسواق مع احتمالات أتمتة واسعة النطاق في وظائف الياقات البيضاء ولم تتوقف الشركة عند هذا الحد بل أعلنت لاحقاً عن إضافات جديدة لـ”Cowork” تستهدف مزيداً من مجالات العمل.
وبات بإمكان المؤسسات الآن استخدام Claude لبناء إضافات خاصة ومخصصة من الصفر مما يسمح لوكلاء الذكاء الاصطناعي بأتمتة مهام تمتد عبر الموارد البشرية والتصميم والهندسة والعمليات والتحليل المالي والخدمات المصرفية الاستثمارية وأبحاث الأسهم ورأس المال الخاص.
تكامل واسع مع أدوات العمل الشائعة
يوفر النظام أيضاً إمكانية الاتصال بأدوات مستخدمة على نطاق واسع مثل Google Drive وGmail وGoogle Calendar وDocuSign وFactSet وLegalZoom وWordPress وأكدت أنثروبيك أن Claude بات قادراً على تعديل الملفات ونقل السياق بين تطبيقات مثل Excel وPowerPoint ضمن بيئة Cowork بما يسمح له بتذكّر ما يعمل عليه المستخدم حتى أثناء التنقل بين المستندات المختلفة وهو ما يعزز من قدرته على أداء مهام متكاملة ومتسلسلة.
وخلال إحاطة إعلامية هذا الأسبوع قالت كيت جنسن رئيسة الشركة في الأميركيتين “في عام 2025 غيّر Claude طريقة عمل المطورين وفي عام 2026 سيفعل الشيء نفسه لوظائف المعرفة”.
تساؤلات مفتوحة حول مستقبل العمل البشري
التصريحات الأخيرة من أنثروبيك تعيد طرح تساؤلات جوهرية حول مستقبل العمل البشري لا سيما في القطاعات البحثية عالية التخصص التي كانت حتى وقت قريب تُعد بعيدة عن خطر الأتمتة وإذا ما تحققت توقعات الشركة فقد يشهد العالم تحولاً جذرياً في طبيعة البحث العلمي ودور الإنسان فيه وآليات ضبط التوازن بين الابتكار والسلامة.

