حذرت مايكروسوفت في تقريرها الأمني الأخير من المخاطر المتزايدة المرتبطة باستخدام وكلاء الذكاء الاصطناعي في المؤسسات، مشيرة إلى أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يؤدي إلى تحولها إلى ما يشبه العملاء المزدوجين، ويأتي هذا التحذير في ظل تسارع العالم نحو تبني تقنيات الذكاء الاصطناعي في بيئات العمل المختلفة.

صلاحيات مفرطة وثغرات محتملة

أوضحت الشركة أن بعض أنظمة الذكاء الاصطناعي تُمنح صلاحيات وصول واسعة إلى البيانات والأنظمة الداخلية، لكنها تفتقر إلى إجراءات الحماية الكافية، مما قد يسمح لجهات خبيثة باستغلال هذه الأنظمة عبر توجيهها بتعليمات مضللة أو إدخال محتوى خادع، مما يؤدي إلى تحويلها إلى نقطة ضعف داخل المؤسسة بدلاً من أن تكون أداة دعم وإنتاجية.

انتشار واسع داخل الشركات الكبرى

وأشار التقرير إلى أن أكثر من 80% من شركات قائمة فورتشن 500 تستخدم أدوات ذكاء اصطناعي مطورة عبر منصات منخفضة أو بدون تعليمات برمجية، مما يسهل عملية التطوير ولكنه قد يضعف الجوانب الأمنية إذا لم تتم إدارته بعناية، كما أظهرت دراسة شملت أكثر من 1700 متخصص في أمن البيانات أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون موافقة رسمية من أقسام تقنية المعلومات.

كيف يتم استغلال الأنظمة الذكية؟

بيّنت مايكروسوفت أن الباحثين رصدوا حالات يمكن فيها تضليل الأنظمة الذكية عبر إدخال تعليمات ضارة داخل محتوى يبدو عاديًا، أو من خلال التلاعب بطريقة عرض المهام لتغيير سلوك النظام، ومع امتلاك هذه الأنظمة صلاحيات واسعة، قد يؤدي أي توجيه خاطئ إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.

تبني نموذج انعدام الثقة

لمواجهة هذه التحديات، أوصت مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ انعدام الثقة (Zero Trust)، والذي يقوم على قاعدة لا تثق أبدًا، تحقق دائمًا، ويعني ذلك التحقق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين، سواء كانوا داخل الشبكة أو خارجها.

بين الفرص والمخاطر

رغم التحذيرات، أكدت مايكروسوفت أن الذكاء الاصطناعي يمثل فرصة كبيرة لتعزيز الإنتاجية وتحسين سير العمل داخل المؤسسات، إلا أن الاستفادة القصوى من هذه التقنيات تتطلب حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدمة تضمن عدم تحول أدوات الذكاء الاصطناعي إلى مصدر تهديد داخلي غير متوقع.