أصدرت شركة الأمن السيبراني “Zscaler” تقريرها السنوي لعام 2026، مشيرة إلى أن الهجمات المدفوعة بالذكاء الاصطناعي تتطور بسرعة تتجاوز قدرات الدفاعات التقليدية، مما يستدعي إعادة النظر في استراتيجيات الحماية الرقمية لمواجهة هذا التحدي المتزايد.

أوضح التقرير أن المهاجمين، سواء كانوا من العصابات الإجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في زمن قياسي لا يتجاوز 16 دقيقة، مما يستدعي ضرورة تغيير جذري في كيفية تأمين البيانات.

تحليل تريليون معاملة رقمية

أفاد موقع “تيك نيوز وورلد” (TechNewsWorld) بأن التقرير الذي حلل أكثر من تريليون معاملة رقمية أظهر أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية، حيث تتسع الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن، مما يفرض على الشركات اعتماد أنظمة دفاعية تعتمد على تقنيات الذكاء الاصطناعي للكشف عن التهديدات بشكل استباقي.

أشار تقرير ThreatLabz 2026 إلى أن تبني الشركات للذكاء الاصطناعي يفوق قدرتها على حماية أنظمتها، حيث تتحرك الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، مما يجعل الأنظمة الذكية أداة رئيسية للهجمات الآلية، حيث يمكن للاختراق أن ينتقل من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.

اعتماد سريع يفوق الرقابة والأمان

ذكر التقرير أن استخدام الذكاء الاصطناعي في المؤسسات زاد بنسبة 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية، مما يؤدي إلى ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية، كما أن الذكاء الاصطناعي أصبح جزءًا من أدوات الأعمال اليومية، مما يجعلها تتجاوز مراقبة الأمن التقليدي.

الهجمات بسرعة الآلة والثغرات الشاملة

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة الذكاء الاصطناعي المؤسسية يمكن اختراقها خلال 16 دقيقة فقط، مع اكتشاف ثغرات حرجة في جميع الأنظمة التي تم تحليلها، وتعتمد الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية، ويصل عدد الهويات غير البشرية مقارنة بالبشر حاليًا إلى 82:1، مما يزيد من صعوبة السيطرة على المخاطر

مشاكل الكود وجودة النماذج

أدى السباق نحو الذكاء الاصطناعي إلى إصدار فرق تطوير مبتدئة كودًا غير محكم، مما يسبب ثغرات أمنية، حيث تقوم الشركات بنشر ميزات مدعومة بالذكاء الاصطناعي دون مراجعة أمنية كافية، مع نقاط نهاية للنماذج بدون مصادقة واستغلال واجهات برمجة التطبيقات بصلاحيات مفرطة.

حجم المخاطر والبيانات

ارتفعت نقلات البيانات إلى تطبيقات الذكاء الاصطناعي والتعلم الآلي في 2025 إلى 18,033 تيرابايت، وهو ما يعادل حوالي 3.6 مليار صورة رقمية، مع تسجيل 410 مليون انتهاك لسياسات حماية البيانات مرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.

الحوكمة هي الحل

أشار التقرير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول، حيث إن المؤسسات التي تعترف بأن أنظمة الذكاء الاصطناعي تتطلب اكتشافًا وإدارة دورة حياة وإشرافًا سلوكيًا ستكون قادرة على تبني الذكاء الاصطناعي بطريقة مستدامة وآمنة دون إبطاء الابتكار.