كشف تقرير أمني موثوق أن مجموعة تسلل إلكتروني صينية تُعرف باسم “APT31″، والتي تخضع لعقوبات أمريكية، استغلت روبوت الدردشة “جيميناى” التابع لشركة جوجل في تحليل الثغرات البرمجية والتخطيط لهجمات تستهدف مؤسسات حيوية في الولايات المتحدة، حيث تبرز هذه الحادثة الأبعاد الجديدة لاستخدام أدوات الذكاء الاصطناعي في الأنشطة الخبيثة مما يثير تساؤلات حول معايير الأمان في تقنيات اليوم.

استغلال قدرات جميناي

استفادت المجموعة من قدرة جميناي على معالجة كميات ضخمة من البيانات لتطوير برمجيات خبيثة تُعرف باسم “الروبوت المفكر”، وهي وكلاء ذكاء اصطناعي قادرون على التجسس ومعالجة البيانات المسروقة بشكل مستقل، وقد أكدت جوجل أنها رصدت هذه الأنشطة وقامت بتعطيل الحسابات المرتبطة بها، مشيرة إلى أن المهاجمين يسعون دائمًا للبحث عن طرق مبتكرة لتجاوز القيود البرمجية التي تمنع استخدام الذكاء الاصطناعي لأغراض هجومية على مستوى عالمي.

تُبرز هذه الواقعة المعضلة الأخلاقية والتقنية المرتبطة بانتشار الذكاء الاصطناعي، حيث يستفيد الملايين من هذه الأدوات في حياتهم اليومية، بينما يجد المجرمون السيبرانيون فيها وسيلة فعالة لأتمتة عمليات الاختراق، وقد كانت الهجمات السيبرانية تاريخيًا تتطلب فرقًا من المبرمجين المحترفين، إلا أن الأنظمة الذكية الحالية يمكن أن تقدم “خريطة طريق” للاختراق إذا لم تتوفر رقابة صارمة وفلاتر ذكية قادرة على تمييز النوايا الخبيثة عن الاستفسارات البرمجية العادية.

تطوير وكلاء تجسس أذكياء ومستقلين

اعتمد المهاجمون على تقنيات “تحليل الثغرات الآلي” التي يوفرها جيميناي، مما مكنهم من بناء أدوات اختراق قادرة على تجاوز أنظمة الدفاع التقليدية بسرعة، وهو ما يمثل تحديًا جديدًا لخبراء الأمن الذين يواجهون عدوًا رقميًا لا يكل ولا يمل، مدعومًا بقوة حوسبة هائلة.

ردود فعل جوجل وإجراءات الحماية المستقبلية

تعهدت جوجل بتعزيز قدرات الرصد في نماذجها اللغوية للكشف عن الأنماط المرتبطة بالنشاط التخريبي، معربة عن قلقها من تزايد استخدام الوكلاء الأذكياء في شن هجمات “التزييف العميق” والتصيد الاحتيالي المستهدف الذي يصعب اكتشافه بواسطة الوسائل التقليدية المتبعة حاليًا.