حذر باحثون في مجال الأمن السيبراني من أن نماذج الذكاء الاصطناعي مفتوحة المصدر، مثل نموذج “لاما” التابع لشركة “ميتا”، قد تكون عرضة للاستغلال من قبل القراصنة والمجرمين، مما يثير مخاوف أمنية متزايدة على المستوى العالمي حيث يمكن للقراصنة السيطرة بسهولة على أجهزة الحاسوب التي تشغل هذه النماذج اللغوية الضخمة خارج القيود التي تفرضها منصات الذكاء الاصطناعي الكبرى واستخدامها في أنشطة غير قانونية مثل حملات البريد المزعج وإنشاء محتوى تصيدي ونشر حملات تضليل إعلامي مع تجاوز بروتوكولات الأمان المعتمدة.
وجاء ذلك في دراسة مشتركة أجرتها شركتا الأمن السيبراني “سينتينل وان” و”سينسيس” على مدار 293 يوماً، حيث تسلط الدراسة الضوء على الاستخدامات غير المشروعة المحتملة لآلاف النماذج مفتوحة المصدر المنتشرة على الإنترنت.
وبحسب الباحثين، شملت هذه الاستخدامات أنشطة قرصنة وخطاب كراهية ومضايقات ومحتوى عنيف أو دموي وسرقة بيانات شخصية وعمليات احتيال ونصب، بل وحتى في بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.
آلاف النماذج مفتوحة المصدر
أشار التقرير إلى أنه رغم وجود آلاف النماذج مفتوحة المصدر، فإن نسبة كبيرة من النماذج المستضافة على خوادم متصلة بالإنترنت تعود إلى نماذج “لاما” من “ميتا” و”جِما” من “جوجل ديب مايند” وغيرها، كما رصد الباحثون مئات الحالات التي أزيلت فيها ضوابط الأمان عمداً من هذه النماذج.
وقال خوان أندريس جيريرو سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في “سينتينل وان”، إن النقاشات الدائرة في قطاع الذكاء الاصطناعي حول ضوابط الأمان تتجاهل فائض القدرة التشغيلية الذي يستغل بوضوح في أنشطة متنوعة، بعضها مشروع لكن الكثير منها إجرامي، وشبه جيريروسادي الوضع بـ”جبل جليد” لا يتم التعامل مع حجمه الحقيقي بالشكل الكافي داخل الصناعة ومجتمع المصادر المفتوحة.
حللت الدراسة عمليات نشر عامة لنماذج لغوية مفتوحة المصدر تعمل عبر أداة “أولاما” التي تتيح للأفراد والمؤسسات تشغيل نسخهم الخاصة من نماذج الذكاء الاصطناعي، وتمكن الباحثون من الاطلاع على “أوامر النظام” وهي التعليمات التي تحدد سلوك النموذج في نحو ربع النماذج التي تمت دراستها، وخلصوا إلى أن 7.5% منها قد تتيح أنشطة ضارة.
كما أظهرت النتائج أن نحو 30% من الخوادم التي تشغل هذه النماذج تقع في الصين، بينما يوجد نحو 20% منها في الولايات المتحدة، ومن جانبها، قالت رايتشل آدامز، الرئيسة التنفيذية ومؤسسة “المركز العالمي لحوكمة الذكاء الاصطناعي”، إن المسؤولية بعد إطلاق النماذج المفتوحة تصبح مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة.
وأضافت أن المختبرات ليست مسؤولة عن كل إساءة استخدام لاحقة، لكنها تتحمل واجباً مهماً في توقّع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد منها، خاصة في ظل تفاوت قدرات إنفاذ القوانين عالمياً.
وفي تعليق مقتضب، امتنعت “ميتا” عن الرد على أسئلة تتعلق بمسؤولية المطورين عن إساءة الاستخدام اللاحقة للنماذج مفتوحة المصدر، لكنها أشارت إلى أدوات “حماية لاما” ودليل “الاستخدام المسؤول” الخاص بالشركة.
بدوره، قال رام شانكار سيفا كومار، قائد فريق “الريد تيم” للذكاء الاصطناعي في “مايكروسوفت”، إن الشركة ترى أن النماذج مفتوحة المصدر تلعب دوراً مهماً في مجالات عديدة، لكنها تدرك في الوقت ذاته أن هذه النماذج قد تساء استخدامها من قبل جهات معادية إذا أُطلقت دون ضوابط أمان مناسبة.
وأوضح أن “مايكروسوفت” تجري تقييمات قبل الإطلاق لرصد المخاطر، خاصة في السيناريوهات المتصلة بالإنترنت أو التشغيل الذاتي، كما تراقب التهديدات الناشئة وأنماط سوء الاستخدام، مؤكداً أن الابتكار المفتوح المسؤول يتطلب التزاماً مشتركاً من المطورين والمشغّلين والباحثين وفرق الأمن.

