حذر خبراء تقنيون من ظاهرة متزايدة تتعلق بتسمم نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن أن تؤدي هذه الظاهرة إلى انهيار كامل لتلك النماذج، وتحدث هذه المشكلة عندما تقوم النماذج اللغوية بالتدريب على محتوى غير موثوق تم إنشاؤه مسبقًا بواسطة أنظمة ذكاء اصطناعي أخرى، مما يخلق حلقة مفرغة من البيانات الرديئة، وتؤدي هذه الظاهرة إلى تضخيم الأخطاء الواقعية والتحيزات والهلوسات الرقمية، مما يجعل مشكلة إدخال بيانات خاطئة تؤدي إلى مخرجات كارثية على نطاق واسع في الصناعة التقنية.

وفقًا لتقرير نشره موقع “زد دي نت”، أكدت مؤسسة “جارتنر” للأبحاث أن أنظمة الذكاء الاصطناعي في المؤسسات تواجه حاليًا تدفقًا هائلًا من المحتوى الآلي غير المتحقق منه، حيث نقل الموقع عن المحللين قولهم إن هذه المدخلات المعيبة تنتشر كعدوى عبر مسارات العمل الآلية وأنظمة اتخاذ القرار، مما يؤدي إلى نتائج أسوأ بكثير مما نشهده اليوم، مما يدعو الشركات إلى تبني نهج صارم لتنقية بيانات التدريب وحمايتها بشكل عاجل.

يمثل هذا التحدي الفني عقبة استراتيجية كبرى أمام مستقبل الذكاء الاصطناعي الموثوق، خاصة مع الاعتماد المتزايد عليه في قطاعات حيوية مثل الرعاية الصحية والخدمات المالية والأمن السيبراني، ولتجنب هذا الانهيار الوشيك، تبرز حاجة ماسة لتطبيق مبادئ “الثقة المعدومة” على حوكمة البيانات، وهو مفهوم كان يُستخدم أساسًا لحماية الشبكات، ويُعاد توجيهه الآن للتدقيق الشامل في جودة وأصالة كل معلومة تدخل في تدريب النماذج لضمان سلامتها وصلاحيتها للاستخدام البشري.

دورة التدهور الذاتي

يؤدي التدريب المستمر على بيانات اصطناعية إلى فقدان النماذج لفهمها للواقع البشري، مما يجعل إجاباتها غير منطقية ومضللة تمامًا، حيث أصبحت حوكمة البيانات الصارمة والتحقق من صحة مصادر البيانات وتنقيتها شرطًا أساسيًا لضمان استمرار عمل النماذج الذكية بفعالية وموثوقية عالية.