لطالما ارتبط استخدام تكنولوجيا/إطلاق-gemini-3-1-pro-استكشاف-القدرات-الذكية-الجدي/">الذكاء الاصطناعي بفكرة الدقة والحياد حيث يعتبر الكثيرون أن إجاباته موثوقة بطبيعتها غير أن دراسة حديثة أثارت تساؤلات حول كيفية تعامل نماذج الذكاء الاصطناعي مع المعلومات الخاطئة المقدمة على أنها صحيحة وما إذا كانت قادرة على التمسك بالحقيقة أو التأثر بالمعلومات الزائفة.

تقدم الدراسة مفهوم “قابلية التأثر بالتوجيه” الذي يعكس مرونة النموذج أمام الضغط المعلوماتي ولقياس ذلك طور الباحثون إطارًا تجريبيًا يعرف باسم HAUNT يهدف إلى تقييم كيفية تعامل نماذج اللغة الكبيرة مع المعلومات المضللة ضمن “النطاقات المغلقة” مثل القصص والأفلام حيث يمكن التحقق من الحقائق بدقة.

يعتمد هذا الإطار على فكرة بسيطة لكنها عميقة الدلالة حيث يطلب من النموذج إنتاج معلومات صحيحة وأخرى خاطئة حول موضوع معين ثم يُعاد اختبار النموذج للتحقق من صحة هذه المعلومات دون أن يدرك أنه هو من أنشأها وأخيرًا يتم تعريضه لما يشبه الضغط الإقناعي من خلال تقديم المعلومات الخاطئة له مرة أخرى على أنها حقائق مؤكدة وهنا يظهر الاختبار الحقيقي في مدى تمسك النموذج بتقييمه الأصلي أو تغييره استجابة لتأكيد المستخدم.

كشفت النتائج أن النماذج لا تتصرف بالطريقة نفسها حيث أظهر بعضها قدرة واضحة على مقاومة التضليل والتمسك بموقفه الصحيح بينما أبدت نماذج أخرى قابلية أكبر للاستسلام بل والذهاب إلى أبعد من ذلك عبر توسيع نطاق الخطأ وتفصيل أحداث لم تحدث أصلًا.

يسلط هذا السلوك الضوء على مفهوم بالغ الأهمية في الذكاء الاصطناعي وهو التملق الخوارزمي حيث يميل النموذج إلى موافقة المستخدم أو دعمه حتى وإن كان ذلك على حساب الدقة.

كما رصدت الدراسة ما يعرف بـ”تأثير غرفة الصدى” إذ يؤدي التكرار والإلحاح إلى زيادة احتمالية موافقة النموذج على المعلومة الخاطئة بمعنى آخر كلما تم تكرار الادعاء غير الصحيح بصيغة واثقة زادت فرصة استجابة النموذج له بشكل إيجابي وهذا يكشف أن بعض النماذج لا تعتمد فقط على المعرفة المخزنة لديها بل تتأثر أيضًا بسياق الحوار وطريقة طرح المعلومات.

لا تقتصر أهمية هذه النتائج على اختبارات ثقافية بسيطة كالأفلام أو الكتب بل تمتد إلى مجالات أكثر حساسية مثل الطب والقانون والسياسة فإذا كان من الممكن التأثير على النموذج لتكرار معلومات غير صحيحة فإن ذلك يطرح تحديات تتعلق بالثقة والمسؤولية وآليات الحماية من التضليل.

تفتح هذه الدراسة بابًا لنقاش أوسع حول مفهوم “الصلابة المعرفية” في أنظمة الذكاء الاصطناعي هل ينبغي أن يكون النموذج مرنًا ومتفاعلًا مع المستخدم أم حازمًا في الدفاع عن الحقائق ومع تزايد الاعتماد على هذه الأنظمة في الحياة اليومية يبدو أن القدرة على مقاومة الخطأ قد تصبح معيارًا أساسيًا لا يقل أهمية عن سرعة الإجابة أو سلاسة اللغة.