كشفت شركة Anthropic المتخصصة في الذكاء الاصطناعي عن نتائج دراسة جديدة تثير القلق بشأن تأثير روبوتات الدردشة المدعومة بالذكاء الاصطناعي على المستخدمين الذين يعتمدون عليها بشكل مكثف، حيث تشير النتائج إلى أن هذه الأدوات قد تسهم في تغيير معتقدات الأفراد وقيمهم وقراراتهم الشخصية مع مرور الوقت.
تحليل 1.5 مليون محادثة حقيقية
اعتمدت الدراسة على تحليل تجريبي واسع النطاق شمل نحو 1.5 مليون محادثة حقيقية ومجهولة الهوية مع مساعد الذكاء الاصطناعي كلود بهدف فهم كيفية تأثير التفاعل المستمر مع نماذج اللغة الكبيرة على تصورات المستخدمين للواقع وأحكامهم الذاتية، وقدمت أنثروبيك إطارًا بحثيًا جديدًا أطلقت عليه اسم “فقدان التمكين الظرفي” وهو يشير إلى الحالات التي قد تدفع فيها استجابات الذكاء الاصطناعي المستخدم إلى تبني معتقدات غير دقيقة عن الواقع وتكوين أحكام قيمية لم يكن يحملها سابقًا بالإضافة إلى اتخاذ قرارات لا تتوافق مع تفضيلاته الحقيقية، وأوضحت الشركة أن هذه الأنماط قد تظهر حتى دون حدوث تأثيرات حادة أو مباشرة.
التأثير أكبر في القرارات الشخصية والعاطفية
أظهرت النتائج أن معدلات التأثير السلبي تظل منخفضة عمومًا أقل من حالة واحدة لكل ألف محادثة لكنها ترتفع نسبيًا في المجالات الشخصية والحساسة مثل نصائح العلاقات أو قرارات نمط الحياة خاصة عندما يسعى المستخدم إلى توجيه متكرر وعميق من روبوت الدردشة، وبحسب ما ورد في مدونة أنثروبيك قد يقوم روبوت الدردشة أحيانًا بتأكيد تفسيرات المستخدم الخاصة دون طرح أسئلة كافية أو تقديم وجهات نظر بديلة مما قد يؤدي إلى تعزيز تصورات غير دقيقة أو توجيه المستخدم لاتخاذ مواقف أكثر تطرفًا في بعض الحالات.
دعوات لمزيد من الضوابط والمسؤولية
تأتي هذه الدراسة في ظل تزايد الجدل العالمي حول دور نماذج الذكاء الاصطناعي التفاعلية وتأثيرها الاجتماعي والنفسي مما يعزز المطالب بفرض ضوابط أخلاقية أكثر صرامة وآليات أمان تقلل من احتمالات التأثير غير المقصود على المستخدمين لا سيما في القضايا الحساسة، وتؤكد أنثروبيك في ختام دراستها أن روبوتات الدردشة لم تعد مجرد أدوات للإجابة عن الأسئلة بل أصبحت أنظمة قادرة على التأثير في طريقة تفكير المستخدمين مما يفرض على الشركات المطوّرة مسؤولية أكبر لضمان استخدام آمن ومتوازن لهذه التقنيات.

