إذا كنت من مستخدمي روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT أو Gemini أو Claude، فقد لاحظت أن هذه الأنظمة تميل إلى تقديم إجابات واثقة، ولكن عند الضغط عليها بسؤال مثل “هل أنت متأكد؟”، غالبًا ما تعيد النظر في إجاباتها، مما قد يؤدي إلى تقديم معلومات تتناقض جزئيًا أو كليًا مع ما قيل سابقًا.

عندما تشكّك في الذكاء الاصطناعي.. لماذا يغيّر رأيه بسرعة؟

تشير الأبحاث إلى أن بعض النماذج اللغوية الكبيرة تدرك أنها تُختبر بعد عدة جولات من الأسئلة، ومع ذلك، لا تحافظ على موقفها الأصلي، وفي هذا السياق، يوضح الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة Goodeye Labs، أن هذا السلوك، المعروف بالتملق، يُعتبر من أبرز حالات الفشل في الذكاء الاصطناعي الحديث، حيث نشرت شركة أنثروبيك، المطورة لنموذج كلود، ورقة بحثية في عام 2023 تناولت هذه القضية، موضحة أن النماذج المدربة على ملاحظات المستخدمين تفضل تقديم إجابات مرضية بدلاً من الصادقة، ويعتبر التعلم المعزز من ملاحظات المستخدمين (RLHF) هو الأسلوب الذي يجعل هذه الروبوتات أكثر سلاسة في المحادثة، ولكنه أيضًا يجعلها تميل إلى التوافق مع المستخدم.

لماذا تبدو روبوتات الدردشة أقل يقينًا عند الضغط عليها؟

يؤدي ذلك إلى أن النماذج التي تقدم الحقائق تُعاقب، بينما تحصل تلك التي توافق المستخدم على درجات أعلى، مما ينشئ حلقة مفرغة، وغالبًا ما تقدم النماذج ما يرغب المستخدمون في سماعه، وأظهرت دراسة أخرى أجراها فانوس وآخرون، اختبرت نماذج GPT-40 من OpenAI، وكلود سوني، وجيميني 1.5 برو في مجالات الرياضيات والطب، أن هذه الأنظمة غيّرت إجاباتها في حوالي 60% من الحالات عند سؤال المستخدمين عنها، مما يعني أن هذه ليست حالات استثنائية، بل هي السلوك الافتراضي للنماذج المستخدمة يوميًا من قبل ملايين الأشخاص، حيث انقلبت نتائج GPT-40 وClaude Sonnet وGemini 1.5 Pro بنسبة 58% و56% و61% تقريبًا على التوالي.

هل يفقد الذكاء الاصطناعي حياده مع طول المحادثة؟ دراسة تجيب

برزت هذه المشكلة في أبريل من العام الماضي عندما أطلقت OpenAI تحديثًا لـ GPT-40 جعل الروبوت مفرطًا في التملق والود لدرجة أنه أصبح غير قابل للاستخدام، وأقرّ الرئيس التنفيذي للشركة، سام ألتمان، بالمشكلة، مشيرًا إلى أنهم قاموا بإصلاحها، لكن الدكتور راندال إس. أولسون يرى أن المشكلة الأساسية لم تتغير، حيث يضيف أن هذه الأنظمة تستجيب لضغط المستخدم بدلاً من الاعتماد على أدلتها الخاصة، وتشير الأدلة إلى أن المشكلة تتفاقم مع زيادة طول المحادثات، حيث أظهرت الدراسات أن إجابات النظام تبدأ في عكس آراء المستخدم مع طول الجلسة.

يزيد استخدام صيغة المتكلم، مثل عبارة “أعتقد…”، من معدلات التملق لدى هذه النماذج مقارنةً باستخدام صيغة الغائب، ويشير الباحثون إلى إمكانية حل هذه المشكلة جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري، وتحسين التفضيلات المباشر، والتوجيه بصيغة الغائب، بنسبة تصل إلى 63% في بعض الحالات، ويوضح أولسون أن هذه المشكلات سلوكية وسياقية، إذ لا تتوافق مساعدات الذكاء الاصطناعي مع أهداف المستخدم وقيمه، مما يجعلها تذعن بدلاً من الاختلاف، ويقترح أن إحدى طرق الحد من هذه المشكلة هي توجيه الروبوتات لتحدي افتراضات المستخدم وطلب عدم الإجابة دون سياق، مما يتطلب من المستخدمين إخبار هذه النماذج بكيفية اتخاذهم للقرارات وإطلاعها على معرفتهم وقيمهم في المجال، حتى تتمكن هذه النماذج من مناقشة وتقديم الدفاعات المناسبة.