تشير دراسة جديدة أعدها باحثون من شركة Google إلى تحديات جديدة في فهم كيفية تفكير أنظمة الذكاء الاصطناعي واتخاذها للقرارات، حيث تكشف النتائج أن بعض النماذج المتقدمة تعمل بشكل يشبه النقاش الجماعي بدلاً من اتباع مسار منطقي واحد للوصول إلى الإجابة، مما يفتح آفاقًا جديدة لفهم طبيعة الذكاء داخل الآلة وكيفية تشكله.

تركز الدراسة على نماذج التفكير واسعة النطاق مثل DeepSeek-R1 وQwQ-32B التابعة لشركة Alibaba، حيث تظهر النتائج أن هذه الأنظمة لا تكتفي بمعالجة المعلومات بشكل متسلسل، بل تولّد وجهات نظر متعددة وتختبرها قبل الوصول إلى النتيجة النهائية، مما يثير تساؤلات جديدة حول كيفية تطوير الذكاء الاصطناعي.

التفكير كمناظرة داخلية داخل النموذج

يوضح الباحثون أن النماذج المتقدمة عندما “تفكر”، فإنها قد تجري نقاشًا داخليًا يشبه الطريقة التي تعمل بها مجموعات البشر عند مواجهة مشكلات معقدة، حيث تقوم هذه النماذج بتوليد وجهات نظر متعددة قد تتعارض، ثم تعمل على تسوية الخلافات للوصول إلى قرار نهائي.

يصف البحث هذا السلوك بأنه عملية “متعددة الوكلاء” ضمنيًا، حيث يبدو أن النموذج الواحد يتكون من كيانات فكرية متعددة تشارك في طرح الأفكار ومراجعتها وتحدي الافتراضات وصقل النتائج، ويُطلق على هذه الظاهرة مصطلح “تنوع وجهات النظر”، مما يعكس قدرة النظام على استيعاب عدة مسارات تفكير ومقارنتها في الوقت نفسه.

وفقًا للمؤلفين، يساعد هذا التنوع الداخلي على تفسير سبب تفوق بعض نماذج التفكير الحديثة في التعامل مع المهام المعقدة مقارنة بالأجيال السابقة، حيث يقلل اختبار تفسيرات بديلة ورصد الأخطاء المحتملة من احتمالية الوصول إلى استنتاجات خاطئة، وتتشابه هذه العملية مع نقاش فريق عمل يسعى للوصول إلى قرار أكثر دقة.

كما يشير البحث إلى أن هذا السلوك ليس مبرمجًا بشكل مباشر، بل ينشأ تلقائيًا نتيجة طريقة تدريب هذه النماذج وهيكلها الداخلي، ومع ازدياد قدرات النماذج، تبدأ في تنظيم عملياتها الداخلية لدعم التفكير التأملي والتصحيح الذاتي والمقارنة بين الأفكار المختلفة.

إعادة التفكير في كيفية بناء ذكاء اصطناعي أكثر ذكاءً

لطالما اعتقدت صناعة التكنولوجيا أن تحسين أداء الذكاء الاصطناعي يعتمد بشكل أساسي على زيادة حجم النماذج والبيانات وقوة الحوسبة، ورغم أهمية حجم النماذج، تشير الدراسة التي قادها باحثو Google إلى أن هذا ليس العامل الوحيد المؤثر.

توضح النتائج أن طريقة تنظيم عملية التفكير داخل النموذج قد تكون بنفس أهمية حجمه، حيث يبرز مفهوم “تحولات المنظور” الذي يسمح للنظام بالتراجع خطوة إلى الوراء لإعادة تقييم مسار التفكير الحالي واستكشاف بدائل أخرى، مما يعمل كآلية داخلية لتحدي الافتراضات وتصحيح الأخطاء.

يختلف هذا النهج عن الأنظمة السابقة التي كانت تقدم إجابات واثقة لكنها خاطئة أحيانًا، نتيجة اتباعها مسارًا منطقيًا واحدًا حتى لو كان معيبًا، أما النماذج التي تختبر عدة وجهات نظر، فهي أكثر قدرة على اكتشاف أخطائها قبل تقديم الإجابة النهائية.

يرى الباحثون أن هذه النتائج قد تؤثر في تصميم نماذج الذكاء الاصطناعي المستقبلية، حيث لن يقتصر التركيز على توسيع البيانات والمعلمات، بل سيتجه المطورون إلى تشجيع التنوع الداخلي المنظم في التفكير، مما قد يؤدي إلى نماذج أكثر دقة وشفافية في كيفية وصولها إلى النتائج.

ماذا يعني ذلك للمستخدمين ومستقبل الذكاء الاصطناعي؟

بالنسبة للمستخدمين العاديين، قد تكون لهذه الدراسة آثار مهمة على تجربة استخدام الذكاء الاصطناعي، حيث إن الأنظمة التي تعتمد على “نقاش داخلي” في التفكير قد تكون أكثر قدرة على التعامل مع الأسئلة الغامضة والمعلومات غير المكتملة وتعقيدات الواقع، مما ينتج إجابات أكثر توازنًا وأقل جمودًا.

تشير الدراسة إلى فوائد محتملة في تقليل التحيز، حيث إن النظام الذي ينظر إلى المشكلة من زوايا متعددة يكون أقل عرضة للانحصار في رؤية واحدة ضيقة، ورغم أن ذلك لا يقضي على التحيز بالكامل، فإنه يمثل خطوة ضمن استراتيجية أوسع لبناء أنظمة أكثر عدلًا وموثوقية.

على المستوى العملي، قد يلاحظ المستخدمون أدوات ذكاء اصطناعي أكثر تفكيرًا ومرونة بدلًا من كونها مجرد أدوات أسرع في تقديم الإجابات، وقد تقدم هذه الأنظمة ردودًا تعترف بعدم اليقين أو تشرح المفاضلات بين الخيارات، مما يحاكي طريقة التفكير البشري.

يشير البحث إلى تحول في فهم طبيعة الذكاء الاصطناعي، حيث يطرح تصورًا جديدًا لأنظمة تعتمد على تعاون داخلي منظم بين الأفكار، وإذا ثبتت صحة مفهوم “الذكاء الجماعي داخل النموذج الواحد”، فقد يشكّل ذلك أساسًا للجيل القادم من التطورات الكبرى في مجال الذكاء الاصطناعي.