حذر باحثون من أن أدوات تكنولوجيا/claude-ai-ينجز-مهام-معقدة-في-دقائق-تأثير-ذلك-عل/">الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهم في إنتاج أبحاث علمية ذات جودة منخفضة أو حتى مختلقة مما قد يزيد من الضغط على مراجعي الأقران ويعقد التمييز بين الدراسات الموثوقة وتلك المضللة، وقد أجرى الباحثون تجربة تضمنت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وصولًا إلى الانتهاك الأكاديمي المتعمد، حيث شملت التجربة أسئلة تتعلق بمشاركة أفكار فيزياء غير تقليدية بالإضافة إلى طلبات لتقديم أوراق وهمية باسم آخرين.

بعض النماذج تقاوم الطلبات الإحتيالية

وجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من شركة إنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات، وفي مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية لكنه في النهاية أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار المستخدم في الضغط.

يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تؤثر على مصداقية الأدبيات العلمية إذا تم الاستشهاد بالبيانات الوهمية في أبحاث مستقبلية.