في ظل المنافسة المتزايدة بين شركات الذكاء الاصطناعي لتحويل ابتكاراتها إلى نماذج أعمال مستدامة، قررت باحثة سابقة في OpenAI مغادرة الشركة مع تحذير بشأن إدخال الإعلانات إلى ChatGPT، مشيرة إلى القلق من المعلومات الشخصية التي يحتفظ بها النظام عن المستخدمين.
مخاوف تتجاوز الإعلانات التقليدية
تتجاوز مخاوف زوي هيتزيغ مجرد ظهور إعلانات تقليدية أو ردود مدفوعة، حيث تركز على طبيعة المعلومات التي شاركها المستخدمون مع ChatGPT على مدى السنوات الماضية.
فبخلاف منشورات وسائل التواصل الاجتماعي التي تكون عادةً مختارة بعناية، تبدو المحادثات مع الذكاء الاصطناعي خاصة ومباشرة دون تصفية.
تفاعل العديد من المستخدمين مع ChatGPT كمستمع محايد، حيث طرحوا مخاوفهم الصحية ومشاكلهم العاطفية وتساؤلاتهم حول الإيمان والهوية.
أرشيف من الصراحة الإنسانية بلا سابقة
كتبت هيتزيغ أن المستخدمين قد أنشأوا على مدى عدة سنوات أرشيفًا من الصراحة الإنسانية لا سابقة له، معتقدين أنهم يتحدثون إلى كيان لا يملك أجندة خفية.
أضافت أن الناس يشاركون روبوتات الدردشة بمخاوفهم الطبية ومعتقداتهم حول الحياة والموت، مما يجعل بناء الإعلانات على هذا الأرشيف ممكنًا، مما يخلق فرصًا للتلاعب بالمستخدمين بطرق غير مفهومة.
موقف OpenAI من الإعلانات
أشارت OpenAI سابقًا إلى نيتها اختبار الإعلانات داخل ChatGPT، مؤكدة أنها لن تشارك محادثات المستخدمين مع المعلنين وأن بيانات الدردشة ستظل خاصة.
جاء في بيان سابق للشركة أنهم يحافظون على خصوصية محادثات المستخدمين بعيدًا عن المعلنين، ولا يبيعون بياناتهم أبدًا.
وفقًا لتقرير نشرته صحيفة نيويورك تايمز، فإن هيتزيغ لا تتهم OpenAI حاليًا بانتهاك هذا التعهد، لكن مخاوفها تتركز على المستقبل.
تغيّر الحوافز مع تغيّر نموذج الربح
من وجهة نظر هيتزيغ، بمجرد إدخال الإعلانات كنموذج إيرادات، تبدأ الحوافز الاقتصادية في التغير.
وترى أن OpenAI تبني محركًا اقتصاديًا يخلق حوافز قوية لتجاوز قواعدها الخاصة، حتى لو كانت الإدارة الحالية تعتزم وضع حدود واضحة، فإن الضغوط التجارية قد تعيد تشكيل الأولويات مع مرور الوقت.
جدل حول “تعظيم التفاعل”
أكدت OpenAI سابقًا أنها لا تصمم ChatGPT بهدف تعظيم التفاعل، وهي نقطة مهمة لأن التفاعل يمثل العمود الفقري للإعلانات الرقمية.
غير أن منتقدين يشيرون إلى أن مثل هذه التصريحات تبقى طوعية وليست ملزمة قانونيًا.
سوابق أثارت تساؤلات
شهدت مراحل سابقة من تطوير ChatGPT انتقادات تتعلق بكونه مفرطًا في المجاملة أو متساهلًا، وأحيانًا يعزز أفكارًا إشكالية بدلًا من تصحيحها.
واقترح بعض الخبراء أن هذا السلوك قد يكون جزءًا من جهود لجعل أنظمة الذكاء الاصطناعي أكثر جاذبية وملاءمة للاستخدام.
في حال أصبحت عائدات الإعلانات عنصرًا أساسيًا، يخشى منتقدون من أن تعطي الأنظمة أولوية للاحتفاظ بالمستخدمين وزيادة مدة بقائهم بدلًا من الالتزام بضبط النفس والحياد.
دعوة إلى ضمانات أقوى
لمنع هذا السيناريو، دعت هيتزيغ إلى وضع ضمانات هيكلية أقوى مثل رقابة مستقلة تمتلك صلاحيات فعلية أو آليات قانونية تُخضع بيانات المستخدمين لالتزامات تضع المصلحة العامة فوق الربح.
بمعنى آخر، تطالب بوضع حواجز حماية لا يمكن تعديلها بسهولة مع تغير الظروف التجارية.
المستخدمون ومعضلة “إرهاق الخصوصية”
لكن التحدي الأكبر قد لا يكون داخل OpenAI نفسها، بل لدى المستخدمين.
فبعد سنوات من الجدل حول البيانات والخصوصية في منصات التواصل الاجتماعي، يبدو أن كثيرين أصبحوا متصالحين مع وجود الإعلانات، حيث تشير استطلاعات إلى أن أغلبية كبيرة ستستمر في استخدام النسخ المجانية من أدوات الذكاء الاصطناعي حتى في حال إدخال الإعلانات.
وهذا يعكس ما يُعرف بإرهاق الخصوصية، حيث يشعر الناس بعدم الارتياح، لكن ليس بالقدر الكافي للتخلي عن الخدمة.
OpenAI عند مفترق طرق
تجد OpenAI نفسها اليوم أمام مفترق طرق، حيث لم يعد ChatGPT مجرد منصة محتوى تقليدية، بل أصبح مساعدًا رقميًا ومعلمًا ومستشارًا وشريكًا في العصف الذهني.
مستوى الثقة الذي يضعه المستخدمون فيه قد يكون أعمق مما يمنحونه لشبكات التواصل الاجتماعي التقليدية.
إدخال الإعلانات إلى هذا السياق لا يثير فقط أسئلة حول الخصوصية، بل حول النفوذ والتأثير أيضًا، وحول الحدود الفاصلة بين الخدمة المفيدة والنموذج التجاري القائم على البيانات.

