على الرغم من وجود قواعد رقمية تحدد بوضوح ما يُسمح به وما لا يُسمح به، إلا أن وسائل التواصل الاجتماعي لا تزال تستضيف ملايين المحتويات التي تنتهك هذه القواعد، ويعود ذلك إلى غياب معايير محددة بوضوح، مما يثير تساؤلات حول مدى قبول خطاب الكراهية ونوع المعلومات المضللة التي يجب حجبها، وهذا الغموض يتيح تسلل المحتوى الضار مما يتطلب من منشئي المحتوى تحمل المسؤولية الأخلاقية عما ينشرونه، فعلى سبيل المثال، إذا قام شخص ما بتحميل مقطع فيديو فكاهي يتضمن معلومات مضللة كجزء من مزحة، فيجب تصنيفه بوضوح على أنه ترفيهي، ويمكن أن يساعد إخلاء المسؤولية الذي يوضح نوع المحتوى، كونه خيالياً أو لأغراض تبادل المعرفة، في منع سوء الفهم والحد من انتشار المعلومات الخاطئة، ويُعد وضع معايير أكثر وضوحاً وتعزيز ممارسات المحتوى الأخلاقية خطوات أساسية لجعل وسائل التواصل الاجتماعي مساحة أكثر أماناً وبناءً، كما يجب عدم التغافل عن حلقة مهمة جداً وهي من يقوم بمراقبة التزام منصات التواصل.
مراقبة امتثال وسائل التواصل الاجتماعي
تتم مراقبة امتثال وسائل التواصل الاجتماعي لقواعدها الرقمية من خلال مجموعة من الهيئات التنظيمية الحكومية، وفرق الإشراف الخاصة بكل منصة، وآليات الرقابة المستقلة.
1- منصات التواصل الاجتماعي نفسها
تمتلك منصات مثل فيسبوك، وتويتر، ويوتيوب، وإنستجرام فرقًا خاصة بها للإشراف على المحتوى، وأنظمة ذكاء اصطناعي لكشف المحتوى الضار وإزالته، كما تستجيب هذه المنصات لشكاوى المستخدمين وطلبات الإزالة الحكومية، وتنشر هذه المنصات إرشادات مجتمعية وتقارير شفافية، وتستعين بعض المنصات بشركاء للتحقق من الحقائق لرصد المعلومات المضللة.
2. الرقابة المستقلة والمجتمع المدني
تدافع منظمات مثل مؤسسة الحدود الإلكترونية ومنظمة “أكسس ناو” عن الحقوق الرقمية، وتراقب مساءلة المنصات، وفي بعض الحالات، تتدخل الهيئات القضائية عند الطعن قانونياً في قرارات المحتوى.
3. الهيئات الحكومية التنظيمية
تقوم هذه الهيئات بوضع قوانين الإعلام الرقمي وإنفاذها، بما في ذلك إرشادات وسائل التواصل الاجتماعي:
– الهند: تشرف وزارة الإلكترونيات وتكنولوجيا المعلومات ووزارة الإعلام والإذاعة على الامتثال لقواعد تكنولوجيا المعلومات، وتراقب هذه الهيئات المنصات وتفرض عقوبات على المخالفات
– أستراليا: تخضع هذه القواعد لقانون السلامة على الإنترنت، ويتولى مفوض السلامة الإلكترونية إنفاذها
– الاتحاد الأوروبي: تُنفذ المفوضية الأوروبية قانون الخدمات الرقمية، الذي يُلزم المنصات بإزالة المحتوى غير القانوني ونشر تقارير الشفافية
– ألمانيا: يراقب المكتب الاتحادي للعدل الامتثال لقانون NetzDG، الذي يُلزم بإزالة خطاب الكراهية والمحتوى غير القانوني خلال 24 ساعة
– المملكة المتحدة: من المقرر أن يُنظم مكتب الاتصالات السلامة على الإنترنت بموجب قانون السلامة على الإنترنت القادم
في الدول التي لا تتبع نظاماً مركزياً لقواعد استخدام وسائل التواصل الاجتماعي، كالولايات المتحدة، لا توجد جهة مركزية واحدة تُنظم هذه الوسائل، بل تتولى جهات حكومية متعددة الإشراف على جوانب مختلفة من المنصات الرقمية، بحسب طبيعة القضية، كالخصوصية، وحماية المستهلك، والأمن القومي، ونزاهة الانتخابات، وغيرها، ويُتيح هذا النهج ميزة رئيسية، إذ يُمكن لكل جهة إنفاذ قواعد لإزالة المحتوى السلبي من وسائل التواصل الاجتماعي ضمن نطاق اختصاصها، وهي الجهة الأكثر دراية بهذه القواعد.
مع ذلك، ولضمان الاتساق والمساءلة، ينبغي وجود هيئة مركزية أو مجموعة رقابية مسؤولة عن رصد جهود الجهات المعنية، وتتولى هذه المجموعة تدقيق وتوثيق الإجراءات المتخذة، ما يُسهم في الحفاظ على بيئة رقمية أنظف وأكثر مسؤولية عبر مختلف المنصات.

