يُظهر الذكاء الاصطناعي جانبًا محايدًا ظاهريًا، إلا أنه يعكس التحيزات البشرية التي تتضمن تمييزًا ضد النساء، حيث تؤكد مجلة هارفارد بزنس ريفيو على وجود حالات يتبنى فيها الذكاء الاصطناعي هذا التحيز، مستشهدةً بمثال من تقنيات معالجة اللغة الطبيعية مثل مساعدي أمازون أليكسا وأبل سيري.
تتعلق إحدى جوانب التحيز في الذكاء الاصطناعي بكيفية ارتباط الكلمات، فعلى سبيل المثال، غالبًا ما تربط هذه الأنظمة كلمة “رجل” بكلمة “طبيب” وكلمة “امرأة” بكلمة “ممرضة”، مما لا يعكس التقدم الاجتماعي الذي نسعى إليه.
كيف يحدث التحيز من الذكاء الاصطناعى؟
يحدث التحيز أثناء عملية التعلم الآلي، حيث تلعب البيانات دورًا رئيسيًا في ذلك، فإذا كانت النساء غير ممثلات بشكل كافٍ في البيانات، فإن الذكاء الاصطناعي سيعاني من ثغرات معرفية، وهذا يعكس التحيزات الشخصية التي يُدخلها البشر أثناء تطوير هذه الأنظمة.
كيف يمكن للذكاء الاصطناعي التغلب على التحيز؟
تتطلب الخطوة الأولى نحو التغلب على التحيز ضمان تنوع عينات التدريب، بحيث تشمل مختلف الفئات من حيث الجنس والعرق والعمر، كما يجب أن يأتي مطورو الذكاء الاصطناعي من خلفيات متنوعة، مما يسهم في تحقيق المساواة في الصناعة.
لماذا من المهم التغلب على التحيز؟
أشار خبراء المساواة في الذكاء الاصطناعي في مؤتمر LivePerson إلى التأثيرات السلبية التي يمكن أن يسببها التحيز في الذكاء الاصطناعي على المجتمع، حيث إن برمجة الذكاء الاصطناعي لفحص المرشحين للوظائف بتحيز معين قد تؤدي إلى تقييد فرص العمل أمام النساء، كما أن التحيز الجنسي قد يسبب مشكلات في برامج التعرف على الوجوه المستخدمة في تطبيقات الأمن بالمناسبات العامة والمطارات والملاعب.

