الأربعاء , 26 سبتمبر 2018
الذكاء الاصطناعي و التحيز الاجتماعي
الذكاء الاصطناعي و التحيز الاجتماعي

هل يعزز الذكاء الاصطناعي التحيز الاجتماعي بين الرجال والنساء ؟

الذكاء الاصطناعي و التحيز الاجتماعي بين الرجال والنساء –  نحن لا نعيش فقط في عصر تعاني فيه المرأة من التمثيل في كثير من مجالات الحياة الاقتصادية ، ولكن التكنولوجيا يمكن أن تجعل هذا الأمر أسوأ.

حيث تشغل النساء 19٪ فقط من مجالس الإدارة في الولايات المتحدة وأوروبا. وتستمر هذه الفجوة بين الجنسين في مجالس الإدارة ، على الرغم من حقيقة أن المرأة حصلت في المتوسط ​​على مؤهلات تعليمية أعلى من نظرائها الذكور لأكثر من عقدين في العديد من بلدان منظمة التعاون والتنمية في الميدان الاقتصادي. والسبب الرئيسي هو التحيز الاجتماعي.

هذا على وشك أن يتم تعزيزه من خلال الذكاء الاصطناعي ، حيث أن البيانات الحالية المستخدمة لتدريب الآلات للتعلم تكون متحيزة في كثير من الأحيان.

مع الانتشار السريع للذكاء الاصطناعي ، فإن هذه البيانات المتحيزة سوف تؤثر على التنبؤات التي تصنعها الآلات. عندما يكون لديك مجموعة بيانات من القرارات الإنسانية ، فإنه يتضمن التحيز بشكل طبيعي.

يمكن أن يشمل ذلك قرارات التوظيف ، وتدقيق امتحانات الطالب ، والتشخيص الطبي ، والموافقات على القروض. في الواقع ، كل ما هو موضح في النص أو الصورة أو الصوت يتطلب معالجة المعلومات – وهذا سيتأثر بالتحيزات الثقافية أو الجنسانية أو العرقية.

العمل من خلال الذكاء الاصطناعي

تتضمن الطريقة التي تتعلم بها الآلات ، وهي حقل فرعي من الذكاء الاصطناعي ، تغذية مجموعات أجهزة الكمبيوتر – سواء في شكل نص أو صور أو صوت – وإضافة مصنف إلى هذه البيانات. مثال على ذلك هو إظهار الكمبيوتر صورة امرأة تعمل في مكتب ومن ثم وصفها بأنها تعمل كموظفة مكتبية.

مع مرور الوقت ومع العديد من الصور ، سيتعلم الكمبيوتر التعرف على صور مماثلة ويكون قادرًا على ربط هذه الصور مع النساء العاملات في المكتب. وبمرور الوقت ، ومع إضافة الخوارزميات ، يمكن للكمبيوتر أن يقوم بتنبؤات لأشياء مثل فحص المرشح الوظيفي (استبدال البشر إلى السير الذاتية للشاشة) ، وإصدار التأمينات أو تقديم الموافقات على القروض.

الصناعة المالية والذكاء الاصطناعي

الصناعة المالية متقدمة بالفعل في استخدام أنظمة الذكاء الاصطناعي . على سبيل المثال ، يستخدمها لتقييم مخاطر الائتمان قبل إصدار بطاقات الائتمان أو منح قروض صغيرة. وتتمثل المهمة في تصفية العملاء لتجنب أي من المحتمل أن يفشل في إجراء الدفعات. يمكن أن يؤدي استخدام بيانات العملاء المرفوضين وربطهم بمجموعة من القواعد بسهولة إلى التحيز. يمكن أن تكون إحدى هذه القواعد: “إذا كان العميل امرأة واحدة ، فلا تقبل طلبها“.

هذا ليس كل شيء. على سبيل المثال ، كان لمنصة الوظائف على لينكد ان ، على سبيل المثال ، مشكلة في عدم عرض الوظائف ذات الأجور العالية بشكل متكرر لعمليات البحث التي تقوم بها النساء كما هي بالنسبة للرجال بسبب الطريقة التي كتبت بها خوارزمياتها. كان المستخدمون الأوليون لوظيفة البحث عن وظيفة في الموقع من الذكور في الغالب في هذه الوظائف ذات الأجور العالية ، لذا انتهى بهم المطاف إلى اقتراح هذه الوظائف على الرجال – مما أدى ببساطة إلى تعزيز التحيز ضد المرأة. وجدت إحدى الدراسات مشكلة مشابهة مع جوجل .

وتوضح دراسة أخرى كيف أن الصور المستخدمة في تدريب برامج التعرف على الصور تزيد من التحيز ضد المرأة. تم العثور على مجموعتين كبيرتين من الصور المستخدمة لأغراض البحث – بما في ذلك مجموعة مدعومة من قبل مايكروسوفت و فيسبوك – لعرض تحيزات جنسانية متوقعة في صور المشاهد اليومية مثل الرياضة والطهي. ارتبطت صور التسوق والغسيل بالنساء ، بينما كان التدريب وإطلاق النار مرتبطين بالرجال.

إذا كانت مجموعة الصور تربط بشكل عام النساء بالأعمال المنزلية ، فإن البرامج المدربة من خلال دراسة تلك الصور وتصنيفاتها تخلق ارتباطًا أقوى معها.

اختبار للتحيز

لا يزال تدريب الآلات التي تستخدم البيانات غير مثير للمشاكل طالما أنه لا يؤدي إلى إجراءات تنبؤية تمييزية. ومع ذلك ، وبينما يتسع استخدام البيانات أكثر فأكثر لاستبدال القرارات البشرية ، يصبح هذا الأمر مشكلة. لذلك ، يجب فهم التحيزات الأساسية التي تحتاجها هذه الصناديق السوداء.

إحدى طرق اختبار التحيزات هي عن طريق اختبار الإجهاد للنظام. وقد أظهر ذلك عالم الكمبيوتر أنوبام داتا الذي صمم برنامجًا لاختبار ما إذا كانت الذكاء الاصطناعي قد أظهرت تحيزًا في توظيف موظفين جدد.

يمكن استخدام التعلم الآلي لاختيار المرشحين مسبقا على أساس معايير مختلفة مثل المهارات والتعليم. ينتج عن ذلك درجة تشير إلى مدى ملاءمة المرشح لهذا المنصب. في برنامج اختيار المرشح لشركات الإزالة ، غير برنامج داتا الجنس بشكل عشوائي والوزن الذي قالوا إنه يمكنهم رفعه في تطبيقهم وإذا لم يكن هناك تغيير في عدد النساء اللواتي تم اختيارهن مسبقًا لإجراء المقابلات ، جنس مقدم الطلب الذي يحدد عملية التوظيف.

كما يظهر هذا المثال ، من الممكن إزالة التحيزات. لكن هذا يتطلب مجهودًا ومالًا حتى لا يتم ضمان حدوثه. في الواقع ، من المرجح أن نشهد زيادة في التحيزات على المدى القصير ، حيث تضخم الذكاء الاصطناعي .

على المدى الطويل ، إذا أدى الذكاء الاصطناعي إلى استبدال البشر بالآلات في بعض الحالات ، فإن مستويات الذكاء العاطفي الأعلى لدى النساء ستصبح أكثر قيمة.

ستكون هناك حاجة أكبر للأدوار التي تفهم السلوك البشري بطرق تكافح الآلات. تتطلب هذه الأدوار فهم السياقات الاجتماعية والتعاطف والتعاطف – وهنا يتفوق الأشخاص الذين يتمتعون بمستويات أعلى من الذكاء العاطفي. لذا ، على الرغم من أنه من المرجح أن تزداد التحيزات على المدى القصير ، إلا أن المساواة بين الجنسين على المدى الطويل لا تزال قائمة.

المصدر : theconversation

عن Amir Issa

شاهد أيضاً

بعد تغيير سياسة الاعلان …ما يمكن أن يتوقعه المعلنون على فيسبوك الآن ؟

تغيير سياسة الاعلان فى الفيسبوك …..يهتم معلنوا فيسبوك بما يمكنهم أن يتوقعوه الآن من تغيير …