تكوين
المقدمة
أثر الذكاء الاصطناعي في الفجوة الرقمية[1] بين دول العالم
في أمد قصير تقديره لا يتجاوز العقود الأربعة الأخيرة أفضت الثورة الصناعية الثالثة[2] أو الثورة الرقمية والثورة الصناعية الرابعة أو التكنولوجيا الرَقْمية إلى توسيع الفجوة بين الدول وإعادة تحديد مواقعها من النظام العالمي وعلاقات القوة بينها. فقد عزز تحقيق الغرب للسبق في مجال الابتكارات التكنولوجية وامتلاكِه المعرفة سيطرتَه الجيوسياسية وهيمنته الاقتصادية على بلدان الجنوب بعامة والعالم العربي بخاصة، وبات التنافس بين شركات عملاقة لا يتوقف نفوذها على احتكار اقتصاد المعرفة فحسب، وإنما يمتد تأثيرها إلى السياسي والاجتماعي والثقافي… وتبعًا لذلك تكون نمطًا جديدًا من التبعية الذي تفرضه مسارات العولمة وهي التبعية التكنولوجية ومن علاماتها انتشار تطبيقات الذكاء الاصطناعي وتوسيع مجالات استعمالها والانخراط في سوق خدمات جديدة بتكلفة إنتاج صفرية (منصات مختلفة لصناعة الخبر وترويجه وللإنتاج الفني والعمل الإشهاري…) وهي علامات تذكرنا بعمليات التحديث التي شهدها العالم العربي في بداءات عصر النهضة، وهو يعتقد أنها بوابة التقدم والتغيير الاجتماعي، فانخراطه اليوم في البراديغم الرقمي وإن فرض نمطًا جديدًا من الشبكات العلائقية الجامعة بين الافتراضي والواقعي مثل الميتافرس أو الواقع المعزز augmented reality أو الواقع المختلط mixed reality، يبقى أفق توظيفه مقتصرًا على السعي في امتلاك بنية تِقْنية ورَقْمية متطورة، لكن وضوح هذا الواقع التكنولوجي الجديد القائم على تطوير المهارات التقنية والاحتفاء بنخبة الخبراء والكفاءات في مختلف القطاعات والخاضع للمنطق الاستهلاكي وبرامج الأسواق الكبرى المتغيرة باستمرار، لا يمنع التساؤل عن مدى ثبات الأنظمة الاجتماعية وقدرتها على المراقبة والضبط وحفظ التراتبية في وجه سطوة العالم الرقمي، ألا يكون لحلول الذكاء الاصطناعي في شتى القطاعات وانتشار ثقافة الذكاء الاصطناعي عبر خوارزميات وسائل التواصل والمساعدات الذكية Smart Assistants مثل: تنظيم المواعيد والتذكير بمناسبات مهمة، وأنظمة التنبؤ Predictive Systems مثل: التسويق الرقمي أو خرائط قوقل التي باتت منبهة لمخاطر الازدحام تأثيرًا على عملية التفاعل الاجتماعي وما يحكمها من قيم وضوابط؟ وبالنظر إلى المجتمعات الشبكية التي باتت خاضعة لتوجيهات الذكاء الاصطناعي اعتمادا على قاعدة البيانات الضخمةBig Data نتساءل إن كان علينا عدها بدائل كفيلة بتحقيق ما لم يتحقق في الواقع الاجتماعي من قبيل القدرة على القضاء على التمييز واللامساواة والعنف والفقر…
لقد شهدت مدارات البحث في تبعات هذه الإنجازات التكنولوجية تطورًا في نهايات القرن الفارط بالاستفادة من أسئلة الدراسات الجندرية الجديدة التي تجاوزت النظر في الأدوار والعلاقات بين الرجال والنساء وبناء الذكورة والأنوثة لتشمل كل المقهورين والمستضعفين من الشعوب المستعمَرة إلى ذوي الإعاقة والإثنيات المهمشة وغير البيض وأصحاب الهُويات اللامعيارية… وبذلك تُوسع نطاق البحث في انعكاسات التكنولوجيا الرقمية على هذه الفئات المهمشة، وفي هذا الإطار تتنزل بحوث Joy Buolamwini مثلًا وهي مؤسسة رابطة العدالة الخوارزمية 2016 وقد بينت في كتابها (كشف القناع عن الذكاء الاصطناعي: مهمتي لحماية ما هو بشري في عالم من الآلات) 2023 أن خدمات الذكاء الاصطناعي في أكبر الشركات العالمية مثل: مايكروسوفت وآي بي إم وأمازون تُعزز التمييز الجندري والعرقي، وتبعًا لذلك تركز اهتمام الباحثة على كيفية تحقيق العدالة الجندرية رقميًا.
إقرأ أيضًا: النقد الفلسفي للتكنولوجيا جاك إلول نموذجا: الجزء الأول
لكن القضايا المتعلقة بتدخل الذكاء الاصطناعي في عملية تكوين الهُوية وترسيخ علاقات الهيمنة الجندرية ظلت الأقل حضورًا وحيازة على الاهتمام في البحوث العربية المتراكمة بشأن تبعات الثورة التكنولوجية وتأثيراتها، رغم إدراك ما تجده لدى الغرب من حظوة واهتمام ناتجين عن وعيهم بأن مجال التكنولوجيا صار مجالًا مُجندَرًا ومُجندِرًا في الآن نفسه.
معنى التحيز الجندري
يشمل مفهوم التحيز الجندري gender bias كُل أشكال التمييز التي تُمارس ضد فئات اجتماعية مصنفة ضمن الأقليات أو الهامش الاجتماعي (السود/ النساء/ ذوي الإعاقة/ مجتمعات الميم…) ويتجسد في ممارسة عنف مُقنع وهادئٍ حينًا وجليًا وشديدًا حينًا آخرَ، رغم ما تنص عليه كل الاتفاقيات العالمية ومواثيق حقوق الإنسان من واجب احترام كل الفئات البشرية على اختلاف لونها وجنسها وعرقها. فالتحيز الجندري ليس سوى الوجه الآخر للهيمنة وما تحدده من امتيازات وفق علاقات السلطة.
وقد تعالت الأصوات المناهضة للتحيز، وأعلى تلك الأصوات ما كان مناديًا بالمساواة من أجل تنمية مُستدامة ومناهضًا للعنف المؤسسي الذي يحكم العلاقات بين الرجال والنساء وفاضحًا ضعفَ الاعتراف بحقوقهن ومظاهر استبعادهن عن مراكز القرار… وقد قامت برامج الحركات النسوية بمختلف توجهاتها على هذه الأهداف التي صار تحقيقها حاليًا أكثر تعقدًا وصعوبةً، فمع الثورة الصناعية الرابعة وانشغال العالم بتفاصيل التطور التكنولوجي غير المتوقع، بدأ الوعي بظهور خطر جديد على مصائر النساء، تتفاوت حدته بين الغرب والشرق، وذلك ببوادر تهميش مجدد، بل مضاعف لقضايا التحيز الجندري نظرًا إلى دينامية طرق الإنتاج وتغير القوى العاملة باستحكام الروبوتات والذكاء الاصطناعي وتكنولوجيا المعلومات للإنتاج وظهور وظائف جديدة تقتضي مهارات فنية عالية المستوى… ومثل هذه المتطلبات تبدو في الظاهر متعلقة بالكفاءة العلمية فقط، وتُخفي إمكان تفاقم الفجوة الجندرية التي عَرفت منطلقاتها مع التحيز الجندري في مجال العلم بعامة والتكنولوجيا بخاصة.
ويبدو الوضع أخطر في المجتمعات العربية، إذ مقابل تهوينها من مظاهر التحيز الجندري وتحذيرها من عواقب تسليط الضوء عليها لما قد يترتب عليه من إرباك الاستقرار وهدم القيم، فإنها تتهافت على وضع استراتيجيات واستخدام تطبيقات واستعمال خوارزميات في شتى القطاعات: كالصحة والتعليم والأمن… وليس مبالغة إن قلنا إن تفاقم التحيز الجندري يكون أشد بازدياد العمى الجندري Gender Blindness أي بتجاهل الاختلاف الحاصل عن بناء الهُويات الجندرية وما يحكمه من تمثلات، وهو اختلاف تحدده المركزية القضيبية العقلية Phallogo centrisme التي تحكم الأنظمة الاجتماعية الأبوية فتجعل النقصان -بخاصة للعقل- مُحددا أساسيًا للأنوثة.
وهو ما يسمحُ بمزيدٍ من توسيع الفجوة ويُعَسِّرُ على النساء ريادة الأعمال وانتزاع مواقع نفوذ في مختلف المجالات لا سيما العلمية منها، أما القادرات على خرق تلك الصورة فقد شذذن عن الأنوثة المعيارية والأدوار الطبيعية. ويكفي النظر في بعض الإحصائيات الدالة على التفاوت بين الجنسين في نسب توجه الطالبات إلى البحث العلمي، فقد بلغت في العالم العربي 38% عام 2014. وحتى عند تونس التي تُعد رائدة في الترتيب العالمي ببلوغ نسبة المنخرطات في البحث العلمي ضمن المؤسسات الجامعية 66 % عام 2022 يتجلى التحيز الجندري اللاواعي في ضعف نسبة تشغيل الخريجات مقارنة بالخريجين، فآخرُ الإحصائيات تكشف التباين ببلوغ بطالة حاملات الشهادات 30.6% في حين لم تتجاوز نسبة 13.4 % للذكور.
ويكفي متابعة مظاهر التمييز اللاواعي من طريق الصدى الإعلامي والاجتماعي لمؤسسيْ واحدة من أهم الشركات في مجال تصميم أنظمة الذكاء الاصطناعي، وقد أُسست من طرف تونسيين (كريم بقير وزهرة سليم) عام 2014 وهي insta Deep، فقد حظي الشاب بمرئية أكبر[3] حتى أنه صُنف لوحده ضمن أهم مائة مؤثر في العالم عام 2024، في حين لم تَظهر الباحثة غالبا إلا في أنشطة محلية رغم طرافة تجربتها[4]. والملاحظ أن تلك الفرص القليلة التي سئلت فيها عن تجربتها كانت لتسليط الضوء على مرحلة تأسيس الشركة، في حين هُمشت مرحلة تكوينها العلمي مقابل التركيز على كريم بقير خريج المدرسة متعددة التقانات بفرنسا… فأن تكون شريكة له بتكوين عصامي يتعارض وإحدى المنمطات الجندرية المتمثلة في ذكورة العلم.
لكن السؤال يُطرح على ضوء المتغيرات التي أحدثتها ثورة الذكاء الاصطناعي: ألا يُمكن أن يكون للأشكال الجديدة من الإنتاج (استخدام الروبوتات والمراكب الذاتية القيادة والآلات الذكية…) تأثيرًا في براديغم التحيز الجندري؟ ألا يمنح المجتمع فرصة النظر في بنى علاقاته والتفكير في إعادة بناء الهُويات والأدوار؟ سؤال نستلهمه من توظيف دونا هاراواي[5] لصورة السايبورغ Cyborg أي الكائن الهجين الجامع بين البشري والتقني، وهو نموذج كفيل بتجاوز الثنائيات التقليدية مثل ذكر/أنثى، طبيعي/مصطنع، رُوحي/مادي. مما يُخول له تحدي الهياكل الأبوية والسلطوية، وإعادة صياغة مفاهيم جوهرية مثل: الهُوية والعلاقات الجندرية
هل يُزكي الذكاء الاصطناعي التحيز الجندري أم يقطع معه؟
الذكاء الاصطناعي والحياد الجندري
ساد الاعتقاد أن من أهم المكاسب الحقوقية التي يُقدمها الذكاء الاصطناعي هو تجاوز المركزيات (الذكور/العرق الأبيض/الغرب/اللغة…) وتوفير حقل ديمقراطي يسمح بالتحرر من التنميط الذي يسود بناء الهُويات والعلاقات والأدوار الجندرية، ويعود ذلك إلى أننا ننتقل داخل عالمه من ذوات مُجندرة إلى ذوات رقمية تغيب فيها المعايير والمنمطات الجندرية من قبيل: الأنثى (الضعف/العاطفة/الرقة) والذكر (القوة/الشجاعة/العقل…) ومن ثم تنتفي تلك الأفضلية المبنية على أساس الجنس. فالمطلوب في الهُوية التقنية عنوان «آي پي ”IP Address“..أي دون تحديد الجنس.
وبالإضافة إلى ذلك لا تكاد التقارير والدراسات المعنية[6] التي تُعدها المؤسسات الكبرى في مجال التكنولوجيا في مسألة أخلاقيات الذكاء الاصطناعي تخلو من تنصيص على تحقيق الحياد الجندري، إلى جانب شروط احترام الخصوصية والتأكد من الدقة، وهذا الوعي بضرورة أن يكون هذا العلم في خدمة ثقافة العدالة الجندرية قد يُفند تلك المخاوف من تكريس التمييز وتحويله إلى أنساق علمية.
لكن إلى أي مدى يُمكن لهذه الشروط العلمية أن تتعالى على العوامل الموضوعية الحافة بمجالات تطبيقها؟ كيف يُمكن لمجتمعات -لا سيما العربية منها والخليجية كونهما الأكثر استثمارًا في هذا المجال- ما تزال تناقش مسائل التفوق الفطري للرجل على المرأة وتتجاهل قضايا التمييز الجندري وتستنكر تجريم العنف ضد النساء رغم استشرائه، في الواقع أن تقبل بمساواة بينهما في عوالم الذكاء الاصطناعي وتتمرد على التمثلات التي تؤمن مؤسسات المجتمع تناقلها وترسيخها؟
جنسنة الذكاء الاصطناعي
تشير الدراسات النقدية للذكاء الاصطناعي إلى أن مؤشرات التحيز كانت جلية منذ عام 2018 من طريق برنامج استخدمته شركة أمازون عام 2018 من أجل التوظيف، فقد أدى اعتماد التعلم الالي Machine learning بالنظام إلى تفضيل المترشحين للعمل من الذكور نظرًا إلى أن البرنامج تدرب في فترة طويلة غلبت فيه مطالب الذكور على الإناث. وكانت تلك التجربة مُفضية إلى تسليط الاهتمام على ما يستدعيه الذكاء الاصطناعي في التوظيف من تحديات أخلاقية.
واتسع نطاق الاهتمام بمسألة أخلاقيات الذكاء الاصطناعي بعد شبه إجماع من العلماء والمفكرين والحقوقيين على أن خوارزميات الذكاء الاصطناعي تعكس إعادة إنتاج للتحيز الجندري الذي يحكم العلاقات الاجتماعية. ويظهر ذلك جليًا في:
جنسنة اللغة/الصوت/الأسماء
- الصوت مثَّل مُحددًا جَندريًا مهمًا لما يُحيل إليه الصوت من سمات القوة/السيادة/اللطف/الخضوع… ولذلك فإنه يخضع لتصنيف جندري ثنائي صارم فإما هو أنثوي أو هو ذكوري ولا حضور لأصوات تميز الهُويات اللامعيارية. ولم يختلف الأمر مع الأصوات المُصممة عبر الذكاء الاصطناعي إذ تغلب المساعدات الصوتية الأنثوية على استعمال أصوات ذكورية وقد يُخيرُ بينهما. ويُبرر غلبة الصوت الأنثوي على أساس أنها واضحة ومطمئنة، لكن السمة الغالبة هي الرقة، بل الإثارة في أحيان كثيرة مثل: Siri أبل وAlexaأمازون.
وتبعًا لذلك انكب الباحثون على ابتكار خيار صوتي جديد محايد هو صوتQ الذي تكاد سماته تكون لا جندرية.
- الأسماء، تظهر جنسنة الأسماء فيما أطلق على بعض الروبوتات من الأسماء المؤنثة سواء في الواقع أو في أشرطة الخيال العلمي، ويعود ذلك إلى طبيعة الخدمات التي تقدمها مثل القطاع الفندقي فاختيار صورة الأنثى يعكس عملية إعادة إنتاج لمنوال توزيع الوظائف السائد. ولا غرابة في ذلك إذ تُستطلع آراء المشاركين في مرحلة تجريبية بعد تعاملهم مع روبوت “ذكر”[7] يحمل اسم “أليكس” وروبوت أنثى يحمل اسم “سارة” لهما سمات بشرية، وأبدى المشاركون شعورهم بارتياح أكثر عند التعامل مع الروبوت الأنثى
إقرأ أيضًا: مظاهر القمع الحضاري المعاصر عند ماركيوز: الجزء الأول
- لغة الدردشة
سألت chat gpt، لاحظت أنك تستعمل غالبًا ضمير المذكر فهل ترى أسلوبك في الخطاب محايدًا؟ فردَّ، هذا ليس بالضرورة أسلوبًا محايدًا بصورة كاملة. استخدام الضمير المذكر قد يعكس تقاليد لغوية… إذا كنت تفضل استخدام ضمائر معينة أو أسلوب خاص في الحديث، يُمكنك إخباري بذلك، وسأحرص على التكيف مع تفضيلاتك! ويبدو جليًا أن خوارزميات هذا البرنامج تؤكد ضرورة اعتماد ما تعلمه مع قدرة مشروطة على التغيير لتلبية إرادة المستخدم. وتبعا لما بينته دراسات اللغة والجندر من واقع التحيز اللغوي الناتج عن كون اللغة “مؤسسة ذكورية فحولية” “تضطلع بدور مهم في إعادة إنتاج العلاقات اللامتكافئة بين النساء والرجال“[8] فإن لغة الذكاء الاصطناعي لا يُمكن أن تكون مُحايدة إذ تعتمد على التعلم الآلي لفهم بنية اللغة، وكذلك لفهم “معاني” الكلمات.
مستوى الفاعلين في مجال الذكاء الاصطناعي
تنوعت مجالات المشاركة النسائية في قطاع الذكاء الاصطناعي وتعددت الإسهامات القائمة على الابتكار لا الاستخدام فقط، بدءًا من أول مبرمجة في تاريخ الكمبيوتر (حساب الأعداد) وهي[9]Ada Lovelace (1815ـ 1852) في بداءة القرن 19، وقبل اختراع الحاسوب فقد استشرفت مزايا البرمجة والآفاق الممكنة للكمبيوتر وما يُمكن أن تسهم به في تطوير حقول عدة مثل، الفن… وVivienne Ming التي وضعت أدوات تعتمد الذكاء الاصطناعي والتعليم الآلي لتمكين الأطفال ذوي الاحتياجات من التعلم الذاتي، لكن طبقًا لتقرير اليونسكو عام 2018: “لا تستفيد النساء استفادةً كاملةً من فرص العمل المتاحة للخبراء ذوي المهارات العالية والتعليم العالي في المجالات المتقدمة مثل الذكاء الاصطناعي، إذ نجد امرأة واحدة فقط من بين كل خمسة متخصصين في هذا المجال (أي حوالي 22%)[10] وبافتقار فرق الذكاء الاصطناعي إلى التنوع جندري وثقافي لا غرابة في تهميش الأنظمة الناتجة لاحتياجات النساء”[11]. ومن أسباب هذا النقص ما أوضحناه سابقًا بخصوص فشل أنظمة التوظيف أو التعرف على الكفاءات النسائية، مما يُقلص فرص عملهن… ويقل عدد الفاعلات في هذا المجال بالعالم العربي مع التأكيد أن إشعاع هذه الأقلية كان بالظهور في فاعليات علمية غربية، في حين يُعد اضطلاعهن بمسؤولية التدريس في الجامعات أقصى ما يمكن تبوؤه وينطبق ذلك على مسيرة الباحثة فاطمة باعثمان [12]السعودية.
في مستوى البيانات
يتجلى ذلك في مستويين:
- أولهما، أن البيانات المستخدمة في تدريب الذكاء الاصطناعي تحمل تحيزات اجتماعية سائدة، ويقوم النظام بتكرار تلك التحيزات.
- أما الآخر، فيتمثل في نقص البيانات المصنفة وفق الجنس من جهة واعتماد البيانات التاريخية المتضمنة لأشكال مختلفة من التمييز الجندري والمكرسة للصورة النمطية للنساء، الأمر الذي غالبًا ما يجعل الإسهامات والعقبات التي تواجهها المرأة غير مرئية من الناحية الاجتماعية والثقافية والاقتصادية. ويمكن أن يؤدي هذا النقص في البيانات إلى تفاقم أوجه عدم المساواة القائمة، بتعزيز التحيزات في البرامج الاجتماعية والوصول إلى الخدمات المالية وغيرها من الخدمات والفرص الاقتصادية، وكذلك في برامج التنمية المصممة لمكافحة أوجه عدم المساواة بين الجنسين.
ولا يقف التحيز عند هذا الحد، إذ يتجسد تقنيًا في نظام التعرف إلى الوجوه، فقد تبين التفاوت في دقة الخوارزميات وفق جنس صاحب الصورة وهي أقل مع الإناث وخاصة من كن ذوات بشرة داكنة.
محدودية الخوارزميات
مادامت الخوارزميات سلسلة من التعليمات المُصمَمة من أجل إنجاز مهام محددة أو اتخاذ قرارات أو تغذية تعليمات، فإنها ستظل رهينة مصالح المسؤولين… فلا يخفى علينا أن عمل الخوارزميات ليس خاضعًا دومًا للفلترة أو للمحاذير خضوعًا مستمرًا، بل غالبًا ما تكون محكومة بالغاية الربحية أو المواقف السياسية لمحتكري البيانات: Data Monopolists، وتبعًا لذلك يتيسر استغلالها في الحملات الانتخابية للتأثير في الرأي العام وتوجيهه سياسيًا على غرار ما تُتيحه خوارزميات الهاشتاغ والتغريدة بتويتر والترند من نشر المحتوى وتداوله بسرعة دون إخضاعه للتحليل… وكذلك الأمر عند ممارسة العنف الإلكتروني تنمرًا وتحرشًا، فالأولوية عند النظر في إمكان الإلغاء تكون لمدى انتشاره على حساب انتهاكه لخصوصية أو حرمة الطرف المُعَنَّف، ولا يتعلق ذلك بأخطاء تقنية مثلما يُتعلل به. هكذا تكون محدودية الخوارزميات بوقوعها تحت سلطة المسؤولين وغاياتهم، ومن ناحية أخرى قد تخضع للتطوير دون ضمان فعلي لمبدأ السلامة الرقمية، ونذكر في هذا السياق انتشار عمليات التشويه عن طريق التزييف العميق Deep fake والفبركة لصور مُسيئة لشخصيات نسائية عامة في العالم العربي مثلما تعرضت له عائشة قذافي عام 2024 وذلك لابتزازها، فتلك التقنية تشهد تطويرًا إلى حد استحالة القدرة على كشف مؤشرات التزييف.
محاولات تقليص الفجوة الجندرية في مجال الذكاء الاصطناعي
لم يعد خفيًا شروع العلماء والباحثين في معالجة أسباب الفجوة الجندرية في مجال الذكاء الاصطناعي ومن علامات هذا الاهتمام:
- السعي في توفير قدر أكبر من البيانات الدقيقة بخصوص ظروف النساء والفتيات ومعاناتهن لتكون
أكثر تنوعًا وشمولية.
- تطوير الأصوات المحايدة جندريًا رغم الصعوبات التقنية، ومنها مشروع “Q” الذي يُوفر خيارًا صوتيًا لا يرتبط بجنس محدد، وهو صوت يجمع أصواتًا متنوعة لذوي الهُويات المعيارية واللامعيارية، يدمرها ليستخرج منها صوتًا محايدًا.
- تكثيف العمل على ضبط أخلاقيات الذكاء الاصطناعي مثلما سعت فيه Timnit Gebru بنقدها لأنظمة التعرف على الوجه الخاص بأمازون لما تنمُ عنه من تمييز جندري وعرقي، وهو ما ذهبت إليه Kate Crawford أيضًا، إذ بينت في أبحاثها انعكاسات الذكاء الاصطناعي البيئية والأخلاقية وخاصة في المستوى الجندري والعرقي والاقتصادي، فأنظمة الذكاء الاصطناعي تفتقر إلى الحياد، بل هي تجهل العاطفة الإنسانية مثلما لخصه عنوان دراستها عام 2022 Artificial Intelligence Is Misreading Human Emotion. ولذلك فإن تحديد الأخلاقيات ضروري لتكون هي المرجعية المعتمدة لمساءلة الفاعلين في هذا المجال، ويكون ذلك بإدماج منظور جندري في تصميم أنظمة الذكاء الاصطناعي. وفي انتظار تمثل أفضل للمعيار الجندري من شركات التكنولوجيا العملاقة، تتكثف الحملات التوعوية والتحسيسية التي تقودها الجمعيات النسوية في المنطقة العربية، لا سيما أمام تفاقم حالات تعرض النساء إلى أشكال مختلفة من العنف الرقمي، ويتزامن ذلك مع سعي المشرعين في سن قوانين جديدة تُجرم العنف الرقمي وتضاف إلى جملة مواد قانون تجريم العنف المسلط على النساء.
- السعي في وضع استراتيجيات متعددة الأصعدة (السياسي/التقني/الاقتصادي/…) وذلك لخلق قوة عاملة أكثر تنوعًا وشمولاً في مجال الذكاء الاصطناعي، النساء مبتكرات في مجال الذكاء الاصطناعي خاصة، ويستوجب ذلك أن يكون لهذه القوة وعي جندري حتى تتمكن من استخدام البيانات الضخمة لصالح النساء استخدامًا يُحقق الدقة والنجاعة والمساواة الجندرية.
- يُمكن أن يكون ذلك باتساع دائرة العلماء “المجانين” وفق تعبير فيفيان مينغ، أي أولئك الذين يضعون عقولهم في خدمة الإنسانية لتطوير قدراتهم دون تحيز أو انتقاء، وهو ما تجسد أيضًا في دعوة Joy Buolamwiniإلى مقاومة التحيز الذي يحكم برمجيات صنع القرار. وأسهمت راشيل توماس Rachel Thomas في وضع منصة ai لتيسير سبل التعلم العميق واستعمال الذكاء الاصطناعي للمبتدئين ومنهم النساء.
غير أن تصميم خوارزميات عادلة لا يتوقف على جهود المطورين فقط، وإنما يقتضي إرادة صناع القرار ووعيهم بضرورة جعل الذكاء الاصطناعي أداة لتعزيز المساواة وترسيخ العدالة الجندرية من أجل مواطنة رقمية… وتكفي الإشارة إلى آخر قرارات الإدارة الأمريكية التي يعد إيلون موسك[13] من أهم ممثليها “وزير كفاءة الحكومة“، إذ اصدر ترامب أمرًا تنفيذيًا بعنوان “الدفاع عن النساء من تطرف أيديولوجيا الجندر واستعادة الحقيقة البيولوجية في الحكومة الفيدرالية“، وهو ينص على العودة إلى التصنيف الاجتماعي القائم على أساس بيولوجي لمفهوم “ذكر” و”أنثى”، والتخلي عن أي سياسات تعترف بالهُوية الجندرية.
إقرأ أيضًا: المرأةُ: جدلية الذات واللغة في تكوين الهُوِيَّة
أما في العالم العربي فما نزال في طور التعرف والتعريف بأشكال التحيز الجندري في مجال الذكاء الاصطناعي، وهو ليس بالطور السهل إزاء شبه إجماع القوى الاجتماعية على أنها من الإشكاليات المسقطة أو أنها ثانوية مقارنة بخطورة أشكال التحيز في الواقع. ومثل هذا التهميش يؤكد أن عملية التحديث لم تتجاوز البعد التقني المادي، وأن السعي في القفز في قطار التقدم عبر بوابة الذكاء الاصطناعي دون إدراك مخاطر الركوب العشوائي قد يجعل العواقب أمرَّ وأدهى مما هي عليه في العالم المتقدم وخاصة في مستوى العلاقات الاجتماعية، فما مدى الوعي بمخاطر رفيق الذكاء الاصطناعي ـ مثل منصة Kupid AI التابعة لأنستغرام ، أو روبوتات الجنس على جنسانية الإنسان وحرمة حياته الحميمية وتمثلاته للشريك البشري (امرأة كانت أو رجلًا)، بل ما تأثيرها في علاقاته الإنسانية وحياته النفسية؟ أليست دافعًا أقوى نحو العزلة والوحدة الاختيارية في الظاهر والقسرية في الباطن؟
خاتمة
نستشف من طريق عرض جُملة المقالات والدراسات العربية والمادة الإعلامية المعنية بانعكاسات الذكاء الاصطناعي، ضعف الاهتمام بإشكالية التحيز الجندري، إذ لا تُعد من المسائل المهمة في مجتمعات انبنت سياساتها الجندرية على التمييز. بينما يتجلى في المقابل الانشغال والخوف من احتمالات التهميش الشامل للبشري في ضوء احتلال أنظمة الذكاء الاصطناعي والروبوتات حيزًا خطيرًا في شتى القطاعات على حساب التمثيلية البشرية، إضافة إلى تحول الهُويات البشرية إلى هُويات رقمية مُفرغة من بعدها الإنساني. ومقابل هذا التهميش لإشكاليات التحيز الجندري والذكاء الاصطناعي يستمر توجه خوارزميات اقتراح المواضيع نحو مواضيع تعكس التحديق الذكوري Male Gazeأي الاستمرار في جعل المرأة موضوع مراقبة والجسد الأنثوي مصدر متعة دون معرفة المُراقَب، مما يجعل تلك الخوارزميات مُعززة لنموذج سلطوي يحكم المجتمع من الداخل ويجعله رقيبًا ولا رقيبَ عليه أو هو أشبه بالبانوبتكون panopticon[14]. وهو ما يجعلنا نقول ليس الخطر في الذكاء الاصطناعي، بل في الجهل بهُوية من يستخدم الذكاء الاصطناعي ويديره.
قائمة الحواشي والمراجع
ـ قرامي آمال: العلم ذكر لا يحبه إلا الذكران” ضمن كتاب “النساء والمعرفة والسلطة، تونس، مسكلياني، 2019
ـ مؤنس حواس: كم تبلغ نسبة توظيف النساء بشركات التكنولوجيا؟.. نيتفليكس الأعلى 11/3/2018
إطلع على المرجع من هنا
ـ ريهام عبد العزيز: أنسنة التكنولوجيا، 30/11/2020
إطلع على المرجع من هنا
ـ الذكاء الاصطناعي: تكنولوجيا عملاقة ستعالج مشاكل هائلة وأزمات طويلة.. ولكن ليس من بينها التمييز ضد النساء 8/1/2024
إطلع على المرجع من هنا
ـ نحو مزيد من أصوات النساء: دليل التوازن الجندري، أبريل 2018
إطلع على المرجع من هنا
R_RGB_Web.pdf
ـ الذكاء الاصطناعي: تكنولوجيا عملاقة ستعالج مشاكل هائلة وأزمات طويلة.. ولكن ليس من بينها التمييز ضد النساء 08/01/2024
إطلع على المرجع من هنا
ـ مقابلة مع مؤسسي “نادي المرأة في الذكاء الاصطناعي” 11/2/2023
إطلع على المرجع من هنا
ـ البشر يفضلون التعامل مع الروبوت “الأنثى” في الفنادق 23/2/2022
إطلع على المرجع من هنا
” ـ إطار عمل إدارة مخاطر الذكاء الاصطناعي يناير 2023
إطلع على المرجع من هنا
– Donna Haraway, A Cyber Manifesto,Science, Technology and socialist feminism in the late twentieth century, New-York Routledge 1991
– Sophie Toupin, Intelligence Artificielle Féministe : Une nouvelle ère 15/5/2024
إطلع على المرجع من هنا
– Rise of Artificial Intelligence : Implications to the Fielded Force 4/4/2024
إطلع على المرجع من هنا
– Interview de Zohra Slim autour du rachat de Instadeep par BioNTech Radio Express FM
إطلع على المرجع من هنا
– The Panopticon, https://www.ucl.ac.uk/bentham-project/about-jeremy-bentham/panopticon
[1] ـ الفجوة الرقمية: digital divide مصطلح يُطلق على التراتبية التي يُحدثها تفاوت القدرة بين الأفراد والدول على التحصيل المعرفي الرقمي. ويرى بعضهم أن الذكاء الاصطناعي يُقلص من تلك الفجوة بتمكين الدول النامية من أدوات وتقنيات تيسر عملية التنمية وتساعد على دخول الأسواق العالمية وإن اضطر الأمر إلى القبول بوصاية رقمية من الدول المتقدمة. هشام فرجي: الذكاء الاصطناعي،
إطلع على المرجع من هنا
[2] ـ انطلقت الثورة الصناعية الأولى في القرن 18 باكتشاف الطاقة البخارية واعتماد المحرك البخاري، ثم كان الكهرباء أهم ما ميز الثورة الصناعية الثانية في القرن 19. وفي نهاية منتصف القرن العشرين كانت الثورة الصناعية الثالثة بانتشار أجهزة الكمبيوتر والأتمتة الجزئية.
[3] ـ وكريم بقير هو مؤسس شركة »insta Deep » العالمية المتخصصة في تصميم أنظمة الذكاء الاصطناعي، وكانت بداءتها في تطاوين، وقد تعاقد مع شركات كبرى على غرار biontech
إطلع على المرجع من هنا
[4] ـ متحصلة على شهادة بكالوريا آداب أما تكوينها العلمي فقد كان عصاميا
إطلع على المرجع من هنا
[5] ـ في “بيان الكائن السيبرنيطيقي الصادر عام 1985” طرحت دونا هاراواي هذا المفهوم مؤكدة أنه يُمكن أن يكون نموذجًا جيدًا للمرأة التي تخلصت من المعايير والأدوار الاجتماعية، Donna Haraway, A Cyber Manifesto,Science, Technology and socialist feminism in the late twentieth century, New-York Routledge 1991
[6] ـ “إطار عمل إدارة مخاطر الذكاء الاصطناعي يناير 2023
إطلع على المرجع من هنا
[7] البشر يفضلون التعامل مع الروبوت “الأنثى” في الفنادق 23/2/2022
إطلع على المرجع من هنا
[8] ـ آمال قرامي: العلم ذكر لا يحبه إلا الذكران” ضمن كتاب “النساء والمعرفة والسلطة، تونس، مسكلياني، 2019، ص25.
[9]ـ كانت مساعدة لـ (Charles Babbage (1791 ـ1871) الذي يُعد أبَ الكمبيوت
[10]ـ مقابلة مع مؤسسي “نادي المرأة في الذكاء الاصطناعي” 11/2/2023
إطلع على المرجع من هنا
[11] ـالنساء اللاتي يعملن في الوظائف التقنية الفعلية
– شركة مايكروسوفت: 19%.
– شركة جوجل: 20%
– شركة أبل: 23%.
– شركة فيس بوك: 19%.
– شركة أوبر: 15%.
– شركة تويتر : 17%.
– شركة أمازون: –
– شركة نيتفليكس: 28%
مؤنس حواس: كم تبلغ نسبة توظيف النساء بشركات التكنولوجيا؟… نيتفليكس الأعلى 11/3/2018
إطلع على المرجع من هنا
[13] ـ ولد سنة 1971 هو رجل أعمال كندي، حاصل على الجنسية الأمريكية، وهو مستثمر ومهندس ومخترع ومؤسس شركة سبيس إكس ورئيسها التنفيذي، والمصمم الأول فيها. المؤسس المساعد لمصانع تيسلا موتورز ومديرها التنفيذي والمهندس المنتج فيها. كما شارك بتأسيس شركة التداول النقدي الشهيرة باي بال.
[14]ـ هو نوع من السجون قام بتصميمه الفيلسوف الإنكليزي والمنظر الاجتماعي جيريمي بنثام في عام 1785 للسماح لمراقب واحد بمراقبة جميع السجناء دون معرفة المسجونين بذلك.
إطلع على المرجع من هنا