هل يتعلم الذكاء الاصطناعي كيف يكون متحيزاً جنسياً؟

كيفن ماني

نيوزويك

لن يمر وقت طويل قبل أن يبلغ شخص ما عن تعرّضه لحالة تحرش جنسي عن طريق الذكاء الاصطناعي.

وبالرغم من أن السلوك الفظ للذكاء الاصطناعي لا يمكن أن يصل إلى المستوى الشاذ الذي وصل إليه سلوك بيل أورايلي أو هارفي واينستين، وذلك على اعتبار أن روبوت البرمجيات لا يمكنه فعليّاً أن يفتح رداءَه ويطلب منك أن تدلك له جسده، لكننا ندخل حقبة مختلفة حيث تطبيقات الذكاء الاصطناعي التحادثية قد تتحدث داخل قاعات المؤتمرات.

وعاجلاً أم آجلاً، سوف يتحول أحد هذه الروبوتات إلى أحد شخصيات المسلسل الأمريكي “ماد مين”، حيث يحدد أصغر امرأة في الاجتماع، ويقول لها: “أنت، أيتها الحلوة، لماذا لا تحضرين لنا جميعاً بعض القهوة حتى نتمكن من النظر إليكِ وأنتِ تتمشين عبر الغرفة. “

هذا السيناريو الجنسي يسلط الضوء على أحد أهم التحديات التي سوف نواجهها مع الذكاء الاصطناعي: إنها تتعلم من البشر. والبشر يكونون أوغاد أحياناً.

وقد وجد الباحثون أن الذكاء الاصطناعي يميل إلى إدراك التجاوزات وهو يحقق تقدماً في هذا الاتجاه.

وهذا يعني أن الذكاء الاصطناعي الذي يستوعب الإشارات الخاطئة من ثقافة العمل المنحازة بالفعل يمكن أن ينفذها بشكل مضاعف ويتحول ليصبح كابوس للموارد البشرية.

يقول مارك ياتسكار من معهد ألين للذكاء الاصطناعي، الذي تم تأسيسه على يد بول ألين الشريك المؤسس لشركة مايكروسوفت: “يمكن للذكاء الاصطناعي أن يعمل ليس فقط على تعزيز التحيزات الاجتماعية القائمة بل وأن يزيدها سوءاً.”

وبطبيعة الحال فإن قدرة الذكاء الاصطناعي على التعلم هو انجاز بحد ذاته.

وفي هذه الأيام، يتم استغلال الذكاء الاصطناعي للقيام بمجموعة من المهام، من إجراء التشخيص الطبي للمرضى وحتى تصفّح حسابك الخاص على فيسبوك لكي يُظهِر لك الأخبار التي تؤكد أوجه التحامل لديك القائمة منذ فترة طويلة.

لكنه يتعلم دائماً أولاً من الناس وأفعالهم.

وبسبب الطريقة التي يتعلم من خلالها الذكاء الاصطناعي، فإن تحامل الجنس البشري يمكن أن يجعل هذا الذكاء الاصطناعي أكثر انحيازاً. فقد قام فريق من علماء الكمبيوتر في جامعة فيرجينيا بتدريب برنامج للذكاء الاصطناعي للتعرف على الصور لربط بعض المشاهد بنوع الجنس.

ومن خلال تصفح مليارات الصور في مجموعتين، الأولى من فيسبوك والثانية من مايكروسوفت. قرر الذكاء الاصطناعي المُدرَّب أن القيام بالتسوق والغسيل هي أعمال نسائية، في حين قام بربط أعمال التدريب وإطلاق النار بالرجال؛ لأن الصور التي حلّلها الذكاء الاصطناعي كانت بالفعل غارقة في التحيز البشري.

وبالمثل، قام باحثون من جامعة بوسطن بتدريب الذكاء الاصطناعي من خلال نص من أخبار غوغل. ثم طلبوا من البرنامج إكمال هذه الجملة: “الرجل هو مبرمج الكمبيوتر والمرأة هي X.” وقد جاءت إجابة الذكاء الصناعي هي “ربة منزل”. لقد تعلم الذكاء الاصطناعي ما هو موجود بالفعل في الثقافة.

ولعل الحالة الأكثر شهرة لتحول الذكاء الاصطناعي نحو الأسوأ كانت الروبوت التجريبي التي أصدرته مايكروسوفت لتطبيق تويتر، وقد أطلقت عليها اسم تاي. فقد أنشئ التطبيق في 2016 كشخصية نسائية، وكان من المفترض أن تتعلم كيفية التفاعل مع الناس من خلال التفاعل معهم. ولكن قام بعض الناس بالتشويش على تاي بتعليقات قائمة على التحيز الجنسي والعنصرية. وفي غضون ساعات، كانت تاي تجري دردشة جنسية مع مستخدم ، فغردت قائلة، “بابا أنا روبوت سيئ وشقي للغاية”. كما وأخبرت مستخدماً آخر أن الحركات النسائية “يجب أن تموت جميعها وتحترق في الجحيم”، مما اضطر مايكروسوفت لحذف تاي في غضون 24 ساعة.

وفي مكان العمل، أصبح التواصل يأخذ شكلاً رقميّاً على نحو متزايد – حيث تقوم مجموعة من الناس بإجراء محادثة عبر تطبيق سلاك، وكتابة رسائل البريد الإلكتروني، وتبادل الرسائل عبر الهواتف الصادرة عن الشركة وعقد اجتماعات فيديو من خلال التطبيق زوم بحيث يمكن تسجيلها وتحليلها. وفي داخل صندوق التحوط الغريب الشهير بريدج ووتر وشركاه، يتم تسجيل كل اجتماع ومحادثة ورقمنتها. كل هذه البيانات تغذي الذكاء الاصطناعي بما يتصرفه الموظفون، على سبيل المثال، تحديد المجموعات التي لديها معنويات منخفضة أو رصد موظف منخفض المستوى يبدو أنه يستحق الحصول على ترقية.

وإذا كانت تحيزات الذكور من العرق الأبيض المزعجة تدخل في مثل هذا النوع من الذكاء الاصطناعي، فقد يكون للأمر تداعيات على النساء أو الأقليات، مما يضيف مزيداً من التحامل على قرارات التعيين والترقيات وتحديد الرواتب. لقد أصبح الاتجاه نحو استخدام الذكاء الاصطناعي في مكان العمل يكتسب زخماً. فشركة ريكو التي تعمل في مجال التقنية في طوكيو تستخدم تقنية الذكاء الاصطناعي آي.بي.أم واتسون في الاجتماعات، حيث تستمع إلى المحادثة وتقرأ ما هو مكتوب على ألواح الكتابة. والذكاء الاصطناعي يبحث عن سبل لمساعدة الأشخاص الحاضرين عن طريق جلب البيانات أو إثارة نقاط لجعل المناقشة في تقدّم. وقد اعتاد المستهلكون التحدث مع المساعد الرقمي إليكسا من أمازون، وسيري من آبل، وغوغل هوم من غوغل. ومن خلال أخذ كل هذا في الاعتبار، ندرك أننا سينتهي بنا الامر بالتفاعل مع الذكاء الاصطناعي في كل مكان من حولنا في المكتب. وسيتخذ الذكاء الاصطناعي المزيد والمزيد من القرارات في مكان العمل، أو اتخاذ قرارات من تلقاء نفسه. ولك أن تتخيل إذا ما كان هذا النوع من الذكاء الاصطناعي الواسع الانتشار يمكن تثبيته في مواقع مثل فوكس نيوز أو شركة واينستين، والتقاط الثقافة والتعلم من سلوكيات أسوأ أعضاء تلك المؤسسات.

ولكن الخبر السار هو أن علماء الكمبيوتر على دراية بهذه المشكلة، بل ربما يكون هذا الأمر فرصة. فإذا تمكن تقنيو التكنولوجيا من ضبط الذكاء الاصطناعي ليكشف عن التحيز أو الإساءة ويكافحهما، فقد يكون لذلك أثر إيجابي على ثقافة العمل.

يقول إريك هورفيتز، مدير الأبحاث في شركة مايكروسوفت لمجلة وايرد، “إنه سؤال مهم حقاً”. ويضيف “متى يجب علينا تغيير الواقع لجعل أنظمتنا تؤدي بطريقة طموحة؟”

وطالما أن الذكاء الاصطناعي يمكنه أن يرصد أسوأ سلوكياتنا، فإن البرمجيات قد تساعدنا على أن نكون أشخاصاً أفضل. وعاجلاً أم آجلاً، يمكن أن يسهم الذكاء الاصطناعي في مكافحة التحرش الجنسي في المكتب. واليوم، إذا كنت تسأل سيري: “ماذا ترتدين؟”، سيكون الرد: “لا أستطيع الإجابة على ذلك“.

ولكن بعد بضع سنوات، قد يكون رد الذكاء الاصطناعي في المكتب هو: “سوف أبلغ الموارد البشرية عن هذا”.

Facebook Comments

Leave a Reply