تعادل المغرب ومالي يثير موجة انتقادات لأداء "أسود الأطلس" وخيارات الركراكي    الركراكي: تعادلنا مع مالي مٌحبط لكنه سيخدمنا في ما تبقى من المنافسة    لاعبو المغرب: تعادل مالي إنذار مبكر وعلينا تصحيح الأخطاء    سنة 2025: دينامية قوية غير مسبوقة للمغرب في مناصب المسؤولية بالمنظمات الدولية    المغرب يكتفي بنقطة أمام مالي.. تعادل بطعم الهزيمة    وزارة الداخلية: 31 دجنبر 2025 آخر أجل للتسجيل في اللوائح الانتخابية    المنتخب المالي يؤجل تأهل أسود الأطلس إلى ثمن النهائي    الطقس يعلق الدراسة بسطات السبت    إدانات باعتراف إسرائيل بأرض الصومال    غوغل تعتزم تغيير سياستها الصارمة بشأن عناوين البريد الإلكتروني جي ميل    تعزيز تخليق العمليات الانتخابية أبرز رهانات انتخابات 2026    كان 2025 : تعادل أنغولا وزيمبابوي بهدف لمثله    قرار رسمي بحظر جمع وتسويق الصدفيات بسواحل تطوان وشفشاون    المضاربة في تذاكر مباريات الكان2025 تقود شخصا للاعتقال بأكادير    تارودانت .. توزيع 11 سيارة إسعاف على عدد من الجماعات    توقعات أحوال الطقس اليوم الجمعة    الانخفاض ينهي تداولات بورصة الدار البيضاء    "كان المغرب".. التشكيلة الرسمية للمنتخب المغربي لمواجهة مالي    إخلاء عشرات المنازل في بلدة هولندية بعد العثور على متفجرات داخل منزل    نشرة إنذارية.. زخات رعدية قوية وتساقطات ثلجية وطقس بارد من الجمعة إلى الأحد بعدد من المناطق    جبهة دعم فلسطين تطالب شركة "ميرسك" بوقف استخدام موانئ المغرب في نقل مواد عسكرية لإسرائيل    ارتفاع حصيلة قتلى المسجد في سوريا    الأمطار تعزز مخزون السدود ومنشآت صغرى تصل إلى الامتلاء الكامل    السعدي يترأس مجلس إدارة دار الصانع    المحامون يطالبون بجمع عام استثنائي لمناقشة مشروع قانون المهنة    1.2% فقط من الأطفال ذوي الإعاقة يلتحقون بالتعليم الأولي.. والقطاع يعاني من ضعف النظافة وهزالة الأجور    الثانية في أسبوع.. العثور على شاب مشنوقًا بحبل بضواحي الحسيمة    التهمة تعاطي الكوكايين.. إطلاق سراح رئيس فنربخشة    البيت الروسي يحتفي بسيروف: ألوان تحكي وحياة تروى    زخات قوية وتساقطات ثلجية بعدد من مناطق المملكة    الحسيمة.. انقطاع مياه الري بسبب سد واد غيس يفاقم معاناة الفلاحين ومربي الماشية    المغرب يواجه مالي وعينه على بطاقة العبور المبكر    بلمو يحيي أمسية شعرية ببهو مسرح محمد الخامس بالرباط يوم الاثنين    قطاع الصحة على صفيح ساخن وتنسيق نقابي يعلن وقفات أسبوعية وإضرابا وطنيا شاملا        لا أخْلِط في الكُرة بين الشَّعْب والعُشْب !    تريليون يوان..حصاد الابتكار الصناعي في الصين    محكمة صفرو تدين مغني الراب "بوز فلو" بالحبس موقوف التنفيذ وغرامة مالية    التواصل ليس تناقل للمعلومات بل بناء للمعنى    «كتابة المحو» عند محمد بنيس ميتافيزيقيا النص وتجربة المحو: من السؤال إلى الشظيّة    الشاعر «محمد عنيبة الحمري»: ظل وقبس    روسيا تبدأ أولى التجارب السريرية للقاح واعد ضد السرطان    السلطة القضائية تنضم إلى البوابة الوطنية للحق في الحصول على المعلومات    على هامش كأس إفريقيا.. معرض ثقافي إفريقي وأجواء احتفالية تجذب الجماهير في تغازوت    تبوريشة مغربية أصيلة    إلى ساكنة الحوز في هذا الصقيع القاسي .. إلى ذلك الربع المنسي المكلوم من مغربنا    الحق في المعلومة حق في القدسية!    أمريكا تستهدف "داعش" في نيجيريا    أسعار الفضة تتجاوز 75 دولاراً للمرة الأولى    روسيا تنمع استيراد جزء من الطماطم المغربية بعد رصد فيروسين نباتيين    وفق دراسة جديدة.. اضطراب الساعة البيولوجية قد يسرّع تطور مرض الزهايمر    جمعية تكافل للاطفال مرضى الصرع والإعاقة تقدم البرنامج التحسيسي الخاص بمرض الصرع    جائزة الملك فيصل بالتعاون مع الرابطة المحمدية للعلماء تنظمان محاضرة علمية بعنوان: "أعلام الفقه المالكي والذاكرة المكانية من خلال علم الأطالس"    كيف يمكنني تسلية طفلي في الإجازة بدون أعباء مالية إضافية؟    رهبة الكون تسحق غرور البشر    بلاغ بحمّى الكلام    فجيج في عيون وثائقها    دراسة: ضوء النهار الطبيعي يساعد في ضبط مستويات الغلوكوز في الدم لدى مرضى السكري    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



الذكاء الاصطناعي يرث ميول البشر العنصرية
نشر في بيان اليوم يوم 26 - 06 - 2020

وقعت أنظمة الذكاء الاصطناعي الخاصة ببرامج الصحافة التي تقدمها مايكروسوفت عبر منصتها الإخبارية في أزمة نشر محتوى إخباري أشعل أزمة عنصرية بين المتابعين.
وكشف تقرير لصحيفة الغارديان البريطانية أن النظام الاصطناعي الخاص بمايكروسوفت نشر خبرا عن أحد أعضاء فريق، ليتل مكس، الغنائي في بريطانيا، وكان الخبر يخص المطربة جيد ثيرلوول، لكن النظام التقني وبشكل خاطئ نشر مع الخبر صورة لأحد أعضاء الفريق الأخريات وهي، لي آن بينيك، وذلك لأن كلاهما من أصحاب البشرة السمراء، وقد عجز النظام التقني عن التفرقة بينهما بشكل صحيح.
وكشف التقرير عن استياء عضو الفريق المنشور عنها الخبر، حيث قالت إن خطأ الصورة مرتبط بمزحة عنصرية تستخدم ضد الفريق بالفعل، بسبب أنهم من أصحاب البشرة السمراء، وقول إنهم يشبهون بعضهم البعض.
وصححت المنصة ذلك الخطأ ولكن بعد أن أثار حالة من الجدل بين المستخدمين ومتابعي الفريق الغنائي البريطاني.
ميول نازية
قامت شركة مايكروسوفت خلال شهر مارس بإصدار "تشاتبوت" يتمتع بخصائص الذكاء الاصطناعي، يدعى "تاي"، وتوصيله بموقع تويتر، إلا أن الأمور سرعان ما اتخّذت منحى كارثيا كان مُتوقّعا منذ البداية. ففي غضون 24 ساعة، أخذ البوت يطلق عبارات غلبت عليها العنصرية والميول النازية. في الواقع، التقط البوت أغلب هذه العبارات إثر دمجه لمختلف الأساليب التي اعتمدها رواد تويتر الذين تفاعلوا معه.
وكانت مايكروسوفت قد أعلنت خلال فترة سابقة عن استبدال 70 من فريقها الصحافي ببرامج ذكاء اصطناعي يمكنها القيام بكافة المهام التي يقوم بها الصحافيون، حتى وقعت هذه الأزمة بعد مرور الأسبوع الأول من تطبيق البرنامج.
وقضية العنصرية في تطبيقات الذكاء الاصطناعي ليست بالأمر الجديد، فقد سبق أن رصد باحثون في معهد ماساتشوستس للتكنولوجيا عام 2018 عنصرية وتحيزا في أنظمة الذكاء، أرجعوها للطريقة التي تجمع من خلالها التقنية البيانات.
ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزا صادما، ثم طوروا نظاما يساعدهم على التأكد من أن أنظمتهم أقل تحيزا.
وقالت كبيرة الباحثين، إيرين تشن، وهي طالبة دكتوراه ساهمت في كتابة الورقة البحثية مع البروفيسور ديفيد سونتاج "إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول إن الطريقة التي تجعل هذه الأنظمة أقل انحيازا، هي ببساطة تصميم خوارزميات أفضل".
واستطردت موضحة "تظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر مع بيانات أفضل".
وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.
ويقول سونتاج "إننا نعتبر هذا بمثابة صندوق أدوات لمساعدة مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة".
ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40 في المئة.
وتقول "تشن" إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائما أفضل.
تحيز بشري
يذكر أن أنظمة الذكاء الاصطناعي المعتمدة في تطبيقات التعرف على الوجوه في فيسبوك وقعت سابقا في أخطاء تسببت في اتهام القائمين عليها بالعنصرية ضد السود.
ومؤخرا تعرّض تطبيق للذكاء الاصطناعي يعمل على توضيح الصور لانتقادات واسعة، بعد أن قام بتحويل صورة للرئيس الأميركي السابق باراك أوباما إلى رجل أبيض.
وتشمل الأمثلة الأخرى النائبة الأميركية ألكسندريا أوكاسيو كورتيز والممثلة لوسي ليو، حيث قام البرنامج أيضا بتحويل وجهيهما لتبدو بشرتهما بيضاء.
ويعتمد البرنامج على أداة للذكاء الاصطناعي طورت في جامعة ديوك، والتي تبحث من خلال الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لوجوه عالية الدقة، لتطابق تلك التي تبدو مشابهة للصور المدخلة عند ضغطها إلى نفس الحجم.
واستخدم فريق جامعة ديوك أداة للتعلم الآلي مع شبكتين عصبيتين، واحدة تطور الوجوه البشرية التي يخلقها الذكاء الاصطناعي وتحاكي تلك التي تم تدريبها عليها، والأخرى تأخذ هذه النتائج وتقرر ما إذا كانت مقنعة بما يكفي لتكون مشابهة للحقيقة.
وتفاخرت جامعة ديوك بأن نظامها قادر على تحويل صورة 16 × 16 بكسل إلى 1024 × 1024 بكسل في بضع ثوان، وهو ما يعادل 64 ضعف الدقة الأصلية، بحسب صحيفة ديلي ميل البريطانية.
وقام مستخدم لتويتر بمشاركة البرنامج، وبعد يوم واحد، اكتشف المستخدمون أن الأداة لم تكن دقيقة عندما يتعلق الأمر بمعالجة الوجوه السمراء.
ويعزى هذا الفشل إلى البيانات المستخدمة لتدريب الذكاء الاصطناعي، فإذا كان هناك نقص في التنوع بالصور التي يتم إدخالها إلى خوارزمية التعلم الآلي، فلن يتمكن البرنامج من العمل بشكل صحيح.
لسوء الحظ، أثبتت أبحاث جديدة أن ثلة من مستخدمي موقع تويتر لا يمثلون وحدهم مصدرا لتعلم مفردات تنم عن العنصرية بالنسبة لأجهزة الذكاء الاصطناعي. ففي الحقيقة، من الممكن أن يتبنّى أي برنامج ذو ذكاء اصطناعي، أثناء تعلّمه للغة البشر، المواقف المنحازة ذاتها التي يتخذها الإنسان.
وفي سياق آخر، أجرى الباحثون تجارب على نظام التعلم الآلي الذي يُستخدم على نطاق واسع والذي يُطلق عليه اسم "غلوف". وعلى خلفية هذه الأبحاث، اكتشف العلماء أن كل سلوك بشري متحيز قاموا باختباره قد تكرس بدوره في صلب النظام الاصطناعي.
من المثير للاهتمام أنه حتّى أجهزة الذكاء الاصطناعي التي تم "تدريبها" على نصوص كان من المفترض أنها محايدة، على غرار تلك التي تظهر في موقع "ويكيبيديا" أو المقالات الإخبارية، جاءت لتعكس التحيّز البشري المشترك.
وفي هذا الصدد، صرّحت الباحثة في علوم الكمبيوتر في جامعة برينستون، أيلين كالسكان، لموقع "لايف ساينس" أنه "كان من المدهش أن نرى جميع النتائج التي تم تضمينها داخل هذه النماذج، ومن المثير للاهتمام أنه حتّى أجهزة الذكاء الاصطناعي التي تم ‘تدريبها' على نصوص كان من المفترض أنها محايدة، على غرار تلك التي تظهر في موقع "ويكيبيديا" أو المقالات الإخبارية، جاءت لتعكس التحيّز البشري المشترك".
في واقع الأمر، يُستخدم "غلوف" كأداة لاستنباط تداعي المعاني في النصوص، التي تعدّ في حالة الذكاء الاصطناعي بمثابة مجموعة نصوص أو ما يعرف "بالذخيرة"، التي يتم تجميعها من الشبكة العنكبوتية العالمية. ومن المثير للاهتمام أن علماء النفس قد اكتشفوا منذ فترة طويلة أن الدماغ البشري يخلق الترابط بين الكلمات على أساس المعاني الكامنة وراءها.
ومن هذا المنطلق، لسائل أن يسأل: هل ينشئ الأشخاص هذه الارتباطات لامتلاكهم تحيّزا اجتماعيا متجذّرا وخارجا عن نطاق إدراكهم؟ أو هل أنهم يتشرّبون الانحياز من اللغة في حد ذاتها، خاصة وأن الكلمات السلبية مقترنة بشكل وثيق بالأقليات العرقية، والمسنين وغيرهم من المجموعات المهمّشة؟
لا توجد طرق سهلة
نجحت أيلين كالسكان برفقة زملائها في تطوير "اختبار الارتباط الضمني" لأجهزة الكمبيوتر، حيث أطلقوا عليه اسم "دبليو.إي.أي. تي"، في إشارة إلى "اختبار ترابط تضمين الكلمات". وقد قام هذا الاختبار بقياس مدى ترابط الكلمات بالاعتماد على ما تقدمه أداة "غلوف" من بيانات، وذلك مثلما ما يقيس "اختبار الارتباط الضمني" مدى ترابط الكلمات داخل الدماغ البشري.
في المقابل، أثارت نتائج أخرى قلق الباحثين بصفة أكبر وذلك حين أظهرت الأداة أسماء الأميركيين من أصل أوروبي على أنها أكثر جاذبية من أسماء الأميركيين من أصل أفريقي. وربطت الأداة بسهولة بالغة بين أسماء الذكور مع كلمات ذات صلة مهنية، فيما ارتبطت أسماء الإناث مع كلمات ذات معنى عائلي.
ومن جانب آخر، نسبت الرياضيات والعلوم للرجال، في حين ارتبطت النساء بالفنون. وعلى صعيد آخر، أشارت الأداة إلى أن الأسماء التي اقترنت بكبار السن كانت غير لطيفة مقارنة بأسماء الشباب.
وفي هذا الإطار، صرّحت أيلين كالسكان قائلة "لقد فوجئنا حقا من قدرتنا على تكرار جميع تجارب ‘اختبار الارتباط الضمني' التي تم القيام بها في الماضي من قبل الملايين من الأشخاص".
وفي السياق ذاته، أوردت أيلين كالسكان أن الحفاظ على الدقة أثناء برمجة أجهزة الذكاء الاصطناعي على فهم مسائل "الإنصاف" يشكل تحديا كبيرا، كما "أننا لا نعتقد أن تغييب جانب الانحياز من شأنه أن يتكفل بحل هذه المشاكل، حيث قد يعطّل التمثيل الدقيق للعالم بسبب ذلك".
وأفادت عالمة الكمبيوتر في كلية هارفارد، سوريل فريدلر، أن الدراسة الجديدة حول تحيّز الذكاء الاصطناعي، التي نشرت في مجلة "ساينس" العلمية، لا تعتبر مفاجئة، غير أن هذا لا ينفي أهميتها.
وبالتالي، فمن المرجح أن يتسلل التحيز إلى أي ذكاء اصطناعي يتعلم من لغة الإنسان بشكل عام. والجدير بالذكر أن سوريل فريدلر، التي تشارك في مجال ناشئ للأبحاث يطلق عليه اسم "الإنصاف والمساءلة والشفافية في التعلم الآلي"، قد بينت أنه لا توجد طرق سهلة لحل هذه المشاكل. في الوقت ذاته، قد يأمر المبرمجون النظام أحيانا بتجاهل صور نمطية محددة بشكل تلقائي.
البرامج التي تنهل من لغة الإنسان تكتسب "تمثيلا دقيقا للغاية عن العالم والثقافة"، حتى وإن كانت تلك الثقافة، على غرار الصور النمطية والأحكام المسبقة، تحمل في طياتها قضايا إشكالية.


انقر هنا لقراءة الخبر من مصدره.