مقالات

الذكاء الاصطناعي متحيزًا ضدّ السود – نوف السعيدي

لطالما راود حلم استخدام التكنولوجيا لردع الجرائم خيال البشر. يمكن لمس ذلك في النتاج الفني الإنساني، كفيلم الخيال العلمي Minority Report (إنتاج عام 2002، إخراج ستيفن سبيلبرغ)، الذي تدور قصته حول وحدةٍ خاصة تابعة للشرطة، تعمل على التنبؤ بالجرائم قبل وقوعها. قدمت ثورة المعلومات وظهور تكنولوجيا البيانات الضخمة، والذكاء الاصطناعي وعودًا بتحقيق هذا الحلم. إلا أن بعض التقارير التي ظهرت مؤخرًا تكشف قصورًا غير متوقع يهدد هذا الحلم.

يأتي الذكاء الاصطناعي مع وعود بأن الآلة إذا ما أدُمجت في عملية صناعة القرار، فإنها ستنتج قرارات أكثر عدالة متجاوزة القصور البشري، وأنماط التفكير التي تؤدي إلى التفرقة والتحيز الذي ابتلي به البشر. لكن المفاجأة كانت أن هذه الخوارزميات ليست أفضل من البشر في شيء.

هناك حجة تقول بأن الآلة، ولأنها تتعلم من البشر (البيانات التي يتغذى عليها النظام، والمتغيرات التي تُؤخذ في الحسبان، وحقيقة أنها مطورة أساسًا على أيدٍ بشرية) فإنها حتما تلتقط هذه الأنماط المعيبة، منتجة نوعًا من الخلل يوازي الخلل البشري.

يناقش هذا المقال: إمكانية تحيز الآلة، مصادر تحيز الآلة، وكيف يمكن تجاوزها، والسؤال الأهم هو: كيف يمكن أن تترجم قيمة مثل الإنصاف إلى لغة رياضية يمكن للآلة اتباعها، لتمنح البشر الثقة في مثل هذا النوع من الخوارزميات؟

المثال الذي ندرسه هنا هو أداة تعرف اختصارًا باسم كامبوس CAMPOS والتي تُستخدم في المحاكم الأمريكية لقياس خطر إطلاق المتهمين، واحتمالية ارتكابهم لجريمة أخرى خلال فترة التسريح المشروط، واحتمالية أن يعودوا إلى قاعة المحكمة في موعد محاكمتهم إذا ما أُطلق سراحهم. يحلل النظام مجموعة من البيانات مصدرها أنظمة الشرطة، واستبانة مكونة من مجموعة أسئلة يخضع لها المتهم. تعالج الآلة هذه البيانات ثم تُقيم المتهم معطية إياه درجة تهديد risk score من 1 إلى 10. 1 يمثل أدنى تهديد، و10 أعلى تهديد.

كيف بدأت المشكلة؟

بدأ الحديث عن تحيز الخوارزميات، عندما نشرت بروباليكا ProPublica في 2016 تقريرًا يُحلل أداء نظام “كامبوس” التي طورتها شركة نورثبوينت NorthPointe. يُعالج النظام مجموعة من البيانات حول التاريخ الإجرامي للفرد ولعائلته، المستوى التعليمي لهؤلاء الأفراد، وما إذا كانت لديهم وظيفة أو لا، وما إذا كانوا منضوين ضمن عصابات، أو على اتصال مباشر بأحد أعضاء العصابات، واستبانات تقيس النزعة العدوانية لدى هؤلاء الأفراد.

كشف التقرير عن مجموعة من المشاكل تحيق بالنظام:

  1. أن دقة النظام بشكل عام منخفضة نسبيًا. دقة النظام تصل حسب تحليل “بروباليكا” إلى 61% و 68% حسب نورثبوينت – الشركة المطورة للنظام. فيما تنحدر في جرائم العنف لـ 20% فقط.
  2. نسبة الخطأ الإيجابي false positive (تصنيف متهم ما على أنه يمثل تهديدًا متدنيًا، لكنه يرتكب جريمة عند إطلاقه) أعلى عند البيض 47.7% مقارنة بالأفارقة الأمريكان 28.0%، بينما نسبة الخطأ السلبي false negative (تصنيف المتهم على أنه يمثل تهديدًا عاليًا، لكنه لا يرتكب جريمة عند إطلاق سراحه) أعلى عند الأفارقة الأمريكيين 44.9% مقارنة بالبيض 23.5%.
البيض الأفارقة الأمريكان
تم تصنيفهم على أنهم يمثلون تهديدًا عاليًا، لكنهم لم يرتكبوا أي جريمة عند إطلاقهم 23.5% 44.9%
تم تصنيفهم على أنهم يمثلون تهديدًا منخفضًا، لكنهم ارتكبوا جريمة عند إطلاقهم 47.7% 28.0%
  1. استخدم النظام خارج نطاق العمل الذي طُور لأجله. هدف النظام بالأساس هو “تعزيز” القرار الذي يُفترض أن يتخذه البشر، ليقرروا إطلاق المتهم من عدمه. لا يهدف النظام – مثلًا – إلى أن يحل محل صانع القرار، ولا يهدف إلى تحديد العقوبة. بينما استخدمه بعض القضاة للحكم على المتهمين، وكانت الأحكام متماشية مع درجة التهديد التي يمثلونها، وفقا للنتائج التي يعرضها النظام.

ما الذي تعنيه هذه المشكلة؟

لا يعنينا هنا موضوع دقة النظام، أو استخدامه خارج نطاق العمل المُزمع، ما يعنينا بشكل خاص، حقيقة أن هذه الأداة منحازة للبيض ضد السود، وهو أمر لطالما عانى منه النظام الأمريكي. ولنكتشف مصدر هذه التفرقة دعونا نمر بكل الإجابات المحتملة لسؤال من أين ينبع هذا التحيز، كيف تصبح الآلة منحازة ضد عرق أو نوع.

ما التحيز؟

نعني بالتحيز في هذا المقال: أي انحراف عن المعيار الإحصائي.

ماذا يعني تعلم الآلة؟

تعتمد الطريقة التقليدية للبرمجة على تزويد النظام قيد التطوير بمجموعة من التعليمات التي تؤدي وظيفة محددة، فكر مثلا بآلة حاسبة بسيطة، تُخزن الحاسبة الرقمين المُدخلين فإذا ما كانت الإشارة بينهما + فإنها تُضيف الرقم الأول إلى الثاني، وتستعرض النتيجة على الشاشة، وإذا كانت الإشارة X فإنها تضرب الرقم الأول في الثاني. لا يمكن لحاسبة كهذه -مثلًا – أن تتعامل مع نوع جديد من العمليات الحسابية لم تُلقَنه الخوارزمية بشكل صريح. بالمقابل يتم تدريب أي نظام ذكاء اصطناعي مبني على تعلم الآلة، باستخدام مجموعة من البيانات. هذا النوع من التعلم يعتمد على الاستدلال واكتشاف الأنماط، مانحًا النظام المقدرة على التعامل مع بيانات جديدة لم يطلع عليها سلفًا. خوارزمية ترشيح البريد الإلكتروني التي يمكنها تصنيف بريد وارد على أنه بريد مزعج spam اعتمادًا على محتواه، رغم أن المُرسِل ومحتوى البريد جديد تمامًا على الخوارزمية.

مصادر تحيز الآلة

في ورقتهم[1] المنشورة عام 2017 يستعرض دانكس ولندون أربعة مصادر محتملة لتحيز الخوارزميات. يشير الكاتبان إلى أن هناك نوع من التحيز المحمود الذي لا يُعدّ وجوده غير إشكالي فقط، بل مرغوبًا أيضًا، مرغوبًا لأنه يحقق الإنصاف أحيانًا. فالأداة التي نحللها في هذا المقال – على سبيل المثال – تعمل بنسختين إحداهما للذكور وأخرى للإناث gender-specific وذلك لإن النساء (إحصائيًا) أقل ميلًا لارتكاب الجرائم، وإذا اخترنا أن نعامل الجنسين بالتساوي، فسيطلق النظام أحكامًا أقسى على النساء. يعتمد هذا بالطبع على التعريف الذي نتخذه للتحيز، فإذا ما كان تعريفنا له على أنه انحراف عن المعيار الإحصائي، فالنظام الذي يفرق بين الذكور والإناث لا يعد منحازًا، إذ أنه لا ينحرف عن المعيار بل أن هذه التفرقة هي الحل الذي يؤدي لمطابقة المعيار.

  1. التحيز الناتج عن البيانات التي يتم تدريب النظام عليها: إذا ما دُرب النظام على بيانات محدودة فمن المحتمل أن يكشف عن نوع من الانحياز. لو دُربت أداة توظيف مثلًا على السير الذاتية للذكور دون الإناث، فمن المحتمل أن تصبح الآلة منحازة ضد الإناث خصوصًا إذا وجدت فوارق جنسانية في تعبير كلا الجنسين عن أنفسهم في سيرهم الذاتية. وتدريب نظام تعرف على الوجوه، على وجوه أوروبية مثلًا، يجعلها محدودة عند التعامل مع الملامح الآسيوية ذات العيون الضيقة. تلافي هذا النوع من التحيز يكون عبر التأكد من اشتمال عينة بيانات التدريب على كل الخيارات المحتملة قدر الإمكان، وعموما فتعلم الآلة يزداد دقة مع تمرسه (كلما اطّلعت الخوارزمية على بيانات أكثر، كلما كان النظام أدق).
  2. التحيز الناتج عن البيانات التي يركز عليها النظام: تظهر هذه المشكلة عند التعامل مع البيانات المحمية بفعل القانون، أو المعلومات المحمية بفعل مواثيق الخصوصية. فكر في نظام تستخدمه المستشفيات، هذا النظام لا يأخذ في الحسبان المعلومات الحساسة كإساءة استخدام الكحول، أو حوادث العنف الأسري، رغم أنها قد تكون مخزنة في قواعد بيانات الشرطة. في هذا النوع من التحيز، فإن الآلة ومطوريها أمام خيارين، تجاهل البيانات المحمية مما يعني الانحراف عن المعيار الإحصائي، أو استخدامها والانحراف عن المعيار القانوني.
  3. التحيز الناتج عن معالجة البيانات: في هذا النوع من التحيز تكون الخوارزمية نفسها متحيزة. فالأسلحة الآلية ذات التحكم الذاتي تطور بحيث تتفادى بعض الأهداف المدنية، المدارس، المستشفيات، أو مواقع التراث العالمي المحمية من قبل اليونسكو.
  4. التحيز الناتج عن استخدام النظام خارج السياق: كأن تتطور نظام قيادة ذاتية للذين يقودون في المسار الأيمن، ومن ثم تحاول تطبيق النظام في البلدان التي يقود فيها الناس في المسار الأيسر من الطريق. هذا النظام الذي “تعود” على أعراف وقواعد بلد معين سيكون منحازًا لهذه القواعد، وسينتهي به المطاف باتخاذ قرارات خاطئة، أو الفشل تمامًا عند تطبيقه في سياقات لم يتدرب عليها.

عودة إلى نظام كومبوس الذي نعالجه في هذا المقال. يمكن القول إن النظام نفسه وإن لم يستخدم العرق كأحد المتغيرات، إلا أن نتائجه تعكس الفروقات الموجودة في العالم الحقيقي بين الأعراق المختلفة. الأفارقة الأمريكان في أمريكا – بطبيعة الحال – ينتمون لطبقات أقل تعليما، فرصها في التوظيف أقل، تسكن في أحياء فقيرة تنشط فيها العصابات. النظام الذي يأخذ هذه العوامل في الاعتبار سيتنبأ – بالتالي – أن فرصهم في ارتكاب الجرائم أعلى. هذا التحيز ضد الملونين إذا هو نتاج الفروقات الاجتماعية الموجودة أصلًا. يمكن تلافي هذا التحيز بتقديم قراءة جديدة لعوامل السلوك الإجرامي (أو السلوك المضاد للمجتمع) واستبعاد العوامل الخارجية، والأخذ في الحسبان العوامل الفردية وحدها، كالسجل الإجرامي للفرد. يمكن لأحدنا الجدال: ولكن انخراط هذا الفرد أساسًا في الإجرام نتاج البيئة التي صادف أنه جزء منها وليس لنزعة إجرامية هي جزء منه. لكن ذلك لا يهمنا في شيء في هذه الحالة، إن هدف النظام هو أن يكون دقيقًا قدر الإمكان في توقعاته. اللامساواة في الفرص في الثروات موجودة في العالم الحقيقي، وبالتالي فمن المعقول أن تلتقط الآلة مثل هذه الأنماط، بل ويمكن القول إن هذا ضروري لإنتاج آلات أكثر دقة وأكثر إنصافًا.

 

 

 


 

[1] Danks & London, Algorithmic, Bias in Autonomous Systems (2017), International Joint Conference on Artificial Intelligence (IJCAI 2017)

المصادر:

Angwin, J. Larson, S.Mattu, L. Kirchner (2016), ProPublica viewed 16 December 2019, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Danks & London, Algorithmic, Bias in Autonomous Systems (2017), International Joint Conference on Artificial Intelligence (IJCAI 2017)

الوسوم

مقالات ذات صلة

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى
إغلاق
إغلاق