لندن - صوت الإمارات
أصدر خبير بارز في مجال الذكاء الاصطناعي تحذيرا صارخا ضد استخدام خوارزميات متحيزة جنسيا وعنصرية لاتخاذ قرارات حاسمة.وفي جميع أنحاء العالم، بدأت الخوارزميات في الإشراف على العمليات المختلفة، بما في ذلك طلبات العمل والهجرة وشروط الكفالة وتطبيقات الرعاية الاجتماعية.حتى أن الباحثين العسكريين يستكشفون ما إذا كانت تقنية التعرف على الوجه، يمكن أن تمكّن طائرات الدرون من تحديد أهدافها الخاصة.وفي حديثه مع صحيفة "الغارديان"، قال نويل شاركي، خبير الكمبيوتر في جامعة شفيلد البريطانية، إن هذه الخوارزميات مميزة بالتحيزات ولا يمكن الوثوق بها.ويدعو البروفيسور شاركي إلى إجراء اختبارات قوية قبل استخدام الذكاء الاصطناعي، في الأماكن العامة.
وقال موضحا: "يجب أن تكون هناك سيطرة على جميع الخوارزميات التي تؤثر على حياة الناس، لماذا؟ لأنها لا تعمل وثبت أنها متحيزة في كافة المجالات. وهناك الكثير من التحيزات التي تحدث الآن، من المقابلات الوظيفية إلى الرعاية الاجتماعية وتحديد من يدخل السجن".
وكشفت صحيفة "الغارديان" أن البروفيسور شاركي أجرى مناقشات مع بعض المؤسسات الرائدة في مجال التكنولوجيا ووسائل التواصل الاجتماعي في العالم - بما في ذلك "فيسبوك" و"غوغل" - حول التحيز الذي نراه حاليا في الذكاء الاصطناعي.
وقال شاركي: "إنهم يعلمون أنها مشكلة وعملوا بإنصاف لإيجاد حل خلال السنوات القليلة الماضية، ولكن لم يجدوا أي حل حتى الآن. إلى أن يجدوا هذا الحل، فإن ما أرغب في رؤيته هو اختبار على نطاق واسع على غرار اختبارات المستحضرات الصيدلانية".
ويتطلب ذلك اختبار هذه الأنظمة وصقلها بـ مئات الآلاف أو ملايين الأشخاص، حتى لا تظهر أي انحياز داخلي. وأوضح شاركي أن الخوارزميات يجب أن تخضع للاختبارات الصارمة نفسها، التي يخضع لها أي عقار جديد يُنتج للاستهلاك البشري.
كما أشار شاركي إلى أن اهتمامه بالتحيز الحسابي يتداخل مع عمله السابق في حملته ضد الأسلحة الذاتية، وما يسمى بـ "الروبوتات القاتلة". وقال: "الآن أصبحت الفكرة الجديدة المتمثلة في إمكانية إرسال أسلحة ذاتية التحكم، دون أي سيطرة بشرية مباشرة، وإيجاد هدف فردي عن طريق التعرف على الوجه، أكثر خطورة"
قــــد يهمـــــــــك أيضًــــــــــا:
إنترنت بلا إعلانات على "فايرفوكس" مقابل 5 دولارات شهريًا
"موزيلا" تطلق إصداراً جديداً من "فايرفوكس" على اندرويد
أرسل تعليقك