تحيز الذكاء الاصطناعي: كيف يؤثر على العدالة الاجتماعية وقرارات التقييم؟
كيف يمكن للذكاء الاصطناعي أن يكون غير عادل؟ فهم التحيز وتأثيراته على القرارات المجتمعية
يستعرض تقرير صادر عن مجلة The Conversation احتمالات تأثير تحيز الذكاء الاصطناعي على حياتنا اليومية، ويوضح كيف يتم اعتماد القرارات التي يتخذها من قبل الشركات والمؤسسات بهدف تعزيز الكفاءة، قي قبول الطلاب في الجامعات مثلا، وفي التوظيف، وتلقي العلاج الطبي، وتوزيع المساعدات الحكومية.
لكن مع توسع دور الذكاء الاصطناعي واستخدامته تزداد احتمالية حدوث قرارات غير عادلة، أو على الأقل، قد ينظر البعض إليها بهذه الطريقة.
تحيز الذكاء الاصطناعي
وحول هذه الإشكاليات نشرت مجلة The Conversation نتائج دراستها بالتعاون مع فريق دولي من الباحثين، حول توزيع الموارد غير العادل، سواء من خلال الذكاء الاصطناعي أو من قبل إنسان، وتشير لبعض الجهود الحكومية على مستوى العالم في التدخل لحماية المواطنين من تحيز الذكاء الاصطناعي.
وتذكر بشكل خاص إصدار وثيقة حقوق الذكاء الاصطناعي من البيت الأبيض وقانون الذكاء الاصطناعي في البرلمان الأوروبي، وهو ما يعكس القلق المشترك من شعور الناس بالظلم من قرارات الذكاء الاصطناعي.
فكيف يؤثر التعرض للظلم من نظام ذكاء اصطناعي على كيفية تعامل الناس مع بعضهم البعض لاحقاً؟
تُستخدم أنظمة الذكاء الاصطناعي لتحديد الأولويات وتوجيه الموارد مجالات مثل التعليم والتوظيف والرعاية الصحية، وهو ما قد يؤدي هذه أحيانًا إلى تفضيل مجموعات معينة من الأفراد بسبب تحيزات مدمجة في بياناتها، تاركةً أفراداً آخرين يتأثرون سلبًا بقراراتها، وهو بدوره يولد شعوراً بالظلم لدى المتضررين، خصوصاً عندما تستخدمها الحكومات لتوزيع المساعدات، مما قد يزيد من التفاوت الاجتماعي ويجعل البعض يحصل على موارد أقل من المستحق.
“فن اللامبالاة” في الذكاء الاصطناعي
أجرى فريق دولي من الباحثين سلسلة من التجارب لدراسة تأثير المعاملة غير العادلة، سواء كانت من قبل الذكاء الاصطناعي أو البشر، على استعداد الأفراد للتصدي للظلم. وتبين أن الأشخاص الذين عوملوا بشكل غير عادل من قِبل الذكاء الاصطناعي كانوا أقل ميلًا لمعاقبة أو التصدي للتجاوزات الأخلاقية من جانب الآخرين لاحقًا، مقارنةً بأولئك الذين عوملوا بشكل غير عادل من قبل البشر.
وأطلق الباحثون على هذه الظاهرة اسم “اللامبالاة الناتجة عن الذكاء الاصطناعي”، حيث يبدو أن التعرض للظلم من قبل نظام ذكاء اصطناعي يضعف إحساس الناس بالمسؤولية تجاه الآخرين.
لماذا يشعر الناس بلامبالاة تجاه ظلم الذكاء الاصطناعي؟
يفسر الباحثون هذا السلوك بأن الناس يميلون إلى إلقاء اللوم بشكل أقل على الذكاء الاصطناعي عند التعرض للمعاملة غير العادلة، وبالتالي يشعرون بعدم الحاجة للتصرف. وللتحقق من هذا التأثير، كرر الباحثون التجارب بعد ظهور نماذج متقدمة مثل “ChatGPT” في عام 2022، ووجدوا نفس النتائج، مما يشير إلى أن سلوك اللامبالاة هذا لا يتعلق بمدى فهم الأفراد للذكاء الاصطناعي، بل بالمصدر غير البشري للظلم.
تأثيرات اجتماعية عميقة
تشير نتائج هذه الدراسة إلى أن تحيز الذكاء الاصطناعي وقراراته غير العادلة قد تترك تأثيرات تتجاوز الأفراد المتضررين، حيث تؤدي إلى تراجع الحس المجتمعي بمكافحة الظلم. وعندما تتصرف أنظمة الذكاء الاصطناعي بشكل غير عادل، فإن ذلك قد يؤدي إلى حالة من اللامبالاة تجاه تجاوزات أخلاقية أخرى يرتكبها البشر، مما يعزز فكرة أن الظلم يمكن أن يمر دون مساءلة أو رد فعل.
توصيات
يوصي الباحثون بناءً على هذه النتائج بضرورة أن يولي مطورو الذكاء الاصطناعي اهتمامًا كبيرًا للحد من التحيزات في بيانات التدريب المستخدمة لتطوير هذه الأنظمة، والحرص على جعلها أكثر شفافية وإنصافًا. كما يتعين على صناع القرار وضع معايير تلزم الشركات بتوضيح الحالات التي قد يحصل فيها تحيز الذكاء الاصطناعي واتخاذ قرارات غير عادلة، وهو ما سيساعد المستخدمين على فهم محدودية هذه الأنظمة، وكيفية التفاعل معها أو الاعتراض على القرارات غير العادلة.
تعزيز العدالة
في النهاية، يعتبر الشعور بالغضب من الظلم وتحميل المسؤولين عنه جزءاً أساسياً من تعزيز القيم الأخلاقية في المجتمع. ومن خلال التعامل مع الآثار الاجتماعية غير المقصودة للذكاء الاصطناعي، يمكن للقادة والمطورين المساهمة في جعل التكنولوجيا أداة لتعزيز العدالة والمسؤولية الاجتماعية بدلاً من تقويضها بحسب المجلة.
المصدر: The Conversation