قرارات الخوارزميات.. بين السرعة في أداء المعاملات وإلغاء القرار البشري

تسرّع الخوارزميات اتخاذ القرار في المؤسسات الحكومية وتجعله أدق، لكنها تفقده الحس الإنساني وتزيد من تعقيد الانحيازات المسبقة.

Share
قرارات الخوارزميات.. بين السرعة في أداء المعاملات وإلغاء القرار البشري
لا آلة تعوّض مسؤولية الدولة | تصميم خاص بالفراتس

أُنشِئ نظام تقييم المستأجرين الآلي، المعروف باسم "سيف رنت" (الإيجار الآمن) سنة 2002 في الولايات المتحدة، لتقييم التاريخ المالي والجنائي للمستأجرين المحتملين قبل الموافقة على تأجيرهم. إلا أن شركة "سيف رينت" اتُهمت بالتمييز ضد المتقدمين ذوي الدخل المحدود من السود واللاتينيين، بعد رفض طلباتهم بلا توضيح كيفية حساب الدرجات أو المعايير المستخدمة، وبلا إفساح المجال لهم للطعن بالقرار.

قاضى أكثر من أربعمئة مستأجر من المتضررين سنة 2022 الشركة المذكورة بموجب قانون الإسكان العادل الصادر سنة 1968 مدعين أن الخوارزمية ركزت على اعتبارات لا علاقة لها بسلوك المستأجرين. وتجاهلت عوامل مهمة مثل استخدام القسائم الحكومية — التي تؤمّنها الحكومة وتضمن دفع جزء من الإيجار للمالك، فيما تتحمّل الأسرة نحو ثلاثين بالمئة من دخلها — وتوصية صاحب العقار الذي سكنه المستأجر سنواتٍ. سُويت الدعوى في نوفمبر 2024، والتزمت الشركة بدفع مليونيْن وثلاثمئة ألف دولار أمريكي للمتضررين والتوقف عن استخدام نظام التقييم أو تقديم أي توصية للمتقدمين الذين يعتمدون على القسائم الحكومية للسكن لمدة خمس سنوات.

عُدت هذه التسوية مؤشراً نادراً على قدرة الضغط القانوني على دفع شركات التقنية إلى إعادة النظر في الخوارزميات التي تؤثر مباشرةً على حياة الناس وحقوقهم. ولكن القضية تعكس ظاهرة متنامية صار فيها الاعتماد على الخوارزميات في اتخاذ القرارات الاجتماعية والإدارية الحاسمة أحياناً سبباً في أزمة في المساءلة والشرعية الحكومية. ففي ذلك إقصاء للتقدير البشري لصالح الحساب الآلي وتهديد مبادئ العدالة الاجتماعية، ناهيك عن تكريس التحيزات الموجودة في البيانات دون إمكانية إخضاعها للمساءلة الأخلاقية أو القانونية التقليدية. ويطرح ذلك تساؤلات عن ضمان الحيادية والنزاهة عندما تُفوِّض الدول سلطتها في اتخاذ القرارات الاجتماعية إلى أنظمة آلية بالكامل قد تدفعها للتخلي عن مسؤوليتها الأخلاقية والقانونية تجاه مواطنيها. وهو ما تجلى من أدلة في الصين والولايات المتحدة بينت أن الاعتماد الكلي على الآلة يشرّع لقرار لا يمكن تبريره أو الطعن فيه، ما يفرغ المساءلة من محتواها. فيما تشير تشريعات الاتحاد الأوروبي الجديدة المتشددة في مسألة التعامل مع الذكاء الاصطناعي، إلى خطورةِ تكليفِ الآلة اتخاذ قرارات تضرُّ بالمصلحة البشرية. 


وفقاً لتدوينة موقع "إحصائيات" المنشورة سنة 2025 بعنوان "كيف يغير الذكاء الاصطناعي طريقة اتخاذ القرار في المؤسسات الحكومية الخليجية"، كانت عملية اتخاذ القرارات داخل مؤسسات الدولة تعتمد على الخبرة البشرية وتقدير المسؤولين، مع الاستناد إلى البيانات التاريخية والتقارير الدورية. هذه المنهجية، على أهميتها، اتسمت بالبطء في معالجة المعلومات، وربما تأثرت بالتحيز الشخصي أو محدودية الخبرة، وعدم دقة القرارات أحياناً.

ومع حلول سنة 2025، بات استخدام الذكاء الاصطناعي يتسع تدريجياً داخل مجالات صنع القرار الحكومي. إذ تحلل الأنظمة الذكية كميات هائلة من البيانات، وتقدّم توصيات أو نتائج جاهزة بالاستناد إلى خوارزميات تتنبأ بأحداث مستقبلية بناءً على بيانات سابقة. مثال على ذلك منصة "استشراف" التي أطلقتها الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) سنة 2019. إذ تربط المنصة بيانات أكثر من مئتي جهة حكومية ببنك البيانات الوطني، وعبرها بدأت عملية صنع القرار تنتقل من الاعتماد على التقدير البشري والتقارير الدورية إلى استخدام خوارزميات تنبؤية. توفر المنصة حالياً رؤى استشرافية لصناع القرار عن النمو السكاني والاحتياجات الصحية وتوقعات الطلب على السكن، مما قد يساعد في توزيع الموارد وتحقيق حياد منهجي يقلل من هوامش الخطأ البشري. 

طبَّقت دولة الإمارات بين سنتي 2019 و2020 التحول الذكي في مجال القضاء، فحولت 95 بالمئة من خدمات وزارة العدل إلى منظومة رقمية. أتاح نظام إدارة القضايا "سي إم إس" تقديم الوثائق وحضور الجلسات إلكترونياً، ما قلص فترات التأخير ورفع كفاءة التقاضي. ووفرت بوابة التشريعات الرقمية وصولاً فورياً لكافة القوانين وأحكام المحكمة العليا السابقة حتى ما صدر منها في سنة 1971. يوضح المستشار منصور المزروعي، رئيس محكمة أبوظبي الجنائية، أن الذكاء الاصطناعي يُستخدم لمتابعة أعمال الدوائر القضائية وإعداد إحصاءات دقيقة للقضايا، وتسريع الإجراءات، إضافة إلى مساعدة القضاة في صياغة مسودات الأحكام إلكترونياً ونقل بيانات أساسية مثل أسماء المتهمين والمواد القانونية. كما تشير خولة القبيسي، مديرة تقنية المعلومات في دائرة القضاء بأبوظبي، إلى أن النظام يحلل البيانات التاريخية عبر خوارزميات التعلم الآلي لتقييم المخاطر ومساعدة القضاة في تحديد العقوبات.

يذكرُ أشرف الدريني، الأستاذ في جامعة فاروس بالإسكندرية، في دراسته "العدالة الجنائية الخوارزمية: دراسة وصفية تحليلية مقارنة" نشِرت سنة 2024، أن الاعتماد الكامل على الحسابات الرياضية في اتخاذ القرار الجنائي يؤدي إلى تراجع دور التقدير الإنساني، الذي كان يشكّل المعيار الأخلاقي والضابط للعدالة. فالقرار البشري، حتى مع احتمال تحيزه، كان قابلاً للمساءلة ويمكن مناقشته أو تعديله لأنه صادر عن كيان قانوني محدد. ويرى أن الأنظمة الخوارزمية تتخذ القرارات استناداً إلى ملايين المدخلات والروابط الإحصائية المعقدة التي يصعب على البشر تتبع منطقها خطوة بخطوة أو فهم كيف توصلت الآلة إلى النتيجة النهائية.

وفي تجربة واقعية تعبر عن غياب هذا التقدير الإنساني لصالح الخوارزمية، نقلت وكالة رويترز في نوفمبر سنة 2019، تفاصيل التحقيق الرسمي الذي بدأته دائرة الخدمات المالية في مدينة نيويورك حول ممارسات بنك "غولدمان ساكس" المزود لبطاقة شركة أبِل الائتمانية. بدأت الأزمة بسلسلة تغريدات لرائد الأعمال التقني ديفيد هاينماير هانسن في نوفمبر نفس العام، كشف فيها أن خوارزمية البطاقة منحته حداً ائتمانياً يعادل عشرين ضعف ما حصلت عليه زوجته، مع أنهما يقدمان إقرارات ضريبية مشتركة، بل إن لزوجته تصنيفاً ائتمانياً أفضل منه.

وتجلى تهميش التقدير الإنساني في ردود الفعل التي أكدها حتى الشريك المؤسس لأبِل، ستيف وزنياك، الذي واجه تجربة مماثلة. فقد اعتمد نظام البطاقة كلياً على روابط إحصائية مبهمة وتجاهل الحقائق المالية الملموسة للأسرة. وعلى تأكيد البنك أن قراراته تعتمد على "الجدارة الائتمانية" لا النوع الاجتماعي، إلا أن الواقعة أثبتت أن الخوارزميات قد تنتج تمييزاً غير قانوني، ما قد يجعل المساءلة البشرية ضرورة لضمان معاملة جميع المستهلكين بالتساوي بعيداً عن الانحيازات الرياضية الخفية.

مع صعود هذا النموذج الجديد بدأت تظهر مجموعة من الوقائع من دول مختلفة، تكشف أن صناعة القرار الاجتماعي بدأت تتحول من داخل مكاتب الموظفين إلى داخل معادلات لا يعلم المستخدم العادي يقيناً كيفية عملها. وعلى تباين السياقات إلا أن القاسمَ المشتركَ بينها الأسئلة الصعبة التي تفرضها، فيما إذا كان التقييم عادلاً أو يميّز ضد فئات بعينها، ومن يملك حق الاعتراض على حكم اتخذه برنامج. تتضح ملامح هذا التحوّل أكثر عند النظر إلى ثلاث تجارب واقعية باتت تُستخدم نماذجَ عالمية في كيفية صناعة القرار عبر الخوارزميات. فقد بدأت الصين منذ 2014 بتحويل الثقة الاجتماعية إلى نقاط رقمية عبر نظام الائتمان الاجتماعي. واختبرت الولايات المتحدة الوجه الأكثر حساسية لهذا التحوّل داخل منظومة العدالة الجنائية، عندما بدأت بتطوير نظام "كومباس" لأول مرة سنة 1998. واختار الاتحاد الأوروبي في مايو 2024 طريقاً مختلفاً بضبط التقنية ومنعها من الانفلات على حساب الحقوق الفردية.


ينقل معهد ميركاتور للدراسات الصينية في تقريره سنة 2021 عن "نظام الائتمان الاجتماعي"، أنه منظومة رقمية ضخمة وموحّدة ترصد سلوك الأفراد وتقيّمهم، وقد أثارت الجدل منذ بداياتها. فحتى سنة 2018، قبل عامين من الموعد الذي حددته الحكومة الصينية لإنجاز الخطة العامة للنظام، شبّه مايك بِنس نائب الرئيس الأمريكي دونالد ترامب في فترته الأولى النظام بأنه "أورويلي". وفي هذا إشارة لعالم رواية "1984" الاضطهادي للكاتب الإنجليزي جورج أورويل والمنشورة سنة 1948. غير أن واقع النظام أكثر تشعباً مما يبدو عليه في وسائل الإعلام الدولية.

يقول تقرير ميركاتور إنّ جذور هذا المشروع تعود إلى التسعينيات عندما حاولت الصين تطوير نظام رقمي لتقييم الجدارة الائتمانية (تقييم قدرة الأفراد على سداد ديونهم) في المناطق التي تفتقر إلى سجلات مالية. ويحدث ذلك خصوصاً في الريف، حيث يفتقر الأفراد والمؤسسات الصغيرة إلى تاريخ مالي مُوَثّق يدعم ملفاتهم عندما يريدون الحصول على قرضٍ مالي مثلاً. لكن ابتداءً من سنة 2011 تغيّرت طبيعة النظام وامتدت أهدافه من المجال المالي إلى محاولة معالجة مشكلات اجتماعية وسياسية، مثل تراجع الثقة العامة بين المواطنين والدولة وغياب الرقابة الفعّالة على الأسواق وتزايد فساد بعض المسؤولين. 

كانت أزمة قطار "ونتشو"، جنوب شرق الصين، في يوليو 2011 المثال الأبرز على أزمة الفساد وغياب الرقابة التي دفعت الصين لتوسيع نظام الائتمان الاجتماعي. فوفقاً للتحقيق الرسمي الصادر عن مجلس الدولة الصيني، أدى الفساد في منح العقود وإهمال معايير السلامة إلى تصادم قطاريْن ووقوع أربعين قتيلاً وأكثر من مئة وسبعين جريحاً، وإدانة أربعة وخمسين مسؤولاً. صدمت هذه الحادثة المجتمعَ الصيني، وجاء قرار الحزب الشيوعي في أكتوبر 2011 بضرورة بناء نظام ائتمان اجتماعي آلي ذكي شامل أداةً لرقابة سلوك المسؤولين وضمان "الأمانة القضائية والإدارية" لمنع تكرار مثل هذه الكوارث. ومع صعود خطاب "الحوكمة القائمة على سيادة القانون" الذي يتبنّاه الرئيس شي جين بينغ منذ 2014، أصبح نظام الائتمان هذا أداة تساعد في ضمان انضباط الأفراد والجهات الاقتصادية والهيئات الحكومية (بما يتجاوز الجدارة المالية)، باعتبار أن الالتزام بالقواعد شرط للاستقرار والازدهار الاقتصادي.

الانتشار السريع للمبادرات المرتبطة بالنظام الرقمي جعل من مفهوم الائتمان الاجتماعي الصيني نفسه غامضاً. فلا يوجد تعريف قانوني واضح يؤطّر حدوده أو وظائفه. ويُستخدم المصطلح للإشارة إلى نطاق واسع من السلوكيات يبدأ من الجدارة الائتمانية المالية ويمتد إلى الالتزام بالقوانين وحتى القيم والسلوكيات الأخلاقية مثل النزاهة والصدق.

يقول جيرمي داوم، الباحث في مدرسة ييل للقانون، في مقالته "أنترستوورثي: سوشيال كيردت إزنت وات يو ثنك إت إز" (غير جدير بالثقة: الائتمان الاجتماعي ليس كما تعتقد) المنشورة سنة 2019، إنّه بالرغم من كون المستوى الوطني للنظام في الصين يركّز على الإنفاذ القانوني، إلا أنّ عشرات المناطق المحلية استغلت غياب نموذج موحد لإنشاء "أنظمة نقاط" إلكترونية تركز على التربية الأخلاقية والنزاهة الشخصية. ويبرز الجانب الأخلاقي هنا في محاولة جعل سلوكيات مثل الصدق والأمانة معاييرَ ائتمانية. وغالباً ما تكون هذه النقاط رمزية وتعتمد على اجتهادات السلطات المحلية في تعريف السلوك القويم. هذا الاتساع سمح للسلطات المحلية أن تستغل شعار "الائتمان الاجتماعي" لفرض سياسات متباينة، وأن تربطها بمبادرات قد لا ترتبط ببعضها بالأساس وإن بدت ضمن الإطار نفسه.

هذا التشتت جعل البنية التنظيمية للنظام – خصوصاً بسبب كثرة التشريعات وتوزعها على منصات حكومية متعددة – تبدو متداخلة وغير منسجمة، الأمر الذي دفع الحكومة المركزية منذ ديسمبر 2020 إلى العمل على توحيد المعايير وتنسيق الإجراءات عن طريق قانون شامل للائتمان الاجتماعي.

مع مرور السنوات أصبح نظام الائتمان الاجتماعي مرناً يتيح توجيه جهوده بسرعة نحو تطبيق القوانين في ظل تغير السياسات، كما ظهر في استجابته للأزمة الصحية في جائحة كورونا سنة 2020. أصبح النظام يشمل مجموعة واسعة من الفئات المستهدفة، بدءاً من الأفراد والشركات والمؤسسات غير الحكومية وصولاً إلى الجهات الحكومية، باستثناء منظمات الحزب الشيوعي. وهذا النظام لا يفرض التزامات جديدة على سلوك الأفراد أو الشركات، بل يركز على متابعة الامتثال للقوانين واللوائح القائمة (بما يتجاوز المجال الاقتصادي)، مع تعزيز واجبات الإبلاغ للجهات الرقابية لتوفير بيانات شاملة للنظام.

وقد سُجّلت حالات أسيء فيها استخدام النظام لمعاقبة أفراد على تصرفات لا ترتبط بالتقييم الائتماني (المالي) التقليدي، بما يعكس توسعاً غير منضبط في قرار الخوارزميات وآثاره الاجتماعية. لجأت مثلاً بعض المدارس الحكومية إلى حرمان طلاب من القبول أو التسكين المدرسي استناداً إلى الوضع الائتماني لذويهم. وتنقل الصحفية تارا فرانسس شان على موقع "بزنس انسايدر" في تقريرها "آ تشاينيز يونيفرستي سسبيندد آ ستودنتز إنرولمنت [. . .]" (جامعة صينية تعلق تسجيل طالب [. . .]) المنشور سنة 2018، أنّ السلطات في مدينة شنتشن جنوبي البلاد علّقت تسجيل الطالب راو تشينغ في جامعة محلية بسبب سوء درجة الائتمان الاجتماعي لوالده، الذي أدرج في القائمة السوداء للمدينين لأنه لم يسدد قرضاً قيمته 29900 دولار.

ولتطبيق العقوبات على المخالفين، تتبع خوارزميات نظام الائتمان الاجتماعي جميع الجهات الفاعلة على مدار الوقت وفي مواقع مختلفة، وتشارك المعلومات بين المؤسسات. يساعد عملية التتبع هذه حقيقة أن الحكومة الصينية اعتمدت منذ 1999 أرقام تعريف موحدة للأفراد والشركات والمنظمات لضمان ربط ملفات الائتمان بالهوية الشخصية أو المؤسسية. وتُجْمَعُ البيانات في أربع فئات رئيسة، المعلومات الأساس والعقوبات الإدارية والتراخيص وأي مخالفات ومعلومات القوائم السوداء إن وجدت. ومع أن النظام لا يعتمد على درجة ائتمانية موحدة، فإن تجميع هذه الملفات الرقمية المرتبطة بالامتثال يعزز من قدرة الدولة على تطبيق القوانين ومراقبة الالتزام بدقة وفعالية أكبر عبر الخوارزميات.

في هذا السياق يذكر موقع الكونغرس الأمريكي في تقريره عن نظام الائتمان الصيني لسنة 2020 أنّ "القوائم السوداء" تُنشأ للشركات والأفراد الذين ينتهكون القوانين بجدية، وتُنشر للعامة لتحقيق هدفين: لفت الانتباه للانتهاكات وخلق أثر رادع. وهذه المعلومات يمكن مشاركتها على المنصات الرسمية الحكومية أيضاً عبر وسائل التواصل المحلية مثل "وي شات" و"سينا ويبو"، كما يوضح مو تشن وجنس كروسكلاغس، الباحثان في جامعة ميونخ، في دراستهما "سوشيال كونترول إن ذا ديجتل ترانسفورميشن أوف سوسايتي" (التحكم الاجتماعي في التغيير الرقمي للمجتمع) المنشورة سنة 2022. ويمكن أن تتراكم المخالفات الصغيرة لتصبح مخالفات كبيرة، وبعض السجلات تُحذف تلقائياً بعد فترة، بينما تتطلب الانتهاكات الخطيرة من المخالف عملية إصلاح للسمعة أو الوضع المالي. في بعض الحالات تتداخل المسؤوليات فيها بين الأفراد والشركات، خصوصاً إذا كان الفرد مسؤولاً قانوناً عن أعمال الشركة. ما يعني أن العقوبات قد تطال الشركة نفسها وممثليها القانونيين والأشخاص المسؤولين مباشرة عن المخالفة.

 في المقابل هناك أيضاً "قوائم حمراء" تُنشأ لمكافأة الالتزام بالسلوكيات القانونية والالتزام بالأنظمة.

وإن طور هذا النظام في السنوات الأخيرة، إلا أنه ظل يعاني من اختلاف المعايير بين المناطق والمؤسسات، ونقص التخزين المركزي في منظومة الخوارزميات، ما يزيد من صعوبة مراقبة البيانات بدقة. 


اختلاف المعايير يعني أن للسلطات المحلية القدرة على تحديد أولوياتها الخاصة ما يؤدي إلى اختلاف تركيز المدن، وإن كانت قريبة جغرافياً من بعضها، على مجالات محددة. فعلى سبيل المثال، ينقل معهد ميركاتور أنّ مدينة نينغبو، جنوب شنغهاي، طورت لوائح بيئية تضمنت معايير إضافية للقوائم السوداء غير موجودة في مدن أخرى. من هذه المعايير قطع مصادر مياه الشرب المركزية أو العقوبات على من يتلقى انتقادات إعلامية دون تصحيح الأوضاع. وقد أشار القانون إلى ضرورة تقييم أي أدلة رقمية عبر مراجعة عنصر بشري لها قبل اتخاذ القرار، وكأن في هذا إقرار بأن الاعتماد الكلي على خوارزميات الذكاء الاصطناعي ليس حلاً شافياً ونهائياً، خاصة في سياق فرض العقوبات الإدارية والرقابة القانونية.

كذلك طورت مدينة سوتشو، غرب شنغهاي، نظاماً محلياً خاصاً للائتمان الاجتماعي يُعرف باسم "أوزمانثَس" (على اسمِ زهرة العبقة)، يمنح النظام المواطنين نقاطاً تستخدم للحصول على مزايا خدمية مثل تسهيل استعارة الكتب من المكتبات العامة. وكلما زاد تقييم المواطن في النظام الآلي أمكنه استعارة أكبر قدر من الكتب. وذلك وفقاً لتشِن سون في مقالتِه "تشاينيز سوشَل كريديت سيستم [. . .]" (نظام الائتمان الاجتماعي في الصين [. . .]) المنشورة في 2020.

وفي مثال آخر سلطت وثيقة مجلس النواب الأمريكي التي كَتبتْها الصحفية سيمينا مسترينو بعنوان "لايف إينسايد تشاينيز سوشال كريديت لابوراتوري"، (الحياة داخل مختبر نظام الائتمان الاجتماعي الصيني) ونشِرت سنة 2018، الضوء على مدينة رونغتشنغ بمقاطعة شاندونغ شرق الصين. تقول الوثيقة إنّ الحكومة المحلية اعتمدتْ نظاماً للنقاط ضمن إطار الائتمان الاجتماعي، يبدأ فيه كل مقيم بألف نقطة، ويُخصم أو يُضاف حسب السلوكيات اليومية مثل المخالفات المرورية أو التطوّع. تُستخدم هذه النقاط لتحديد مستوى الخدمات والمزايا المتاحة له.

هذا التفكك والمرونة في التنفيذ خلق فجوات قانونية وفتح مجالاً لإساءة استخدام السلطة، كما ينقل مركز ستانفورد للاقتصاد والمؤسسات الصينية في تقييمه النظام المعنون "أسسِنغ تشاينز 'ناشونال مودل' سوشيال كرديت سِستم" (تقييم "النموذج الوطني" الصيني في نظام الائتمان الاجتماعي) المنشور سنة 2025. فالموظفون الحكوميون والجيش تراقبهم الأنظمة الآلية بدقة تشمل حتى التصرفات الصغيرة، مثل لعب الورق في العمل أو التعامل السيء مع العملاء. ويُعاقَب المعلمون في المدارس الحكومية على العمل معلمين خصوصيين، ويخسر رؤساء الشركات نقاطاً إذا أفلست شركاتهم. إضافة إلى ذلك، يواجه سكان الريف نسبة أعلى من العقوبات مقارنة بالحضر، بينما تُمنح فرص المكافآت للحضر أكثر من الريف، ما قد يعكس تحيز النظام ضد الفئات المهمشة.

ناهيك عن أن التفاوت والمرونة في التطبيق، يمنح المسؤولين المحليين سلطة واسعة قد تُستخدم تعسفياً،  ويصبح معها من الصعب على الشركات والأفراد توقع كيفية تأثير هذه المبادرات على وضعهم في النظام أو سجلاتهم المحلية.

وفي الوقت الذي تستخدم فيه الصين ائتماناً رقمياً شاملاً لمراقبة سلوك الأفراد والشركات، تعتمد الولايات المتحدة على خوارزميات ذكية في مجالات العدالة الجنائية لتقييم المخاطر، واتخاذ قرارات الإفراج المشروط والحكم على المتهمين. 


يرتكز العمل في الولايات المتحدة على دعم القرارات القضائية باستخدام خوارزميات مثل نظام "كومباس" منذ سنة 1998. وتُستخدم هذه الخوارزميات لتحديد المخاطر والمساعدة في قرارات الإفراج المشروط عن السجناء وتقدير العقوبات، مع تقديم دعم مبني على البيانات لتقليل الأخطاء البشرية.

ومع ذلك تظهر مشكلة التحيز الخوارزمي لتكون إحدى أكبر التحديات. إذ يمكن لهذه الأنظمة أن تتعلم عن غير قصد أنماطاً غير عادلة أو تحيزات موجودة في البيانات التاريخية، ما يؤدي إلى إصدار قرارات غير متكافئة أو أحكام تكرس الفروقات الاجتماعية القائمة، كما ينقل موقع "بروبابليكا" في تقريره "ماشين بايس" (انحياز الآلة) المنشور سنة 2016. أظهر التقرير مثلاً أن نظام كومباس يصنف غالباً المتهمين السود على أنهم أكثر احتمالاً للعودة للجريمة، مقارنة بالمتهمين البيض ذوي الخلفيات الاجتماعية المماثلة. كذلك يصنف المتهمين البيض على أنهم أقل خطورة بناءً على البيانات التاريخية. وبهذا يعزز هذا التحيّز الصورَ النمطية عن السود أنهم أميل إلى الجريمة، فيؤدي إلى عقوبات قانونية قاسية ضدهم ويزيد من الظلم الاجتماعي.

في محاولاتها لمواجهة هذه التحيزات تطبق الولايات المتحدة عدداً من الأساليب، مثل تعديل البيانات القديمة المنحازة ضد فئات اجتماعية معينة. ومع ذلك يظل التحدي قائماً بين تحقيق العدالة والحفاظ على دقة التنبؤ. فتعديل الخوارزمية لضمان المساواة قد يقلل بالتوازي من دقة التوقعات العملية، كما ينقل تقرير بروبابليكا. وفيما قد لا تستخدم بعض الخصائص الحساسة، مثل العرق أو الجنس أو الوضع الاجتماعي الاقتصادي مباشرةً في النماذج، إلا أنها قد تُستبدل ببدائل غير مباشرة مثل مستوى التعليم وطبيعة الوظيفة وموقع السكن التي تخلق تحيزات أيضاً. ففي تحليل بروبابليكا للنظام في محاكم مقاطعة بروارد في ولاية فلوريدا، تبين أن احتمالية وضع تصنيف "عالي الخطورة" خطأً بحق المُدعى عليهم السود، ممن لم يعيدوا ارتكاب الجريمة، تقارب ضعف المدعى عليهم البيض، حتى وإن استخدمت بيانات لا تحدد صراحةً مثلاً للعرق أو الجنس.

هذه "التحيزات الخوارزمية" وجدت صداها في دراسات عدة دعت لإعادة التقييم. واحدة من الدراسات بعنوان "بايس ديتكشن آند ميتيغيشن إن كريمينال جستِس" (تحديد الانحياز والتخفيف منه في العدالة الجنائية) نشرت سنة 2025 لبرافاليكا كوندابالي، من جامعة لوفلي بروفيشنال الهندية، وباحثين آخرين، دعت لإنشاء إطار عمل قوي لتقييم العدالة والشفافية والتأثير الاجتماعي للخوارزميات. وتؤكد الدراسة على ضرورة إشراك الخبراء والمجتمع المدني والمجموعات المتأثرة لضمان تقييم شامل وشفاف. يُبرز الباحثون كذلك أهمية تطوير مقاييس للعدالة مثل تساوي نتائج التقييم والخطأ فيه بين الفئات الاجتماعية، بالإضافة إلى ضرورة أن تكون درجة تأثير النظام متساوية على الجميع، وذلك لتحديد الانحيازات ومعالجتها. 

بالتالي يشكل ضمان العدالة والشفافية والمساءلة تحدياً للباحثين وصانعي السياسات والقضاة والمجتمع المدني، لضمان أن تساهم هذه الأنظمة الرقمية في تعزيز العدالة بدلاً من تعميق الفروقات الاجتماعية. وهنا تشير رالوكا تشرانتوني، الزميلة في منحة كارنيغي، في مقالتها "غوفرنينغ ميلتري إي آيْ أميد جيوبوليتكال ماينفيلد" (حوكمة الذكاء الاصطناعي العسكري في حقل ألغام جيوسياسي) المنشورة سنة 2024، إلى أنّ غياب إطار حوكمة عالمي شامل الذكاء الاصطناعي العسكري يشكل فجوة تنظيمية خطيرة. برأيها ترك هذه التقنية القوية بلا رقابة يمتد  ليشمل السلام والأمن الدوليين ويحفز سباق التسلح ويطرح تحديات على القانون الدولي، لاسيما وأن الكثير من أنظمة الذكاء الاصطناعي المصممة لأغراض مدنية باتت تُستخدم تطبيقات عسكرية. فقد استعانت وزارة الدفاع الأمريكية مثلاً منذ 2017 بخوارزميات ذكاء اصطناعي "غوغل إي آيْ"، التي طوّرتها شركة غوغل لأغراض مدنية تُستخدم لتحسين خدمات التعرف على الصور، لتحليل لقطات الفيديو من الطائرات المسيّرة، بهدف التعرّف التلقائي على الأهداف في العراق. 

هذه المخاطر هي ما دفع الاتحاد الأوروبي لمحاولة التعامل مع أصل المشكلة بسن قانون شامل يسمى "إي آي آكت" ينظم استخدام الذكاء الاصطناعي لحماية السلامة والصحة وحقوق الإنسان.


اعتُمِدَ قانون "إي آي آكت" في 2024، ودخل حيز التنفيذ على مراحل في منتصف 2025، فيما كان الاتحاد الأوروبي قد حظر بعض الأنظمة عالية المخاطر منذ فبراير ذلك العام.

يصنف القانون أنظمة الذكاء الاصطناعي وفق مستويات المخاطر. تشمل هذه المستويات أولاً الأنظمة المحظورة التي تمثل مخاطر غير مقبولة على المجتمع والأفراد ويُمنع استخدامها أو طرحها في السوق. هذا المستوى يحظر الأنظمة المستخدمة لإحداث تغيرات في سلوك الأفراد دون إرادتهم، والأنظمة التي تستهدف سمات شخصية حساسة مثل العرق من بيانات جسدية أو أنظمة تقييم مخاطر ارتكاب الجرائم الشبيهة بنظام كومباس الأمريكي.

في المستوى التالي تأتي الأنظمة عالية المخاطر التي يجب أن يمتثل استخدامها لمتطلبات محددة لتقليل المخاطر قبل استخدامها، مثل خوارزميات التوظيف التي تفرز آلاف السير الذاتية لاختيار مرشحين للوظائف، أو أنظمة البنوك التي تقرر آلياً مَن يستحق القرض ومن يُرفض. يفرض القانون في هذه الحالة وجود بشرٍ يراجعون القرار لضمان عدم وجود تمييز. 

في المستوى الثالث تأتي النماذج العامة للذكاء الاصطناعي القادرة على أداء مهام متعددة وتخضع لمتطلبات محددة اعتباراً من أغسطس 2025. ينطبق هذا على المحركات الكبيرة التي تُبنى عليها التطبيقات مثل "تشات جي بي تي" في نسخته الأساس أو نماذج "جيميناي". هذه النماذج يعاملها القانون على أنّها مصادر تقنية خام يجب على الشركات المطورة الكشف عن كيفية تدريبها وحماية حقوق الملكية الفكرية. 

يأتي في المستوى الأخير الذكاء الاصطناعي التوليدي والدردشة الآلية التي تخضع لمتطلبات شفافية حسب مستوى المخاطر. تقع في هذه القائمة "تشات بوت" أو المساعد الآلي في مواقع التسوق، مثل أمازون. القانون هنا بسيط، فقط يجب على الموقع أن يضع رسالة تقول "أنت تتحدث الآن مع مساعد آلي وليس موظفاً حقيقياً" حتى لا ينخدع المستخدم.

يعرّف القانون الذكاء الاصطناعي نظاماً قادراً على العمل بمستويات مختلفة من الاستقلالية وتعديل سلوكه، واستخلاص المخرجات من البيانات، سواء في مرحلة التطوير أو الاستخدام. وتشمل هذه الأنظمة التعلم الآلي والتحليل الآلي المعمّق، مثل خوارزميات التشخيص الطبي الرقمي التي تُحلل صور الأشعة لاستنتاج وجود أنماط مرضية دقيقة، أو أنظمة التنقيب عن البيانات المستخدمة في التنبؤ بالأسواق المالية. أيضاً يضاف للتعريف الأنظمة القائمة على المعرفة والمنطق مثل أنظمة إدارة حركة القطارات أو تخصيص الموارد بالمستشفيات، فهي تعمل وفق منهجية منطق القيود. فبدلاً من اتباع أوامر جامدة، يحلل النظام المتغيرات المتداخلة مثل الوقت والموارد المتاحة، ويحلُّ التعارضات المنطقية بينها لاستنتاج جدول تشغيلي مثالي. 

لا يشمل القانون الأنظمة التي تعمل بتدخل بشري كامل، أو وفق قواعد محددة مسبقاً بلا استقلالية. وهذا يضمُّ برمجيات معالجة النصوص والتصميم التقليدية مثل "مايكروسوفت وورد" أو أدوات التصميم الهندسي التقليدية. وهكذا تصبح هذه الأنظمة "خارج نطاق القانون". فالنظام هنا لا يتخذ أي قرار مستقل، بل يقتصر دوره على الاستجابة اللحظية للأوامر البشرية مثل كتابة حرف أو رسم خط، ما يجعل المخرج النهائي نتاجاً لإرادة المستخدم دون أي معالجة ذاتية من البرنامج. 

يضع القانون الأوروبي معايير لضبط استخدام الذكاء الاصطناعي المدني، وهو ما قد يُستثمر نظرياً في تطوير أطر حوكمة دولية تشمل الذكاء الاصطناعي العسكري الذي يتسم بتعقيد كبير بسبب الحاجة إلى موازنة الابتكار التقني مع الأمن الدولي وحماية حقوق الإنسان. هناك وجهات نظر مختلفة، بين متفائل ومتشكك وما بينهما، حول قدرة الاتحاد الأوروبي على التأثير في وضع معايير أخلاقية وتنظيمية وتنسيق جهود تترجم على أرض الواقع.

من جهة أصدرتْ الخدمة البحثية للبرلمان الأوروبي تقريراً للباحث سبستيان كلاب بعنوان "ديفينيس آند ارتيفيشيال انتليجينس"، (الدفاع والذكاء الاصطناعي) لسنة 2025، يرى فيه أن الاتحاد الأوروبي يمتلك إمكانات قيادية تمكنه من استثمار خبرته في تنظيم الذكاء الاصطناعي المدني، أساساً لتطوير أطر أخلاقية وقواعد إشرافية دولية على الأنظمة العسكرية. وهو ما يضمن بقاء قرارات الأسلحة الذاتية تحت إشراف بشري ويعزز مبادئ الضرورة والتناسب. 

من جهة أخرى يتشكك تقرير للصحفي جويس لي صدر عن رويترز بعنوان "سيكستي كانتريز إندورس 'بلو برينت' فور إي آي يوز إن ميليتري [. . .]" (ستون دولة تؤيد خريطة طريق لاستخدام الذكاء الاصطناعي العسكري [. . .]) منشور سنة 2024، بقدرة الاتحاد الأوروبي على إحداث فرق ملموس. ينتقد التقرير حقيقة أن التشريعات الأوروبية الحالية لا تشمل الاستخدام العسكري للذكاء الاصطناعي. ويضيف أن اختلاف الأولويات الاستراتيجية بين الدول الكبرى، مثل الولايات المتحدة والصين، يحدّ من قدرة الاتحاد على فرض معايير ملزمة دولياً.

تشير وجهة النظر الوسطى إلى أن المبادرات متعددة الأطراف، مثل الحوارات التي تنظّمها الأمم المتحدة عن الذكاء الاصطناعي العسكري التي صدر تقريرها في سنة 2025 بعنوان "ميليتري إي آيْ بيس آند سيكيورتي ديالوغز" (حوارات أمن وسلامة الذكاء الاصطناعي العسكري)، توفر منصات دبلوماسية تسمح للاتحاد الأوروبي بالمساهمة تدريجياً في بناء توافق دولي وإرساء معايير أخلاقية. قد يتيح ذلك الجمع بين الطموح التنظيمي الأوروبي وضرورة التوافق الدولي في مجال يتسم بالتنافس التقني والاستراتيجي.


يستمر النقاش عن طبيعة القرار الخوارزمي في المؤسسات الحكومية أحدَ أبرز تحولات إدارة السلطة العامة في العصر الرقمي. ترى مثلاً منظمة التعاون الاقتصادي والتنمية في تقريرها عن الحوكمة بالذكاء الاصطناعي الصادر سنة 2025، أن الخوارزميات يمكن أن تعزّز كفاءة القرار العام بتحسين التنبؤ بالأحداث وتقليل التحيزات البشرية، مع إبقاء التدخل البشري في المواقع الحرجة من اتخاذ القرار، ما يعزّز المساءلة والشفافية في العمل الحكومي. في المقابل يذكر البيان المشترك الصادر عن لجنة التجارة الفيدرالية الأمريكية مع جهات حكومية أميركية أخرى عن جهود التنفيذ ضد التمييز والانحياز في الأنظمة الآلية نشِر سنة 2023، على أن الأنظمة الخوارزمية والاستخدامات القائمة على الذكاء الاصطناعي قد تعيد إنتاج التحيزات التاريخية. فيما شدد البيان على ضرورة توظيف الأطر القانونية القائمة لضمان العدالة في استخدام هذه الأنظمة في قرارات تؤثر على الحقوق والحياة اليومية للمواطنين. 

وبين هاتين المقاربتين أبرز برنامج الأمم المتحدة الإنمائي في تقريره "يو إن دي بيز ديجيتال ستراتيجي"، (إستراتيجية الأمم المتحدة الإنمائية الرقمية) لسنة 2025، أهمية الحوكمة الشاملة والمسؤولة للذكاء الاصطناعي في القطاع العام. وقد شدد على دعم الدول في بناء نظم ذكاء اصطناعي شاملة تراعي الشفافية والمساءلة، وتعمل على إشراك البشر في مراكز اتخاذ القرار الحرجة حيث تُستغل الفوائد التقنية مع احترام الحقوق والمبادئ الأخلاقية.

وبين وجهات النظر المتباينة يبقى الثابت، على الأقل آنياً، أنه لا يمكن للآلة أن تحل محل المسؤولية السيادية والأخلاقية للدولة تجاه مواطنيها، خصوصاً في مجالات مثل العدالة والحقوق الاجتماعية. والاعتماد الكامل على القرارات الآلية قد يؤدي إلى فقدان البعد الإنساني والتعاطف، ويعيد إنتاج انحيازات قائمة في صورة تقنية يصعب كشفها. ومن هنا تبرز ضرورة البحث عن التوازن بين القرار البشري والقرار الآلي والنظر للمستقبل من هذا المنظار.

اشترك في نشرتنا البريدية