هل يمكن للذكاء الاصطناعي أن يكون أعدل من البشر؟

نشر في 30-06-2025
آخر تحديث 29-06-2025 | 20:44
 محمد الجارالله

على ضوء المشاركة الفاعلة لوفد وزارة الداخلية في مؤتمر البصمة الوراثية، وفي سياق الحوار الذي دار مع الفريق المتقاعد د. فهد الدوسري حول دراسة منشورة في مجلة Journal of Psychology and AI، وشارك فيها باحثون من جامعة توركو الفنلندية، وجامعة نيويورك في شنغهاي، وجامعة ريدينغ البريطانية، تطرح الدراسة سؤالاً وجودياً:

هل يمكن أن تفكر الآلة بعدل أكثر من الإنسان؟

هل يمكن للذكاء الاصطناعي أن يصبح شاهداً موضوعياً على الحقيقة؟

هل يمكن أن يكون شريكاً في البحث عن العدالة في عالمٍ قد تزلّ فيه أحكام البشر أمام عواطفهم أو ضغوط الواقع؟

حين يُسند العقل إلى الآلة!

اختبر الباحثون ثلاثة أنواع من نماذج الذكاء الاصطناعي، أبرزها نموذج تم تدريبه على خبرات جنائية وقانونية دقيقة، ليقارنوا أداءه في تحليل الأدلة الجنائية المعقدة بأداء النماذج العامة التي تعتمد فقط على اللغة والمعرفة الموسوعية. وقد تم ذلك ضمن تجربة مستوحاة من دراسة سابقة تناولت تصورات المحلفين الوهميين.

النتائج لم تكن تقنية فقط، بل كاشفة أخلاقياً

النموذج المتخصص أبدى ميلاً أكبر إلى التريث والتفكّر، لا يصدر حكماً بالإدانة إلا إذا كان الدليل قاطعاً، ولا ينجرف مع الاستنتاجات العاطفية أو المسبقة. وعند مراجعة الأدلة، خفّض هذا النموذج من ثقته بالاتهام، متمسكاً بمعيار «الشك المعقول»، وكأنه قد تصرّف بقدرٍ عالٍ من الإنصاف، بلا ضمير ولا عاطفة – كما لو أنه تعلّم فضيلة الحذر من شدة تعرّفه على الخطأ البشري.

حيادية لا تعرف الضغط

القيمة الكبرى التي كشفت عنها هذه الدراسة تكمن في أن الآلة، حين تُبرمج على أسس علمية وقانونية راسخة، قد تُظهر حيادية لا يقدر عليها حتى الإنسان في لحظات القلق أو التسرّع أو التأثر برأي الأغلبية.

فالذكاء الاصطناعي لا يعرف الخوف من الإعلام، ولا يتردد تحت ضغط قاعة المحكمة، ولا يتأثر بمكانة المتهم أو جنسه أو خلفيته. إنه، ببساطة، مبرمج للبحث عن الاتساق المنطقي، لا الانطباع النفسي.

في تعليقٍ له، وصف الباحث بيكا سانتيلا هذه النتائج بأنها أداة واعدة لتقليل الأخطاء القضائية الناتجة عن الطبيعة البشرية، بينما أشار توماس نايمان إلى أن هذه التقنية قد تساهم فعلياً في تقليص الإدانة الظالمة، لاسيما في البيئات القانونية التي تعاني من تباين في جودة التحقيقات.

فكر جديد في فضاء العدالة

ما تقدّمه هذه الدراسة ليس مجرد تكنولوجيا مساعدة، بل رؤية فكرية جديدة:

العدالة يجب ألا تبقى حكراً على الفطرة البشرية، بل قد تستفيد من أدوات غير بشرية، لا تحكمها الأهواء، بل ترشدنا إلى فهم الأدلة كما هي، لا كما نشتهي أن تكون.

الدراسة تفتح آفاقاً أبعد من القضاء ذاته. تخيّل أن يتم استخدام هذه النماذج الذكية في تدريب المحققين أو القضاة أو المحامين الجدد، أو حتى في ورش العمل الأكاديمية لتعليم التفكير النقدي. لا لمجرد تلقين الجواب الصحيح، بل لتحديّ ما نظنه صحيحاً.

هل يستطيع الذكاء الاصطناعي أن يعلّمنا أن نشُكك؟ أن نراجع قراراتنا قبل أن نصُدرها؟ أن نفرّق بين ما هو ثابت في البرهان، وما هو نابع من تصورات مسبقة؟

بين الإنسان والآلة: شراكة لا منافسة

لن يحل الذكاء الاصطناعي محل القاضي، ولا المحامي، ولا حتى المحلف. لكنه قد يصبح الرفيق الصامت الذي يعيد التوازن إلى غرفةٍ تزدحم بالأصوات والانفعالات.

ربما سيكون أشبه بالبوصلة الأخلاقية التي لا تتكلم، لكنها ترشد.

العدالة ليست سباقاً إلى الحكم، بل بحث دقيق عن الحقيقة، ولو طالت الرحلة.

الاستفادة الممكنة في الكويت

في ضوء التحديات التي تواجهها النظم القضائية في أنحاء العالم، خصوصاً فيما يتعلق بتباين جودة التحقيقات، وضغط الرأي العام، وتأثير الانطباعات الاجتماعية في إصدار الأحكام، فإن إدخال نماذج الذكاء الاصطناعي المدربة على أسس قانونية وعلمية يمكن أن يحدث نقلة نوعية.

وقد بدأت بالفعل تجارب متقدمة في هذا المجال، حيث عقدت محاكم دبي جلسة حوار استراتيجية مع خبراء دوليين من المركز الوطني لإدارة المحاكم (NCSC) في الولايات المتحدة الأميركية، لبحث سبل توظيف الذكاء الاصطناعي والتقنيات الرقمية في تطوير منظومة العدالة. كما استعرض اللقاء، الذي تم بالتعاون مع شركة «سيبا بارتنرز»، قصص نجاح تطبيق الذكاء الاصطناعي في المحاكم الأميركية وتجربة دبي الرائدة في الرقمنة. وقد ناقش المشاركون، برئاسة القاضي عمر ميزران نائب مدير محاكم دبي، الأبعاد الأخلاقية والقانونية لاستخدام هذه التقنيات، مثل حماية الخصوصية وتدريب الكوادر القضائية. وتستهدف هذه المبادرة استكشاف شراكات استراتيجية مستقبلية لترسيخ مكانة دبي كمدينة عالمية رائدة في مجال العدالة الرقمية المتكاملة والمبتكرة.

وبالتالي، يمكن استثمار هذه التقنية في تحليل الأدلة الجنائية المعقدة في القضايا الحساسة، وتقديم رأي استشاري محايد للنيابة أو القضاة. والتدريب القضائي والأكاديمي، من خلال إدماج أدوات الذكاء الاصطناعي في برامج المعهد القضائي أو كلية الحقوق. كذلك في مراجعة الأحكام السابقة في قضايا يُشك في عدالتها، كأداة مراجعة داخلية لا تستبدل القضاء ولكن تعزز الرقابة، ودعم لجان التحقيق في الوزارات وهيئات النزاهة، بما يوفر تحليلاً غير منحاز للمعطيات.

بهذه الخطوات، يمكن للكويت أن تكون سباقة في استخدام الذكاء الاصطناعي لترسيخ مبدأ الحياد، والعدالة، وكفاءة القضاء، دون المساس بسيادة القاضي أو استقلال القضاء.

خاتمة: الحذرُ نعمة ولو أتى من آلة

في النهاية، تعود بنا هذه الدراسة إلى نقطة محورية في فهمنا للعدالة:

هل يكفي أن تكون النية سليمة؟ أم أن العدل الحقيقي يحتاج إلى أدوات صارمة تراقب تفكيرنا نفسه؟

إن الذكاء الاصطناعي لا يملك مشاعر، ولا يعرف الرحمة، لكنه يستطيع أن ينُبهنا حين يختلط الانفعال بالبرهان، ويذكّرنا أن الشك ليس ضعفاً، بل أمان.

وربما يكون هذا هو الدرس الأهم: حين يُسلّح العقل البشري بالأدوات الصحيحة، ويراجع ذاته بلا غرور، يصبح أقرب إلى الحقيقة، وأقل ميلاً للظلم، وأكثر قدرة على أن يكون... عادلاً بحق.

*وزير الصحة الأسبق

back to top