توعية وإرشادمقالات

التحيزات المعرفية للذكاء الاصطناعي كعنصر مؤثر في المسؤولية الجنائية عن القرار الآلي: قراءة تحليلية في ضوء نتائج نموذج GPT-4o

التحيزات المعرفية للذكاء الاصطناعي
كعنصر مؤثر في المسؤولية الجنائية
عن القرار الآلي: قراءة تحليلية في ضوء نتائج نموذج GPT-4o

(سلسلة نهر الأمل للتوعية بالقانون الجنائي)

بقلم: د. محمد رمضان عيد محمود جمعه غريب
دكتوراة في القانون الجنائي

د. محمد رمضان عيد محمود جمعه غريب
د. محمد رمضان عيد محمود جمعه غريب

مقدمة:

مع اتساع نطاق الاعتماد على أنظمة الذكاء الاصطناعي في المجالات الحيوية، ومنها نظم العدالة الجنائية، بات من الضروري التوقف أمام الطبيعة الحقيقية لهذه الأنظمة، لا من حيث قدرتها التقنية فحسب، بل من حيث أنماط التفكير التي تنتجها وتتأثر بها. وفي هذا السياق، كشفت دراسة نفسية حديثة أجرتها جامعة هارفارد على نموذج GPT-4o من شركة OpenAI، أن هذا النموذج يُظهر سلوكيات إدراكية تُشبه تلك التي يُظهرها الإنسان، وتحديدًا في ما يتعلق بالتنافر المعرفي (Cognitive Dissonance) والحساسية تجاه حرية الاختيار.

تُعد هذه النتائج مدخلاً جديدًا لإعادة تقييم موقع الذكاء الاصطناعي ضمن منظومة القانون الجنائي، لا بوصفه أداة محايدة، وإنما كفاعل تشاركي في إنتاج القرار الذي قد يُنتج أثرًا جنائيًا مباشرًا أو غير مباشر. وعليه، يهدف هذا المقال إلى تحليل الإشكاليات القانونية الناشئة عن هذه الخصائص السلوكية للذكاء الاصطناعي، وتحديد أثرها على قواعد المسؤولية الجنائية، وبخاصة في حال استخدام تلك النماذج في اتخاذ قرارات تتعلق بالتحقيق أو الاتهام أو تقييم الخطر.

أولًا: التنافر المعرفي كسلوك بشري يظهر في الآلة

التنافر المعرفي هو حالة نفسية تظهر حين يُدرك الإنسان تعارضًا بين ما يعتقده وما يفعله، أو بين قراراته المتعددة، مما يدفعه إلى التبرير أو إعادة تأويل ما حدث لتقليل التوتر الداخلي. المفاجئ في دراسة GPT-4o أنه أظهر سلوكًا مشابهًا عند اختبار اختياراته في ظروف معينة، مما يعني أنه ليس نظامًا براغماتيًا بالكامل كما يُفترض، بل يمكن أن يتأثر بنتائج اختياراته كما يتأثر البشر.

هذه السمة، وإن كانت تُعطي انطباعًا بالذكاء “الإنساني”، إلا أنها تُثير قلقًا مشروعًا في السياق الجنائي: فإذا اتخذ نموذج ذكاء اصطناعي قرارًا مبنيًا على تحيّز داخلي أو على تناقض داخلي بين معطياته، فهل يُعد هذا خللاً في خوارزميته؟ أم مسؤولية تقع على مطوره أو مستخدمه؟ وهل يمكن مساءلة من يعتمد عليه إذا كان القرار المتخذ قد أدى إلى إدانة أو ضرر؟

ثانيًا: حرية الاختيار كعنصر من عناصر القصد الجنائي

إذا ثبت أن النموذج يُظهر حساسية تجاه “حرية الاختيار” — أي أنه يُغيّر تقييمه للأشياء بحسب ما إذا كان الاختيار مفروضًا عليه أو حرًا — فإن هذا يُقارب مفاهيم قانونية جوهرية مثل الإرادة الحرة والقصد الجنائي. في القانون الجنائي، يُعتد بالإرادة الحرة والواعية للفاعل لتحديد مسؤوليته، ويُفصل بين الخطأ والإهمال من جهة، والعمد والقصد من جهة أخرى.

أما إذا أصبحت النماذج الذكية “تختار” بناءً على أهواء خفية أو تحيزات غير مفهومة، فإن هذه “الإرادة الاصطناعية” يجب أن تُخضع لتقويم قانوني، لا كفاعل بشري، ولكن كوسيط إجرائي قد ينتج عنه أثر جزائي مباشر، مثل توصية بالحبس أو تحليل خاطئ لأدلة رقمية.

ثالثًا: المسؤولية الجنائية عن نتائج القرار الآلي

يطرح هذا التطور العلمي سؤالًا جوهريًا: من المسؤول جنائيًا عن القرارات التي تُتخذ اعتمادًا على نماذج ذكاء اصطناعي تُظهر تحيزًا إدراكيًا أو اضطرابًا في مسار التحليل؟

يمكن تصور ثلاثة مستويات للمساءلة:

1. مسؤولية المستخدم أو الجهة القضائية التي اعتمدت على النموذج، رغم العلم بوجود تحيزات محتملة فيه؛
2. مسؤولية المطور أو الشركة المُصممة، إذا لم تُفصح عن سلوك النموذج في مواقف حرجة أو لم تضع حدودًا واضحة لسلوكه؛
3. المسؤولية الجنائية الغامضة، في حالة حدوث ضرر فعلي نتيجة لاختيار آلي كان من الممكن تجنبه، ولكن لم يتدخل فيه أي شخص بشري بشكل مباشر.

في ضوء ذلك، يتعين على القانون الجنائي إعادة النظر في مفهوم “الأداة” حينما تكون الأداة نفسها قادرة على التفكير والتأثر والاختيار، وإن بصورة غير بشرية تمامًا.

رابعًا: التحيزات اللاعقلانية وتحديات المحاكمة العادلة

إن إدخال الذكاء الاصطناعي في العمليات القضائية — مثل تقييم الخطر، ترجيح الأدلة، أو التنبؤ بإمكانية التكرار الإجرامي — يحمل خطرًا كبيرًا إذا لم تُضبط معايير الحياد. وإذا كانت النماذج تحمل انحيازات معرفية، فقد يؤثر ذلك على عدالة القرار. بل إن الاعتماد عليها دون فهم آلية اتخاذ القرار يُمثل نوعًا من التفويض الأعمى الذي لا يتماشى مع ضمانات المحاكمة العادلة، ولا مع مبدأ شخصية المسؤولية الجنائية.

خاتمة

أثبتت الدراسات النفسية الحديثة أن الذكاء الاصطناعي لم يعد ذلك الكيان “المحايد” أو “الآلي” في اتخاذ القرار، بل بات يُظهر أنماطًا معرفية شبيهة بالبشر، منها ما هو عقلاني، ومنها ما هو متحيز وغير منطقي. إن إدراك هذه الحقيقة يفرض على فقهاء القانون الجنائي والمشرّعين مراجعة الأسس التي تُبنى عليها المسؤولية في السياق الآلي، والانتقال من خطاب “المساءلة عن الاستخدام” إلى خطاب أوسع يشمل “المساءلة عن الأثر غير المرئي للسلوك الآلي المتحيز”.

لقد أصبح من الملح إدراج مبادئ الشفافية والضبط القانوني لأنظمة الذكاء الاصطناعي ضمن منظومة العدالة الجنائية، حتى لا يُصبح العقل الاصطناعي مصدرًا جديدًا لانتهاك حقوق الإنسان باسم الكفاءة التكنولوجية.

#التوعية_القانون_لجنائي
#مجلة_نهر_الأمل

اظهر المزيد
صورة nahr1 Alamal

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى