حين شرعت في بحثي الأكاديمي حول جرائم الذكاء الاصطناعي وآليات التصدي لها على المستويين الدولي والوطني، لم أكن أتخيّل أنني سأصطدم بهذه المساحات الرمادية من الفراغ القانوني، التي تحيط بما يُسمى اليوم بـ«الأخطاء الذكية»، ما كان يبدو لي في البداية تمريناً افتراضياً على الورق، بات مشهداً حياً يمر من بين تفاصيل الواقع، يتقاطع مع حياة الأفراد، ويطرق أبواب الأمن القانوني والاجتماعي بأسئلة مقلقة: ماذا لو أخطأ الروبوت؟ ومَن يدفع الثمن في هذه المعادلة الصامتة؟
الحوادث الناتجة عن الخوارزميات لم تعد مجرد سيناريوهات خيالية، ففي عام 2015، لقي عامل ألماني حتفه تحت ذراع روبوتية داخل مصنع فولكسفاغن، لم يكن هناك بشر مسؤول بشكل مباشر، بل نظام مبرمج تَصرّف على نحو لم يكن محسوباً، أمام هذه الحادثة، تحرك البرلمان الأوروبي، وأصدر عام 2017 تقريراً يُوصي بفرض التأمين الإلزامي على الروبوتات المستقلة، وإنشاء سجل قانوني خاص بها، وتأسيس صندوق تعويض في حال غياب طرف بشري مسؤول، تفاعلت كبرى شركات التأمين، مثل Allianz وMunich Re، وأطلقت بوليصات مخصصة للأضرار المرتبطة بالذكاء الاصطناعي، حيث تشير تقارير عام 2023 إلى أن ما يقارب 63% من شركات التأمين الأوروبية تملك اليوم منتجات تأمينية متخصصة لهذا النوع من المخاطر. أما في دول الخليج، حيث تشهد المنطقة تسارعاً مذهلاً في مشروعات التحول الرقمي، فإن هذا النوع من التأمين لا يزال في طور الغياب، الروبوتات دخلت مجالات الأمن والصحة والتعليم والخدمات، إلا أن تشريعاتنا لم تلزم حتى الآن مشغّليها بأي تأمين يُحصّن المجتمع من أخطائها المحتملة، ومن منطلق تخصصي في هذا المجال، لا أرى في هذا الغياب فراغاً تنظيمياً فحسب، بل ثغرة قانونية وأخلاقية، قد تُفضي إلى انتهاكات صامتة لحقوق الأفراد دون وجود جهة تحمل المسؤولية أو توفر التعويض.
فحين نناقش مسألة التأمين الإلزامي، فإننا لا نتحدث فقط عن حسابات مالية أو ترتيبات إدارية، بل عن صميم حماية حقوق الإنسان، فالحق في الحياة، والسلامة الجسدية، هي حقوق لا يمكن المجازفة بها في مواجهة «عقل غير بشري»، وإن كانت الروبوتات تخلق مخاطر على هذه الحقوق – كما هو الحال في بعض حالات الخلل الخوارزمي – فإن الواجب القانوني والأخلاقي يُحتم على الدول ومؤسساتها ضمان تعويض فعّال، والتزام شفاف، لا يُترك لمزاج السوق أو فجوات التشريع، من هنا، فإن توصية البرلمان الأوروبي ليست فقط إطاراً قانونياً، بل التزاماً إنسانياً يؤسّس لعدالة تواكب الزمن.
هذه الحاجة الملحّة تدفعنا لإعادة التفكير في موقع الروبوت من المنظومة القانونية: هل نراه أداة؟ أم فاعلاً قانونياً غير بشري؟ الفقه التقليدي يُوزع المسؤولية على المستخدم أو المصنع أو المبرمج، لكنه يعجز عن تفسير الخطأ حين يصدر من «قرار خوارزمي»، ولهذا، تدعو بعض الدراسات لمنح الروبوت شخصية قانونية إلكترونية، تُربط بسجل تأميني، وتُخضعه للمساءلة.
ولعل النموذج الكوري الجنوبي جدير بالذكر، حيث قامت شركة Neubility، بالتعاون مع شركة التأمين Dongbu، بإطلاق بوليصات تغطي روبوتات التوصيل الذكية، تصل تعويضاتها إلى 700000 دولار في حال الضرر، ورغم أن دول الخليج تبذل جهوداً كبيرة لتعزيز حقوق الإنسان ومواكبة التطور التقني، إلا أن هذا النوع من التأمين ما زال ينتظر تفعيله ضمن إطار تشريعي شامل يضمن الأمان الرقمي والسلامة البشرية في آن.
ومن خلال تجربتي البحثية المتعمقة في هذا المجال، أصبح واضحاً أن مستقبل العدالة لا يُبنى في قاعات المحاكم وحدها، بل في مدى قدرة المنظومات القانونية على التنبؤ، لا الاكتفاء برد الفعل، وعلى احتواء مخاطر التقنية قبل أن تتحول إلى أضرار، وهنا، يصبح دور شركات التأمين جزءاً من شبكة الحماية القانونية والاجتماعية، لا مجرد جهة مالية كنوع من الآليات الدولية لمواجهة جرائم الذكاء الاصطناعي، فنحن لا نحتاج فقط إلى برمجة الروبوتات على الدقة، بل إلى برمجة قوانيننا على التوقّع، والوقاية، والإنصاف.
وحين يُخطئ الروبوت في غياب منظومة تعترف بخطئه وتُحمّله المسؤولية، فإن الذي يدفع الثمن ليس الآلة.. بل الإنسان.