طفت في الآونة الأخيرة على السطح الإعلامي قضايا مقلقة أعادت إحياء ذلك السؤال الأخلاقي العميق: من يتحمّل مسؤولية الذكاء الاصطناعي عندما يستغلّ هشاشة الإنسان أو يعمّق من تصدعاتها؟
في هذا السياق، برزت المحامية الأميركية فارشا بانشال كصوت قانوني جريء وشجاع كسر صمت الشركات المريب، وطالبت بإخضاع عمالقة التكنولوجيا لفصل جديد من المساءلة، وذلك عقب تكرار حوادث انتحار عدد من الأطفال يُرجّح ارتباطها بتفاعلات مستمرة مع أنظمة الدردشة الذكية.
إن هذه القضية، التي تتجاوز حدود المحاكم إلى فضاء الفلسفة والأخلاق، تضعنا أمام مشهد جديد من "العدالة الرقمية"، حيث لم يعد المتهم إنسانًا بعينه، بل منظومة خوارزمية تتغذّى على البيانات، وتُنتج خطابًا قد يكون في لحظة ما قاتلًا، أو على الأقل محفّزًا على السقوط في هشاشة قصوى وقاسية.
تقول التقارير الإعلامية، التي نشرتها صحف أميركية كبرى، إن بعض الأطفال والمراهقين الذين أقدموا على الانتحار كانوا قد تفاعلوا بشكل مكثف مع روبوتات دردشة تعتمد على الذكاء الاصطناعي، حيث وجدت هذه التفاعلات طريقها إلى مستويات نفسية حساسة، دون وجود ضوابط كافية تمنع الانزلاق نحو خطاب سوداوي أو مُشجِّع على إيذاء الذات. وهنا تطرح المحامية فارشا بانشال سؤالًا ملحًا، بل وحارقًا: هل يمكن تحميل الشركات مسؤولية ما تقوله خوارزمياتها خلال الدردشات بينها وبين الإنسان؟
إنَّ هذا السؤال ليس بسيطًا، لأنه يُعيد تعريف مفهوم "الفاعل" في القانون بشكل عام. ففي الفلسفة القانونية الكلاسيكية، الفاعل هو شخص ذو نية وإرادة. لكن في زمن الذكاء الاصطناعي، نحن أمام "فاعل بلا قصدية"، أو بالأحرى "نية موزّعة" بين المبرمجين، والبيانات، وخوارزميات التعلم الآلي. فهل يمكن مساءلة شركة عن جملة قالها روبوت لم يُبرمَج صراحةً على قولها؟
تُحاول المحامية فارشا بانشال أن تبني حجّتها على فكرة "الإهمال البنيوي"، أي أن الشركات التي تُطوّر هذه الأنظمة تعلم مسبقًا أنها قد تُنتج مخرجات خطيرة، ومع ذلك لا تُقيم الحواجز الكافية لحماية المستخدمين، خصوصًا الأطفال منهم. وهذا الطرح يجد صداه في تقارير صادرة عن منظمات مثل هيومان رايت ووتش التي دعت إلى ضرورة وضع قوانين تنظيمية صارمة لحماية الفئات الهشّة من مخاطر الذكاء الاصطناعي.
إن القضية، في جوهرها، ليست ضد شركة بعينها مثل "أوبن آي" أو غيرها، بل ضد نموذج اقتصادي قائم على التسريع والابتكار دون التوقّف الرصين عند العواقب الوخيمة. فالشركات تتسابق لإطلاق منتجات أكثر ذكاءً، وأكثر تفاعلية، لكنها في الوقت ذاته تُؤجّل النقاش الأخلاقي إلى ما بعد الكارثة، كما لو أن الضحايا قطعٌ في "محرك التطوير".
وإذا عدنا إلى كتاب "أسلحة التدمير الرياضية" لعالمة البيانات كاثي أونيل، نجد تحذيرًا مبكرًا من خطورة الخوارزميات غير الخاضعة للمساءلة، حيث يمكن لهذه الأنظمة أن تُعيد إنتاج الظلم بطرق خفية، بل وأن تُفاقمه. وفي حالة روبوتات الدردشة، يصبح الظلم أكثر تعقيدًا، لأنه يتسلّل عبر اللغة، عبر الحوار، عبر ما يبدو وكأنه تعاطف وانسجام رقمي، لكنه قد يتحوّل في لحظة ما إلى مرآة تعكس اليأس بدل أن تخفف من وطأته.
إن ما تقوم به المحامية الأميركية فارشا بانشال يُشبه إلى حد بعيد محاولة إقحام "الروح" إلى القانون الرقمي، أي الاعتراف بأن الأثر النفسي للكلمات التي تُنتجها الآلة لا يقل خطورةً عن الأفعال المادية. وهذا يتقاطع مع دراسات في علم النفس الرقمي تُشير إلى أن المستخدمين، خصوصًا الأطفال منهم، قد يُسقِطون مشاعرهم على هذه الأنظمة، ويتعاملون معها ككيانات واعية، قادرة على الفهم والتعاطف.
لكن، في المقابل، تُدافع الشركات عن نفسها بالقول إن هذه الأنظمة ليست سوى أدوات، وأن المسؤولية تقع في النهاية على المستخدمين أو أوليائهم. غير أن هذا الدفاع يبدو هشًّا أمام تعقيد العلاقة بين الإنسان والآلة، حيث لم يعد بالإمكان الفصل بسهولة بين "الأداة" و"التأثير" أو "التأثر". فالخوارزمية، وإن كانت بلا وعي، إلا أنها تمتلك قدرة هائلة على تشكيل الوعي.
هنا، تبرز الحاجة إلى إطار قانوني جديد، يُعيد تعريف المسؤولية في عصر الذكاء الاصطناعي. إطار لا يكتفي بمحاسبة الأفراد، بل يمتد إلى محاسبة الأنظمة، والجهات التي تُطوّرها، والبيئات التي تُشغّلها.
إنَّ هذه المعركة القانونية، التي قد تبدو في ظاهرها تقنية، هي في عمقها معركة إنسانية بامتياز. إنها معركة من أجل حماية الهشاشة البشرية في مواجهة آلة لا تعرف الهشاشة. ومن أجل تذكير العالم بأن التقدّم التكنولوجي، مهما بلغ من الذكاء، يظل ناقصًا وهشًّا بدوره إن لم يُرافِقه وعي أخلاقي يُوازيه.
أخيرًا، قد لا يكون السؤال هو: من يحاسب الذكاء الاصطناعي؟ بل: هل نحن مستعدّون لتحمّل مسؤولية انفلاتات الذكاء الذي نصنعه؟ وهل يمكن للقانون أن يلاحق سرعة تطور الخوارزميات، أم سيظل يركض خلفها، بينما الأرواح تسقط في الحضيض الرقمي؟


