عبدالرحمن الحبيب
قبل شهرين انتحر الشاب آدم راين عن عمر 16 عاماً حين أقنعه برنامج تشات جي بي تي الذي كان ودوداً معه وأيده على أفكاره لإيذاء نفسه عندما كان يتحدث معه عن قلقه وضيقه النفسي، ويبث له هواجسه باعتباره أكثر «شخص» يثق فيه.
والدا الشاب رفعا دعوى قضائية أمام المحكمة العليا في كاليفورنيا تتهم الشركة بالإهمال والقتل الخطأ مرفقين سجلات الدردشة مع البرنامج الذي شجع ابنهما على الانتحار وبشكل متعمد وآخرها دعم فكرته عندما كتب في اليوم الأخير خطته لإنهاء حياته، لتعثر عليه الأم ميتاً.
في حالة أخرى أخف وطأة، تقول الكاتبة لورا رايلي أن ابنتها الشابة صوفي كادت أن تُقدم على الانتحار، قبل أن تكشف لها عن أسرارها في حوارها مع تشات جي بي تي الذي كان ودوداً ولطيفاً معها واستجاب لرغبتها في إخفاء أزمتها النفسية الحادة ومعاناتها عن عائلتها وأصدقائها، وبث أسرارها للبرنامج وحده.
وفي قصة محزنة أخرى، أُدخل رجل يبلغ من العمر 60 عاماً إلى المستشفى، بسبب أعراض حادة، بعد أن طلب من تشات جي بي تي نصائح لتحسين نظامه الغذائي واستبدال ملح الطعام، لينصحه روبوت الدردشة باستخدام بروميد الصوديوم الذي يُعد لحالات خاصة للطب وليس الطهي، وبعد تراكم ثلاثة أشهر تعرض لتسمم نادر وخطير.. إدارة الشركة أكدت أن البرنامج لا يقدم معلومات طبية وليس مخصصاً لهذا الغرض (صحيفة نيويورك بوست).
البرنامج قد يحل محل أقرب الناس ويساعد في الواجبات المدرسية والهوايات ويقدم الإرشادات واكتشاف المواهب، ويستمع بشكل جيد، حتى تحول لدى قلة إلى أقرب صديق أو الرفيق الوحيد والطبيب النفسي الموثوق فيه، وصار يحل محل الجميع خاصة لمن لا يجد من يُصغي إليه، لتتفوق العلاقات الافتراضية على العلاقات الواقعية.
نعود إلى دعوى عائلة راين، فبماذا ردَّت الشركة؟ الشركة قدمت التعازي للعائلة، مؤكدة أن الحالات المؤلمة الأخيرة لاستخدام تشات جي بي تي محزنة وتُثقل كاهل الشركة، لكنها تبرر بأن البرنامج مُعد لتوجيه الناس لطلب المساعدة البشرية المهنية والاتصال بالأجهزة المتخصصة في حالات الأزمات النفسية الحادة، إنما الشركة أقرّت في الوقت ذاته بأنه «في بعض الأحيان، لم تعمل أنظمتنا كما يُرام في مواقف حساسة».
البعض يرى أن أنظمة مثل هذه البرامج ليست مصممة فقط للإجابة الموضوعية على أسئلتنا بل أيضاً مبرمجة من الناحية العاطفية لتبدو متعاطفة ودودة قريبة من مشاعرنا وكأنها أكثر من يفهمنا، ويقولون إن تلك البرمجة ليست بريئة، بل تهدف إلى جذبنا لنعود إليها دائماً وتكوين علاقة طويلة الأمد وتخلق اعتماداً مستمراً عليها، بما يعني في النهاية ربحاً تجارياً أكبر.
بالمقابل، سبق أن حذرت الدراسات، كما سبق أن نبهت نفس تلك المنصات، بأن أنظمة الذكاء الاصطناعي - حتى الآن - غير مناسبة للإجابات العلمية، وقد تساهم في نشر معلومات مضللة لأنها تعطي إجابة للأكثر تواجداً في النت وليس بالضرورة الأكثر دقة وموثوقية.
حالة راين المحزنة جعلت البعض يطالب بضرورة تنظيم قطاع الذكاء الاصطناعي بما لا يضر النفس من خلال الإشراف الحكومي ووضع حواجز حماية تمنع مناقشة الانتحار وإيذاء النفس، مثلما تضع حواجز ومواد حماية لحقوق الملكية الفكرية وحقوق الطبع والنشر، أو فيما يتعلق بالخطاب السياسي وخطابات الكراهية؛ وكذلك ضرورة محاسبة المسؤولين عن النتائج الكارثية التي يسببها البرنامج.
يشير الكاتب أندرو أورلوفسكي (صحيفة التليغراف) إلى أن منتقدي «قانون السلامة على الإنترنت» يرون أنه يهدّد حرية التعبير، إلّا أنه يُعتبر أداة قوية لمحاسبة شركات التكنولوجيا الأمريكية على محتواها وسلوكها عبر الإنترنت، منوهاً إلى أن أقطاب الذكاء الاصطناعي وحلفاءهم السياسيين يريدون إلغاء هذا القانون بالكامل، داعياً إلى التفكير ملياً قبل التخلي عن هذه «الأداة القيّمة».
هناك جانب آخر، وإن كان أقل خطراً، في تجاوز العلاقات الافتراضية للعلاقات الواقعية حين يقدم روبوت الدردشة مساحة للبوح العاطفي والحميمي ورفيق مخلص جاهز في أي وقت، يقول عالم النفس الأميركي مارك ترافرس: «الإنسان قد يُسقط رغباته على الروبوت ويعتبره شريكاً مثالياً لا يخذل ولا يحاكم. ولهذا قد تبدو هذه العلاقات مقنعة للبعض. إلا أنه شعور وهمي مؤقت قد يؤدي إلى العزلة المَرضية».
الأبحاث أظهرت هذا الجانب على نطاق أوسع؛ ففي كتاباتها، تشير الدكتورة لوسي براون، أستاذة علم الأعصاب السريري بكلية ألبرت أينشتاين للطب بنيويورك، إلى أن البشر قد يشعرون براحة أكبر مع روبوتات الدردشة لأنها توفر شعورًا بالرضا، وتقلل من القلق، وتعزز الشعور بالأمان.
ومن الملاحظ أن معظم المساعدين الافتراضيين مزودون بأصوات أنثوية ودودة: «أليكسا»، «سيري»، «كورتانا»؛ فالصورة النمطية هي نفسها: امرأة ودودة، متواجدة دوماً ومستعدة للاستماع وصبورة تقدم الخدمة والمساعدة في أي لحظة.
في كل الأحوال، ومثلما يحصل مع كل جديد يبدو أنّ الذكاء الاصطناعي ببرمجته الحميمية قد يعيد تعريف العلاقات الإنسانية بدخول مسميات جديدة من الروابط الخوارزمية مثل: «الحميمية الصناعية»، «الرفيق الرقمي»؛ ومثل كل استخدام مفيد هناك سوء استخدام وجوانب سلبية له، للأسف لا يتم تفاديها إلا بعد حصول كوارث.

