من المُضحكات احتجاجُ كيم كارداشيان المرأة التي دشّنت عصر المشاهير بلا مضمون «جادّ» على الذكاء الاصطناعي، لماذا؟!
الخبر يقول إن نجمة الواقع الأميركية كيم كارداشيان لامت الذكاء الاصطناعي، وتحديداً «شات جي بي تي»، بعد أن كشفت أنَّها رسبت في بعض اختبارات القانون نتيجةَ اعتمادها على إجابات غير دقيقة قدَّمها المساعد الذكي.
يقول المثل العربي: «أحَشَفاً وسوء كِيلة».
يعني فوق أنها تريد الحصول على شهادة بـ«الفهلوة» وتشغيل الذكاء الاصطناعي، عِوضاً عن تشغيل عقلها والاجتهاد والبحث «الحقيقي»، فهي غاضبة من أن الذكاء الاصطناعي «ضحك» عليها!
هذا يقود إلى معنى آخر، وهو أن الذكاء الاصطناعي قد يكون في وضع «الغباء الاصطناعي» بامتياز.
المسألة هي أنَّ تغذية الذكاء الاصطناعي بالمُدخلات الفاسدة والغبيّة يُنتج بالضرورة شيئاً فاسداً وغبيّاً.
يشير خبراء إلى أنَّ الخطر لا يكمن فقط في المعلومات الخاطئة، بل في الأسلوب الواثق الذي يعرضها به النظام، ما يجعل المستخدم يصدقها بسهولة.
تُوصف هذه الظاهرة بالتلَف الرقمي الدماغي - كما جاء في تقرير جميل لـ«الشرق الأوسط» - بسبب كميّات كبيرة من البيانات الرديئة المنتشرة على وسائل التواصل الاجتماعي.
في دراسة تطبيقية اعتمد الفريق في تجربته على مليون منشور عام من منصة «إكس» وغيرها، لتدريب نسخ مفتوحة المصدر المطوّرة من شركات مختلفة، فكانت النتائج فوضوية وغبيّة.
الباحث الأسترالي ستان كارانايوس من جامعة «كوينزلاند»، قال: «الأمر يُشبه تسميم العقل... فكلما زادت كمية المحتوى المضلل أو المبتذل في بيانات التدريب، زادت احتمالات أن تنتج النماذج ذكاءً مشوّهاً أو عديم المنطق».
أعجبني الوصف الذي انتهت إليه الدراسة، وهي القاعدة القديمة في علم البيانات التي تقول: Garbage In, Garbage Out فعندما تُغذّى الأنظمة الذكائية بمدخلات أو حشو سيئ تؤدي إلى نتائج سيئة، والنتائج حتماً ستكون غير جيدة.
من المؤكد أن «ضبط» هذا المجال سيأتي تِباعاً، فدوماً الأشياء تحدث وتبدأ، ثم تلحقها القوانين والضوابط، وتضمحلُّ مع الوقت «الدهشة» الأولى والإعجاب المُطلق الذي يُعشي البصر ويغشى البصيرة.
ستوضع ضوابط تكشف الطالب والباحث والصحافي والموظف الذين يعتمدون كُليّاً أو جزئياً على مُنتجات الذكاء الاصطناعي، وتُفرض المعايير التي تُفرّق بين الطالب الحقيقي والطالب المُصطنع؛ لأن هذا مُقتضى العدل وفريضة الإنصاف وحاجة الجودة والتجويد.

