هناك فكرة مخيفة مفادها أن أحد أشهر برامج الذكاء الاصطناعي «ChatGPT» يستطيع أن يكتب مقالةً أو روايةً أو حتى بحثاً علمياً، بإتقان وبراعة لا متناهية.
قدم لي أحد أقاربي مقالاً مذيلاً باسمي، وقال إنه مقال قديم لي. قرأته، نعم يشبهني، لكني كنت متأكدة أني لم أكتبه يوماً، واحتفظت بإنكاري أنني لم أفعل. المقال كان يتبنى أفكاري وأسلوبي الكتابي الذي ينفرد به كل كاتب، أستطيع أن أقول إنه يمثلني بنسبة تفوق 80 بالمائة، وهي نسبة مرعبة. اتضح أن الموقف كان مزحةً من قريبي المتخصص في تقنية المعلومات، أراد أن يقنعني بسلطة الذكاء الاصطناعي وهيمنته التي لا نستطيع أن نتخيل إلى أي مدى ستصل. أنا اليوم على قيد الحياة وأستطيع إنكار ما هو ليس لي، لكن دوام الحال من المحال، بعد مدة، قد لا أكون متوفرة لأقول هذا لي أو لا. موقف بسيط لكنه شرح بوضوح الجانب السلبي للذكاء الجديد.
منذ بدء التاريخ الإنساني، كان التزوير وتلفيق المنتج الأدبي موجوداً، قصائد ومقالات وقصص وأبحاث لم يكتبها أصحابها، كانت أقلام مأجورة، لكنها مكلفة مادياً للذين لهثوا خلف الشهرة لأنها مدفوعة الثمن، كما أنها قد تكون عرضة للكشف والفضيحة لأي سبب. أما اليوم فهذه المخاطر غير واردة مع «ذ.إ» لا تكلفة ولا فضيحة. وأنا أكتب هذا المقال فتحت تطبيق «ChatGPT» ووضعت هذا الأمر: اكتب لي عبارة تحاكي أسلوب الروائي ديستوفسكي. جاءت الإجابة خلال ثانيتين تماماً:
«كان يمشي في الزقاق الضيق كما لو أن خطاياه تُثقل قدميه، وكل ظلٍّ يمرّ به يهمس له بما يعرفه جيداً: أنك لست ضحية العالم، بل صنيعة جراحك التي اخترت ألا تداويها»!!
ذُهلت، هل هذا حقيقة؟ عدت لأسأله: ما احتمالية أن أجد هذه العبارة في «غوغل» أو في أي مكان؟
جاءتني الإجابة: هذه العبارة من تأليفي ولم تُنقل من أي مصدر معروف أو منشور، لذا لن تجدها مطابقة في «غوغل» أو في أي مكان آخر.
اليوم علينا أن نعيد حساباتنا، على مؤسسات التعليم أن تدرك أن الطالب يستطيع أن ينجز بحثاً متقناً بكل تفاصيله خلال ثوانٍ. هذا غش وتزوير صريحان، يتنافيان مع شرط الأصالة، فماذا هم فاعلون؟ في فترة مضت، كنا نحذر الطلبة بألا يعتمدوا في أبحاثهم على موقع «ويكيبيديا» بل يتوجهون للمصادر العلمية المعروفة، أولاً، لأنه مصدر غير موثوق، وثانياً لأن معلوماته قابلة للتعديل من أي شخص كان. كان من السهل كشف الطالب الذي لا يمتثل من خلال اقتطاع سطور من بحثه والبحث عنها في «غوغل». لكن مع «ذ.إ» الوضع آمن.
حينما أتأمل هذه التقنية أفكر أن الأسوأ في نظري يلامس حالتين؛ الأولى من سيكتب التاريخ؟ التاريخ الذي تمتلئ به مكتباتنا اليوم كان دائماً عرضة للنقد والتشكيك بالمؤلفين وحقبهم الزمنية، والأخذ والرد، والتفنيد، رغم أنه كُتب بشكل تقليدي على يد إنسان. بعد 20 عاماً كم كتاب تاريخ على الرف نثق أنه حقيقي النقل والكتابة، وليس صنيعة آلة ابتكرها الإنسان وأصبحت أكثر تفوقاً منه في سرعة التنفيذ والإنجاز. هل سنتوه داخل دائرة مغلقة بحثاً عن الحقيقة؟
الحالة الثانية المقلقة هي الأبحاث العلمية. الباحث يقضي شهوراً وربما سنوات ليخرج ببحث رصين يستطيع نشره. في واقعنا اليوم، يستطيع الباحث إنجاز بحث يتضمن نتائج علمية لا تمت للواقع بصلة سوى ما اجتهد فيه «ذ.إ»، وأخرجه بعد المرور على آلاف الأبحاث المشابهة. حتى أنه يستطيع أن يقدم إحصاءات، وجداول، ورسوماً بيانيةً ليبدو البحث متكاملاً. في حالتنا التقليدية، كان الباحث ليُطرد من الجامعة أو المركز البحثي إن تسربت معلومات حول حقيقة أبحاثه، لكن من يستطيع اليوم أن يكون شرطياً للأبحاث؟
من ناحية أخرى، يستطيع من يتهمني بالسلبية والسوداوية أن يقول إنه استطاع عمل دراسة جدوى لمشروع اقتصادي كبير خلال دقائق بفضل «ذ.إ» مما وفر عليه الوقت والجهد. برنامج إيلون ماسك «Neuralink» يخترق العقل البشري، هذه سلبية، لكنه قد يساعد في الشفاء من الشلل والأمراض العصبية. وأمثلة أخرى كثيرة لا حصر لها. أنا مؤيدة لذلك، وأنوي شخصياً الاستفادة من هذه الثورة المعلوماتية، ولكن فكرتي أن «ذ.إ» سلاح ذو حدين، والحد الموجع الرهيف مؤذٍ، وقد ينتج لنا أفراداً جهلاء فقيري المعرفة لكنهم أصبحوا مرموقين بفضل أعمال لم يقوموا بها ومعارف لم يكتسبوها. هذه المعضلة لا أستطيع تجاوزها.
الحقيقة أن «ChatGPT» وغيره من التطبيقات غيرت وستغير حياة الناس للأفضل، وظهر وسيظهر في المستقبل المزيد منها التي تعمل عمل المستشار والسكرتارية والهندسة وكفاءة الأعمال وتشخيص الأمراض وتصميم الأدوية ومنافع لا نهاية لها. لكن المخاطر حاضرة، وعلينا إيجاد حلول لها، مثل مخاطر كل تقنية عشنا ظهورها؛ الطائرات والكهرباء والهندسة الوراثية والطاقة النووية... إلخ
خلال كتابة مقالي هذا سألت «ChatGPT» عن أنواع وخصائص التقنيات الحديثة وأجابني.
ثم وجدت منه سؤالاً أسفل الصفحة أضحكني: هل ترغبين أن أكتب لك سيناريو قصيراً أو قصة قصيرة بأسلوب دوستويفسكي عن شخصية تعيش وسط هذه التقنيات الخطيرة؟