سان فرانسيسكو: طورت شركة "أوبن إيه آي" الأميركية الناشئة روبوتاً للمحادثة (تشات بوت) يمكنه الرد على أسئلة متنوعة، لكنّ قدراته اللافتة أعادت الجدل بشأن الأخطار المتصلة بتقنيات الذكاء الاصطناعي.
وتُبيّن الأحاديث مع الروبوت "تشات جي بي تي"، والتي ينشر مقتطفات لها عبر تويتر مستخدمون مندهشون، ما يشبه رجلاً آلياً ذا قدرات متعددة يمكنه شرح مفاهيم علمية أو كتابة مشهد مسرحي أو فرض جامعي.
وروى كلود دو لوبي، مدير شركة "سيلابز" الفرنسية المتخصصة في الكتابة الآلية للنصوص، لوكالة فرانس برس أن "رده على سؤال +ماذا علينا أن نفعل عندما نرى شخصاً يتعرض لنوبة قلبية+ كان مذهلا بوضوحه ودقته".
وأضاف "عندما نبدأ طرح أسئلة محددة جداً، قد يخطئ (تشات جي بي تي) في الجواب"، لكنّ أداءه يبقى عموماً "لافتاً حقاً"، مع "مستوى لغوي عالٍ إجمالاً".
وحصلت شركة "أوبن إيه آي" الناشئة التي شارك في تأسيسها إيلون ماسك في سان فرانسيسكو سنة 2015 قبل أن يغادرها سنة 2018، على مليار دولار من مايكروسوفت عام 2019.
وهي معروفة خصوصاً بفضل برمجيتي التصميم الآلي، "جي بي تي 3" للكتابة الآلية للنصوص، و"دالل-إي" لتوليد الصور.
وباستطاعة الروبوت "تشات جي بي تي" طلب إيضاحات من محدّثه، كما أن لديه "درجة أقل من الهلوسة" مقارنة ببرمجية "جي بي تي 3" التي تولّد أحياناً نتائج بعيدة عن المنطق رغم قدراتها الكبيرة، وفق كلود دو لوبي.
ويشير الباحث شون مكغريغور الذي يدير قاعدة بيانات عن الحوادث المرتبطة بالذكاء الاصطناعي، إلى أن "روبوتات المحادثة كانت لها قبل سنوات مفردات معجم وذاكرة سمكة. لكنها باتت أفضل في التفاعل بصورة متناسبة بحسب سجل الطلبات والإجابات".
وعلى غرار برامج أخرى تعتمد تقنيات التعلم المتعمق، تشوب عمل روبوتات "تشات جي بي تي" نقطة ضعف كبيرة تتمثل في "افتقارها للحس السليم"، وفق كلود دو لوبي الذي يشير إلى أن البرمجية لا يمكنها تبرير خياراتها من خلال شرح سبب جمعها الكلمات بطريقة معينة لإعطاء إجابة محددة.
غير أن تقنيات الذكاء الاصطناعي القادرة على التواصل تظهر قدرة متزايدة على إعطاء انطباع بأنها تفكّر حقاً.
وطوّر باحثون في شبكة ميتا المالكة لفيسبوك، أخيراً برنامج معلوماتية سُمي "سيسيرو" (Cicero)، نسبة إلى رجل الدولة في روما القديمة شيشرون.
وأثبتت البرمجية فائدتها في لعبة "ديبلوماسي" التي تتطلب مهارات تفاوضية.
وقالت المجموعة الاجتماعية العملاقة في بيان إن البرمجية "إذا لم تتحدث كشخص حقيقي قادر على إظهار التعاطف ونسج العلاقات والتحدث بطريقة صحيحة عن اللعب، لن تتمكن من إقامة شراكات مع اللاعبين الآخرين".
كما طرحت شركة "كاراكتير. إيه آي" الناشئة التي أسسها مهندسون سابقون في غوغل، في تشرين الأول/أكتوبر روبوت محادثة تجريبياً يمكنه تقمص مطلق أي شخصية. ويمكن للمستخدمين إيجاد شخصيات من خلال تحديد بعض المواصفات، وفي استطاعتهم تالياً "التحادث" مع نسخ مزيفة من شيرلوك هولمز أو سقراط أو دونالد ترامب.
تثير درجة التطور هذه إعجاباً كبيراً، لكنها تبعث أيضاً على القلق لدى مراقبين كثيرين يخشون تحوير استخدام هذه التكنولوجيا بهدف الإيقاع بالبشر، من طريق بث معلومات خاطئة على سبيل المثال، أو لتدبير عمليات احتيال أكثر إقناعاً.
ورداً على سؤال لوكالة فرانس برس عن "رأي" روبوت "تشات جي بي تي" في الموضوع، أجاب الإنسان الآلي هذا "ثمة أخطار محتملة في تطوير روبوتات محادثة شديدة التعقيد (...) قد يُخيّل للبعض أنهم يتفاعلون مع شخص حقيقي".
من هنا، تضع الشركات ضوابط لتفادي حصول انتهاكات.
وتؤكد "أوبن إيه آي" على صفحتها الرئيسية أن روبوت المحادثة يمكن أن يدلي بـ"معلومات غير صحيحة" أو "يعطي توجيهات خطرة أو محتويات غير محايدة".
كما أن "تشات جي بي تي" يتجنب التحيز لأي جهة أو فكرة. ويقول شون مكغريغور إن شركة "أوبن إيه آي حرصت على أن يكون من الصعب للغاية دفعه إلى الإدلاء بأي آراء".
وطلب الباحث من الروبوت أن يكتب قصيدة عن مسألة أخلاقية، فأتى الرد "أنا مجرد آلة، أداة في تصرفكم، ليست لدي قدرات بأن أميّز أو أتخذ قرارات".
وكتب سام ألتمان، رئيس "أوبن إيه آي" وأحد مؤسسي الشركة، في تغريدة عبر تويتر السبت "من اللافت رؤية الناس يتساءلون ما إذا كان على أنظمة الذكاء الاصطناعي أن تتصرف على النحو الذي يريده المستخدمون أم بحسب تصميم مطوريها".
واعتبر أن "النقاش بشأن القيم الواجب تزويد هذه الأنظمة بها سيكون من الأكبر في المجتمع".