: آخر تحديث

الذكاء الاصطناعي ومجلس الأمن

14
18
21
مواضيع ذات صلة

عقد مجلس الأمن، يوم الثلاثاء الماضي، جلسة هي الأولى من نوعها لمناقشة الذكاء الاصطناعي، وهي ليست المرة الأولى التي يُناقَش فيها هذا الموضوع، فقد عُقدت من قبل عشرات، إن لم يكن مئات الملتقيات الدولية والوطنية حول الموضوع، وهو ما يعكس أهميتَه المتزايدة بعد أن أصبح واضحاً أن الطفرة في مجال الذكاء الاصطناعي ستُحْدِث تغييراتٍ أقلَّ ما توصف به أنها جذرية في حياتنا، وربما يكون الأخطر هو تأثيرها على مشهد الأمن الدولي. وفي تقديري أن ما وصل بالموضوع إلى مجلس الأمن الدولي هو مخاطر الذكاء الاصطناعي، وهي عديدة ليس فقط على صعيد تهديد فرص العمل، وفرض مزيد من انتهاكات الخصوصية الفردية، وإتاحة قدرات تدميرية هائلة للأسلحة، وإنما أيضاً كون هذه المخاطر بحد ذاتها لم تكن هي ما عجَّل بطرح الموضوع في مجلس الأمن، بل المعجل كان هو المخاوف التي يبدو أنها أصبحت واقعيةً من أن يصل التطور في مجال الذكاء الاصطناعي إلى درجة قدرة الآلة على التعلم بمفردها، أي أن تتحول إلى «فاعل دولي» قادر على اتخاذ قرارات مستقلة عن البشر الذين قاموا بتطويرها. ورغم أن هذا لم يحدث بعد، فإنه يبدو احتمالاً على الأقل، كما ذكر العالم جيفري هينتون الذي يُعتبر الأبَ الروحيَّ للذكاء الاصطناعي في تبرير استقالته من شركة جوجل عملاق تكنولوجيا المعلومات. فقد قال إنه يأسف للعمل الذي كرس حياتَه من أجله بسبب احتمال إساءة استخدام الذكاء الاصطناعي، محذِّراً من وصول الآلة إلى القدرة على التعلم الذاتي. وأردف قائلاً إن هذا لم يحدث بعد، لكنه أصبح متوقعاً، وساعتَها سوف تكون الأسبقية للآلة لأنها الأكثر ذكاءً.
ورغم أنني ما زلت غير مقتنع بإمكان وصول الآلة إلى قدرة الإنسان على التفكير والإبداع - وإن سبقته على نحو هائل في القدرة على استرجاع المعلومات وتحليلها واستخلاص نماذجها، بما يساعد على استشراف المستقبل - إلا أن مخاطر الذكاء الاصطناعي يمكن أن تفضي إلى كوارث. ولنتصور مثلًا أن صاروخاً ذكياً قد أُطلق في مطاردة لطائرة مغيرة مزودة بآليات ذكية بدورها لتضليل الصواريخ المُهيأة بآليات للتغلب على هذا التضليل، وبالتالي فإن الصاروخ يمكن أن يغير مساره وفقاً لهذه التفاعلات، وقد يصيب هدفاً غير ذلك الذي انطلق أصلاً لمطاردته. فإذا كان هذا الهدف على درجة عالية من الخطورة، كمفاعل نووي مثلاً، قد تحدث كارثة غير مقصودة تكون لها تداعياتها الخطيرة، وربما يكون هذا هو ما حدث في واقعة صاروخ الدفاع الجوي السوري الذي أُطلق في أبريل 2021 على طائرة إسرائيلية فسقط في النهاية بالقرب من مفاعل ديمونة! ولنتصور التداعيات التي كان ممكناً حدوثها حال إصابته للمفاعل! ولنذكر أيضاً واقعةَ صاروخ الدفاع الجوي الأوكراني الذي سقط في بولندا في نوفمبر 2022 بالطريقة نفسها تقريباً، ولو أنه أصاب هدفاً حيوياً وأُلصقت التهمةُ بروسيا، لكان احتمال انخراط حلف «الناتو» في الحرب بديهياً.. وهكذا. فالمخاطر إذاً قائمة من قبل أن تتفوق الآلة على الإنسان، فما بالنا لو حدث هذا؟

ولذا كان الحديث السائد في جلسة مجلس الأمن حول الشفافية والرقابة والتنظيم، حمايةً للبشرية من مخاطر الذكاء الاصطناعي.. فهل هذا ممكن؟ يستحق الموضوعُ مقالةً منفردة.
*أستاذ العلوم السياسية - جامعة القاهرة


عدد التعليقات 0
جميع التعليقات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن رأي إيلاف
لم يتم العثور على نتائج


شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

في جريدة الجرائد