: آخر تحديث

مخاطر «ظل الذكاء الاصطناعي» على العمل الدبلوماسي

7
6
6

لم يعد الذكاء الاصطناعيُّ خيارًا مستقبليًّا في العمل الدبلوماسيِّ والعلاقات الدوليَّة، بل أصبح واقعًا يوميًّا يتغلغلُ في تفاصيل الممارسة المهنيَّة، من تحليل المعلومات، وصياغة التقارير والتصاريح، إلى استشراف السيناريوهات، وترجمة البيانات والوثائق.. غير أنَّ هذا الحضور المتنامي أفرز مفهومًا جديدًا نسبيًّا، بات يثير قلق الباحثين والمتخصصين ويسترعي انتباههم، وهو ما يُعرف بـ»ظل الذكاء الاصطناعي» أو Shadow AI.

يشير هذا المفهوم -بشكل عام- إلى الاستخدام غير المنظَّم، أو غير المعلن لأدوات الذكاء الاصطناعيِّ داخل المؤسسات، خارج الأطر الرسميَّة للحوكمة والرقابة؛ وهو استخدام لا يتمثَّل في إجراءات واضحة مباشرة، بل في عملٍ غير منظور يتم في الخلفيَّة، يوجِّه التفكير، ويقترح الصياغات، ويؤثِّر بشكل غير مباشر في مسار القرار، دون أن يكون ظاهرًا أو خاضعًا للمساءلة.. في هذه الحالة، يبدو القرار في صورته النهائيَّة قرارًا بشريًّا خالصًا، بينما يكون قد تشكَّل جزئيًّا داخل هذا «الظلِّ» التكنولوجي غير المرئيِّ.

وتتفاقم خطورة هذا الأمر بشكل أكبر في العمل الدبلوماسيِّ؛ بسبب جملة من العوامل، من أبرزها ضغوط الوقت ومتطلَّبات الإنجاز التي يمكن أن يواجهها الموظَّف الدبلوماسي، لا سيَّما في بيئات تتسم بتسارع الأحداث وكثافة الملفَّات.. فعلى سبيل المثال، عندما يُطلب إعداد تقرير عاجل، أو تحليل موقف سياسيٍّ معقَّد في وقت محدود، تصبح أدوات الذكاء الاصطناعيِّ حلًّا مغريًا وسريعًا، حتَّى وإنْ لم تكن معتمدة رسميًّا.. وغالبًا ما يكون هذا الاستخدام بدافع الكفاءة لا الإهمال، لكنَّه يفتح الباب لمخاطر غير محسوبة؛ خاصَّةً عندما يتم تغذية برنامج الذكاء الاصطناعيِّ بوثائق أو مخاطبات رسميَّة؛ مهما كانت درجة سرِّيتها، نظرًا للقدرة الفائقة لتلك البرامج على عملية الربط بين التفاصيل البسيطة للوصول لنتائج نهائيَّة معقَّدة.

ويتمثَّل عامل آخر في سهولة الوصول إلى أدوات الذكاء الاصطناعيِّ التوليديِّ، التي لا تتطلَّب خبرة تقنية متقدِّمة، ولا تمرُّ عبر قنوات مؤسسيَّة واضحة. هذه السهولة تشجِّع على الاستخدام الفردي، وتُضعف الالتزام بالأنظمة الداخليَّة، خاصَّة في حال عدم توفُّر سياسات واضحة، أو برامج تدريب متخصِّصة توضِّح المخاطر؛ وحدود الاستخدام المقبول.

كما يسهم الاعتقاد المبالغ فيه بحياد الخوارزميَّات في تعميق هذا الخطر، فبعض المستخدمِينَ ينظرُون إلى مخرجات الذكاء الاصطناعيِّ بوصفها موضوعيَّة ودقيقة بطبيعتها، متناسِينَ أنَّها نتاج بيانات وتحيُّزات وسياقات قد لا تتوافق مع الخصوصيَّة السياسيَّة، أو الثقافيَّة للدولة المعنيَّة.. وفي العمل الدبلوماسيِّ، قد يؤدِّي هذا إلى إغفال تقديرات نوعيَّة، أو تفاصيل دقيقة لا يمكن اختزالها في أنماط رقميَّة.

وتبرز المخاطر كذلك في «اللغة الدبلوماسيَّة»، حيث إنَّ الصياغة في العمل الدبلوماسيِّ ليست مسألةً لغويَّةً فحسب، بل أداة سياسيَّة بامتياز؛ فالاعتماد غير الواعي على أدوات رقميَّة ذكيَّة في إعداد مسودات البيانات أو المراسلات؛ قد يُنتِج نصوصًا سليمةً شكليًّا، لكنَّها تفتقر إلى الحسِّ الدبلوماسيِّ، أو تحمل إيحاءات غير مقصودة، أو تُضعف الرسائل الرمزيَّة التي تقوم عليها العلاقات الدوليَّة.

وفي الختام، لا يعني كل ذلك؛ الدعوة إلى إقصاء الذكاء الاصطناعيِّ عن العمل الدبلوماسيِّ، بل إلى إدارته بوعي مؤسسيٍّ وحوكمة واضحة، فالتحدِّي الحقيقي لا يكمن في التقنية ذاتها، بل في تمدُّدها داخل «الظلِّ»، بعيدًا عن الضوابط والمساءلة.. فالدبلوماسيَّة، في جوهرها، فعل إنساني قائم على التقدير والخبرة المتراكمة والحنكة وبناء الثقة، وأي تقنية لا تحاط بأطر واضحة للاستخدام قد تضعف هذه الركائز، لا لأنها أقوى وأذكى من الإنسان، بل لأنها تعمل وتؤثر دون أن نراها أو نشعر بوجودها.
 


عدد التعليقات 0
جميع التعليقات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن رأي إيلاف
لم يتم العثور على نتائج


شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

في جريدة الجرائد