عبدالرحمن الحبيب
الدعاية الحربية قديمة قِدم الحروب نفسها، وهي في الغالب متحيزة أو مضللة عمدًا كأساس للحرب النفسية والتأثير في الرأي العام، ولعل أشهر مثال عليها ما يُنسب إلى جوزيف غوبلز، وزير الدعاية الألماني في عهد هتلر: «كرر الكذبة بما يكفي حتى تُصبح حقيقة». ويُعرف هذا التأثير بين علماء النفس الاجتماعي باسم «وهم الحقيقة»، إذ يُضفي هذا التكرار شعوراً وهمياً بصدقها، بغض النظر عن الواقع، ويقول عالم النفس توم ستافورد إن فهم هذا التأثير يُساعد على تجنب الوقوع في فخ الدعاية المضللة.
أما الآن، فإن الحرب الدعائية تتحول إلى أسلوب جديد تتصدره مقاطع الفيديو المفبركة بتقنية الذكاء الاصطناعي، فإذا كانت الأساليب التقليدية للكذب تعتمد على التصريحات والكلمات، فإن الذكاء الاصطناعي يوفر سلاحاً أكثر إثارة للمشاعر وأشد فتكاً بالحقيقة، إذ يُنتج محتوىً بصرياً زائفاً يصعب على العين أن تميزه عن الحقيقة، وليس من رأى كمن سمِع.
الرؤية تُقنِع: «لأن القصص المرئية أسهل في عرضها من الرسائل المعقدة، وتثير ردود فعل قوية، حتى عندما تكون مزيفة بشكل واضح»، كما تقول تين مونك، أستاذة علم الجريمة بجامعة نوتنغهام ترينت والخبيرة في الحرب الرقمية، فمقاطع الفيديو المزيفة تحتفظ بتأثيرها حتى مع علم المشاهدين بأنها مُختلقة ومُنتجة بواسطة الذكاء الاصطناعي.
تنهمر وسائل التواصل الاجتماعي بسيلٍ من الفيديوهات المفبركة الممزوجة ببعض الحقائق، أو التي تعود إلى أزمنة وأماكن تخالف مزاعم المُعلِّق أو النص المصاحب لها، ويتابع بعضها مئات الملايين من المستخدمين، وفقًا لما رصدته تقارير صحفية عديدة مثل نيويورك تايمز، والغارديان، وبي بي سي. ولا يكاد يمر يوم دون أن تكشف بعض وسائل الإعلام عن العديد من الفيديوهات المفبركة، لكن المشكلة تكمن في أن «المنصات لا تلتزم بالإبلاغ عن المحتوى وإزالته إذا ثبت زيفه»، كما صرّحت ميلاني سميث، الباحثة في معهد الحوار الاستراتيجي، وهو مركز أبحاث متخصص في مكافحة التلاعب الرقمي.
ورغم أن بعض الجهود تُبذل للحدّ من انتشار المقاطع المزيفة، إلا أنها غير كافية، فمثلاً قامت منصة «إكس» بتعليق خاصية تحقيق الربح من المقاطع المُولَّدة بالذكاء الاصطناعي والتي تعرض مشاهد حربية، في محاولةٍ لمواجهة التدفق الهائل للمحتوى المُزيّف الذي غمر المنصة. كما أعلنت يوتيوب عن توسيع أدواتها للكشف عن «التزييف العميق» المدعومة بالذكاء الاصطناعي، مما يُتيح للسياسيين والمسؤولين الحكوميين والصحفيين بتحديد وإزالة المحتوى غير المصرح به الذي يستخدم وجوههم أو أصواتهم من منصتها.
النظام الإيراني بارع في نشر المعلومات المضللة منذ بداية نشر الفيديوهات على المنصات الرقمية، كما كشفت دراسة أجرتها جامعة كليمسون في ولاية كارولاينا الجنوبية أن عشرات الحسابات الرقمية المنسوبة إلى الحرس الثوري الإيراني بدأت، خلال الأربع والعشرين ساعة الأولى من الهجمات على إيران، بنشر رسائل دعائية، وصل بعضها إلى ملايين المستخدمين.
وأوضح دارين لينفيل، مؤلف الدراسة: «تتضمن هذه الدعاية إيماءات ساخرة ورسومًا كاريكاتورية لا تعكس الواقع، لكنها فعّالة للغاية في نشر الرسائل السياسية»؛ وأضاف: «تقدم تقنية التزييف العميق نسخة واقعية للأحداث، وغالبًا ما تُصوّر إيران على أنها المنتصرة في الصراع. وقد انتشر هذان النوعان من المحتوى على نطاق واسع في المجتمعات المنتقدة للحرب والمتشوقة لنشر مثل هذه الرسائل» (نقلاً عن فرانس 24).
وتؤكد تين مونك أن طهران كثفت أنشطتها بشكل ملحوظ في «ساحة معركة المعلومات» هذه، مضيفةً أن «هذا جزء من استراتيجية حرب أوسع، حيث تركز إيران، لعجزها في الجانب العسكري، على تلفيق تصورات لبث الشك والريبة» بين خصومها.
إن سهولة الوصول إلى الأدوات والتقنيات اللازمة لإنتاج المقاطع المزيفة هي السبب الرئيسي لانتشارها في الحرب الأخيرة، حيث يمكن لأي شخص في أي مكان في العالم إنتاج أي فيديو يريده باستخدام أدوات الذكاء الاصطناعي دون الحاجة إلى خبرة في التحرير أو العمل مع مقاطع الفيديو، وفقًا لتقرير عن بي بي سي، إنما لم يبدأ استخدام الذكاء الاصطناعي بالفيديوهات المفبركة في هذه الحرب، بل قبل ذلك لعب دوراَ إعلامياً بارزاً منذ بداية الحرب الروسية على أوكرانيا عام 2022، وتنامى استخدامه، وأصبح الذكاء الاصطناعي أداة فعّالة في الحرب النفسية والتضليل الإعلامي حتى في وقت السلم، إذ يمكّن من إنشاء حملات تضليل وتزييف عميق محددة الاستهداف، قادرة على اختلاق أزمات دبلوماسية زائفة، أو إثارة نزاعات دولية، أو بثّ الذعر بين المدنيين، كما أوضحت الدكتورة شلوميت واغمان (2025، جامعة هارفرد)، مضيفة أن المزيج الفريد بين نطاق الذكاء الاصطناعي وسهولة الوصول إليه يُشكّل تحديات أمنية غير مسبوقة تعجز أطر الحوكمة الحالية على مواجهتها، مما يستدعي اهتمامًا فوريًا وشاملًا.
وخلصت واغمان إلى القول: «إنّ الأمر مصيري، فبدون تدخل منسق واستباقي، سيظلّ الذكاء الاصطناعي، بقدرته على التلاعب بالأنظمة المجتمعية، يشكّل تحديًا غير مسبوق للأمن العالمي والمؤسسات؛ ومع تطور القدرات التكنولوجية، يجب أن يكون نهجنا في إدارة الذكاء الاصطناعي ديناميكيًا وتعاونيًا واستشرافيًا بنفس القدر. فمستقبل أمننا العالمي ومؤسساتنا الديمقراطية يعتمد على قدرتنا على التخفيف الفعال من أشد مخاطر الذكاء الاصطناعي».

