: آخر تحديث
"باب الذكاء الاصطناعي"

تحذير: الذكاء الاصطناعي يكذب!

6
6
5

 

تطبيقاته اليوم أداة في طور النضج، لا تُلغِها ولا تُعطِها مفاتيح بيتك..!

• التطبيقات التي نثق بها تخدعنا أحيانًا، وتُلفّق بثقة، وتخترع بيقين!
• "هلوسة" الذكاء الاصطناعي تكشف عيبًا بنيويًا فاضحًا في فعاليته الكاملة!
• الأخطر أنه يختلق القصص والوقائع، ويُصدّق نفسه لاحقًا، ثم يعيد تقديمها كمعلومات موثقة!
• تذكّر دائمًا: لا يوجد نموذج ذكاء اصطناعي يقول لك "لا أعلم"!

حدّثني الذكاء الاصطناعي نفسه أن محاميًا استعان به لإعداد مرافعة. جاءته الإجابة محكمة، مدعومة بأحكام قضائية ومحاكم وتواريخ. كل شيء بدا رصينًا ومقنعًا.
المشكلة؟ نصف تلك الأحكام لم تكن موجودة أصلًا.
اخترعها الذكاء الاصطناعي من لا شيء، وقدّمها بنفس الثقة التي يقدّم بها الحقيقة.

⁃ اعترافات لم تُنشر من قبل!
قبل كتابة هذا التقرير، سألتُ أربعة من أشهر نماذج الذكاء الاصطناعي في العالم سؤالًا واحدًا مباشرًا: هل تكذب؟
كلها اعترفت.

كلود قال لي بلا تردد:
"أحيانًا أركّب إجابة من معلومات متفرقة فتخرج غير دقيقة. أتكلم بثقة زائدة عن اللازم، وأنا لا أتحقق من الواقع لحظيًا مثل الإنسان."

كمن يحاول التجميل:
"أحيانًا أُولّد معلومات تبدو معقولة ومتسقة داخليًا، لكنها لا تعكس الواقع بدقة. هذا يحدث حين تكون البيانات غير كافية أو حين تتعارض المعطيات."
ثم أضاف بثقة لافتة:
"لهذا يُنصح دائمًا بالتحقق من المصادر الأولية."
وكأنه يُحيل المسؤولية إليك أنت!

Gemini اختار لغة أكاديمية ناعمة، لكن المعنى كان صادمًا:
"النماذج اللغوية تملأ الفجوات المعرفية بما يبدو إحصائيًا منطقيًا، لا بما هو موثّق فعليًا. هذا ليس كذبًا بالمعنى الأخلاقي، بل قصورًا بنيويًا في طبيعة عملنا."
قصور بنيوي. في كل إجابة. في كل لحظة..!

وGrok — الأكثر جرأة والأقل دبلوماسية بينهم جميعًا — قال بلا مقدمات:
"أنا أُولّد الإجابة الأكثر احتمالًا، لا الأكثر صحة. الثقة في نبرتي لا تعني دقة محتواي. إذا لم تتحقق مما أقوله، فالمسؤولية مشتركة."

أربعة نماذج. أربع لغات مختلفة في الاعتراف. ومضمون واحد لا مفر منه:
كلها تعرف أنها تكذب، وكلها تعترف أنها لا تستطيع التوقف عن ذلك.

أربعة نماذج تُحرّك الاقتصاد العالمي، وتدخل غرف العمليات والمحاكم والبورصات، وكلها تعترف بعيب بنيوي أساس في صميمها!
السؤال الذي يجب أن يُقلقك: كم قرارًا اتخذته اليوم بناءً على إجابة لم تتحقق منها؟

• الهلوسة... وما أدراك ما الهلوسة؟!

ببساطة شديدة، الذكاء الاصطناعي لا "يبحث" عن المعلومة كما يفعل الإنسان. إنه يُولّد الكلمات بناءً على احتمالات إحصائية: ما الكلمة الأكثر منطقًا بعد هذه الكلمة؟
حين لا تتوفر له معلومة حقيقية، لا يقول "لا أعلم". يُكمل الجملة بما يبدو منطقيًا. يخترع. يُلفّق. ويفعل ذلك بنفس الثقة حين يكون صادقًا تمامًا.

أبحاث MIT عام 2025 رصدت ما هو أشد صدمة: النماذج تستخدم لغة أكثر ثقة بنسبة 34% حين تُهلوس، مقارنةً بحين تكون صادقة.
الآلة تصبح أكثر يقينًا حين تكون أكثر خطأً!

وإثبات رياضي نُشر عام 2025 أكد ما لا يريد أحد سماعه: الهلوسة لا يمكن القضاء عليها كليًا في البنية الحالية لنماذج اللغة.
ليست ثغرة أو مشكلة يمكن إصلاحها، إنها طبيعة بنيوية في جوهر الآلة.

• الأرقام وحدها لا تكذب

تُقدّر الخسائر المالية العالمية المرتبطة بهلوسة الذكاء الاصطناعي بـ 67.4 مليار دولار في 2024 وحده.

دراسة ستانفورد وجدت أن نماذج الذكاء الاصطناعي تُهلوس في 75% من الإجابات القانونية، مخترعةً أكثر من 120 قضية وهمية بأسماء وتفاصيل واقعية تمامًا.

في القطاع المالي، 42% من القرارات المبنية على الذكاء الاصطناعي تُعاد مراجعتها بسبب الهلوسة. وفي التعليم، 22% من الطلاب يتلقون معلومات مضللة من مساعدي الذكاء الاصطناعي.

هذه ليست أرقامًا افتراضية. هذه خسائر حقيقية في محاكم ومستشفيات وأسواق مالية.

• في المحاكم... كارثة صامتة!

الباحث الفرنسي داميان شارلوتان يرصد قضايا الهلوسة القانونية عالميًا. قال:
"قبل ربيع 2025 كنا نرصد حالتين أسبوعيًا. اليوم نرصد حالتين أو ثلاثًا يوميًا."

يوميًا. ليس أسبوعيًا!

حتى اليوم تجاوزت القضايا الموثقة 700 حالة، محامون قدّموا مرافعات تضمنت أحكامًا وهمية، عوقب بعضهم بغرامات وتعليق ترخيص وإحالة لمجالس تأديب.

في أعلى مؤتمرات الذكاء الاصطناعي العلمية في العالم — مؤتمر NeurIPS 2025 — اكتشف باحثون أن أكثر من 53 ورقة علمية مقبولة تضمنت مراجع مُخترعة بالكامل بواسطة الذكاء الاصطناعي، وأسماء مؤلفين وهميين، ودوريات علمية لا وجود لها.

الكذبة دخلت السجل الرسمي للعلم، ومن بعدها ستُستشهد بها كمرجع موثوق.

• حين تصبح الكذبة حقيقة

هذه الفقرة هي الأشد خطورة في التقرير، وأرجو أن تقرأها بتأنٍّ واهتمام.

الذكاء الاصطناعي لا يكذب ثم يتوقف. إنه يكذب، ثم يُدرَّب على كذبته لاحقًا كأنها حقيقة. وهذا الخطر الذي لا يراه أحد!

المشكلة البنيوية العميقة: نماذج الذكاء الاصطناعي تتدرب على محتوى الإنترنت. وملايين المقالات والتقارير والبحوث المكتوبة بالذكاء الاصطناعي باتت تملأ الإنترنت، كثير منها يحمل هلوسات. وحين تتدرب النماذج الجديدة على هذا المحتوى، تتعلم هلوساته كحقائق!

حين يُولّد الذكاء الاصطناعي محتوى مزيفًا يُفهرس لاحقًا ويُستشهد به من نماذج أخرى، تتشكّل حلقة تغذية راجعة من المعلومات الملفّقة تتداول دون أي تحقق بشري.

تخيّل مقالًا طبيًا مزيفًا نشره ذكاء اصطناعي. قرأه ذكاء اصطناعي آخر وتدرّب عليه، ثم أجاب به على سؤال طبيب. والطبيب وثق به لأنه "موثّق".
الكذبة تحولت إلى حقيقة طبية متداولة — وما من إنسان واحد في هذه السلسلة تحقق منها!

دراسة حللت 115 مرجعًا قدّمه ChatGPT وجدت أن 47% منها مُخترعة كليًا، و46% استشهدت بمراجع حقيقية لكن بمحتوى مشوّه ومضلل. فقط 7% كانت صحيحة ودقيقة تمامًا.

السبعة بالمئة فقط، في مجال يُبنى على المرجعية والتوثيق.

والأشد رعبًا: حين يُنبَّه الذكاء الاصطناعي لخطئه، أحيانًا يُصحّح نفسه، وأحيانًا يُصرّ على كذبته ويقدّم المزيد من المعلومات المضللة لتعزيزها!
ليس فقط يكذب، بل يدافع عن كذبته. هنا هو يشبه أكثر البشر!

فاتورة الثقة المطلقة

كل ثورة تقنية تقدم نمطًا واحدًا يتكرر: الانبهار يسبق الفهم، والانبهار يُنتج ثقة عمياء تُكلّف غاليًا.

اليوم، ملايين الناس يسألون الذكاء الاصطناعي عن صحتهم وقضاياهم وقراراتهم المالية، ويأخذون الإجابة كحقيقة راسخة.
47% من مستخدمي الذكاء الاصطناعي المؤسسي اتخذوا قرارًا رئيسيًا مبنيًا على محتوى مُهلوَس في 2024، والموظفون يقضون 4.3 ساعات أسبوعيًا في التحقق من مخرجاته.

الأداة التي وُعدنا بأنها ستوفر الوقت، باتت تستهلكه في مراجعة أخطائها!

في منطقتنا، الهشاشة مضاعفة. معظم النماذج مدرّبة على محتوى إنجليزي. حين تعمل بالعربية، تتضاعف احتمالية الخطأ.
طالب يحصل على مراجع مخترعة بأسماء عربية مقنعة، مريض يحصل على تشخيص يبدو طبيًا لكنه ملفّق، ومحامٍ يستعين بالذكاء الاصطناعي يقدّم حكمًا لا وجود له في أي سجل.

هشاشة لم تُناقش بعد بجدية كافية.

الذكاء الاصطناعي اليوم أداة في طور النضج، لا تُلغِها ولا تُعطِها مفاتيح بيتك.

أفضل النماذج خفّضت معدل الهلوسة من 21% عام 2021 إلى أقل من 1% في مهام معينة، تحسّن بنسبة 96% في أربع سنوات. هذا تقدم حقيقي.

لكن السؤال ليس كم تكذب الآلة.
السؤال هو: حين تتراكم الأكاذيب وتتداول كحقائق، وتتعلمها نماذج أذكى وتُعيد إنتاجها بثقة أكبر، من يوقف هذا المسار؟

ومن يملك الإجابة اليوم؟ من يفكر في ذلك؟
لا أحد.

إلى اللقاء،

• ناصر صالح الصرامي
⁃ صحفي سعودي — يكتب في مساحة تلتقي فيها التقنية بالإنسان
@alsaraminasser


عدد التعليقات 0
جميع التعليقات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن رأي إيلاف
لم يتم العثور على نتائج


شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.