لماذا تتفاقم هلوسة الذكاء الاصطناعي مع كل تحديث؟

رغم ما يشهده العالم من قفزات نوعية في مجال الذكاء الاصطناعي التوليدي، ورغم الآمال المعقودة عليه في تحسين الإنتاجية وتسهيل الحياة اليومية، إلا أن ظاهرة “هلوسة الذكاء الاصطناعي” لا تزال تمثل إحدى أبرز التحديات التقنية، بل وتزداد تفاقمًا مع كل تحديث جديد لهذه النماذج المتطورة.

ما المقصود بـ”هلوسة الذكاء الاصطناعي”؟

تشير “الهلوسة” في سياق الذكاء الاصطناعي إلى قيام الأنظمة الذكية بإنتاج معلومات غير صحيحة أو مختلقة، وتقديمها بثقة وكأنها حقائق مؤكدة. هذا السلوك لا ينبع من نية خبيثة، بل من الطريقة التي بُنيت بها هذه الأنظمة، والتي تعتمد على التنبؤ الإحصائي وليس على فهم منطقي أو إدراك بشري.

تحديثات قوية… وهفوات أكبر

بحسب تقرير نشرته نيويورك تايمز، فإن التحديثات التي تُجريها شركات مثل OpenAI وجوجل تهدف إلى تقليل نسبة الهلوسة، لكنها – وبشكل مفاجئ – تؤدي أحيانًا إلى زيادتها. فعلى سبيل المثال، سجّل نموذج “o3” من OpenAI نسبة هلوسة بلغت 33% عند اختباره في معيار “PersonQA”، وهي نسبة تمثل ضعف ما سجله النموذج الأقدم “o1”.

أما النسخة المصغّرة الأحدث “o4-mini”، فقد وصلت فيها نسبة الهلوسة إلى 48%، بل وتجاوزت 79% في اختبارات أخرى أكثر عمومية مثل “SimpleQA”. وتؤكد OpenAI في أوراقها البحثية أن هناك حاجة ماسة إلى فهم أعمق لأسباب هذه الظاهرة المتفاقمة.

أمثلة واقعية على الهلوسة

في حادثة حديثة، تسبب روبوت دعم فني تابع لأداة البرمجة Cursor في إثارة غضب المستخدمين عندما أعلن – زيفًا – عن تغيير سياسة استخدام الأداة، زاعمًا أنه لم يعد مسموحًا لهم باستخدام البرنامج على أكثر من جهاز. وبعد التحقق، تبيّن أن الروبوت “اخترع” هذه السياسة من تلقاء نفسه، ما أدى إلى أزمة ثقة.

الأسباب الجذرية للهلوسة

  • تُعزى ظاهرة الهلوسة إلى عدة عوامل تقنية:
  • تدريب على بيانات غير دقيقة أو متناقضة.
  • الاعتماد على الترابطات الإحصائية بدلاً من الفهم الحقيقي.
  • فقدان التوازن المعرفي بسبب تحسين الأداء في مجالات على حساب أخرى.
  • طبيعة النماذج التوليدية التي تبني الجواب على ما “يبدو صائبًا” لا ما هو “صحيح فعلاً”.

وترى الباحثة لورا بيريز-بيلتراشيني، من جامعة إدنبرة، أن هذه الأنظمة، خلال ما يُعرف بفترة “التفكير”، تكون عرضة للوقوع في أخطاء متراكمة، ما يزيد من احتمالية الهلوسة.

خطر محتمل في القطاعات الحساسة

تحذر خبيرة الذكاء الاصطناعي هيلدا معلوف من خطورة هذه الظاهرة في القطاعات عالية الحساسية، مثل الصحة والقانون والتعليم، موضحةً أن الذكاء الاصطناعي لا “يفهم” المعنى كالبشر، بل يولّد إجابات اعتمادًا على الأنماط والاحتمالات.

لماذا تزداد الهلوسة بعد التحديثات؟

يرى الخبير التقني مازن الدكاش أن تفاقم الهلوسة بعد التحديثات يرجع إلى أسباب بنيوية. فالتحديثات غالبًا ما تُركز على تحسين جوانب معينة من أداء النماذج، ما قد يؤدي إلى خلل في التوازن العام للنموذج. كما أن ازدياد قدرة النماذج على توليد نصوص معقدة يجعلها تبدو أكثر إقناعًا، لكن دون تحسين في دقة المعلومات.

ويضيف الدكاش أن استمرار اعتماد البنية المعمارية ذاتها سيجعل هذه الهلوسات أكثر خطورة، خصوصًا مع تطور الذكاء الاصطناعي إلى نماذج قادرة على اتخاذ قرارات تنفيذية.

كيف يمكن تقليل الهلوسة؟

  • تقترح معلوف اعتماد منهج شامل لمعالجة المشكلة، يتضمن:
  • دمج أدوات التحقق من الحقائق داخل الأنظمة الذكية.
  • تحسين قدرة النماذج على التفاعل مع آليات التحقق.
  • فرض رقابة بشرية دائمة في مجالات حساسة.
  • زيادة الوعي العام والمجتمعي بحدود الذكاء الاصطناعي.

خلاصة: حاجة إلى هندسة جديدة

هلوسة الذكاء الاصطناعي ليست خللاً سطحيًا يمكن تلافيه بتحديثات بسيطة، بل هي نتيجة مباشرة لطبيعة عمل هذه الأنظمة. وبالتالي، فإن الحل الحقيقي يكمن في إعادة تصميم الجوانب المعمارية للذكاء الاصطناعي، بحيث لا يكون مجرد صانع محتوى مقنع، بل أيضًا مصدرًا موثوقًا للمعلومة.

OpenAIالذكاء الاصطناعيجوجل
Comments (0)
Add Comment