لا تفهم كالبشر
من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن “هلوسة الذكاء الاصطناعي” ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا “تفهم” المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة “الاحتمالية” لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة “هلوسة الذكاء الاصطناعي” تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم.
لماذا يهلوس الذكاء الاصطناعي؟
وبحسب معلوف فإن “هلوسة الذكاء الاصطناعي” تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على “الارتباطات الإحصائية”، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل “التعلم من ملاحظات البشر”، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها.
ما الحلول المتوفرة؟
وشددت معلوف على أن معالجة “هلوسة الذكاء الاصطناعي” تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية.