اليوم الأخبارية - متابعة
رغم تسارع التطورات في مجال الذكاء الاصطناعي التوليدي، وانتشار استخدام هذه التكنولوجيا في شتى القطاعات، نظراً لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلا أن هذه التقنية تعاني من خلل يزداد حدة مع كل تحديث تخضع له.
فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ"هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها.
وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي.
الهلوسة تزداد مع التحديثات
وبحسب تقرير أعدته "صحيفة نيويورك تايمز" ، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون.
رغم تسارع التطورات في مجال الذكاء الاصطناعي التوليدي، وانتشار استخدام هذه التكنولوجيا في شتى القطاعات، نظراً لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلا أن هذه التقنية تعاني من خلل يزداد حدة مع كل تحديث تخضع له.
فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ"هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها.
وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي.
هلوسة مستعصية
ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها.
ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة.
بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها.
لا تفهم كالبشر
من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم.
لماذا يهلوس الذكاء اصطناعي؟
وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها.
ما الحلول المتوفرة؟
وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية.
لماذا تتفاقم "الهلوسة" بعد التحديثات؟
من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة.
هلوسات المستقبل أخطر
وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".