عجيب ولكنه حقيقي: نماذج OpenAI الجديدة للذكاء الاصطناعي تُخطئ عند التحليل والتفكير

في عصر التكنولوجيا المتقدمة، تبرز نماذج الذكاء الاصطناعي الحديثة التي تقدمها OpenAI مثل o3 وo4-mini كحلول واعدة في العديد من القطاعات. ولكن، ورغم الأداء المذهل الذي يمكن للنماذج أن تحققه، فإنها تعاني من ظاهرة “الهلوَسة”، حيث تقدم معلومات خاطئة أو مختلقة. هذه المشكلة تعد تحديًا جوهريًا في رحلة تطوير هذه النماذج.

ما هي الهلوسة في الذكاء الاصطناعي وكيف تؤثر على نماذج o-series؟

الهلوسة في الذكاء الاصطناعي تشير إلى إصدار النموذج لمعلومات غير دقيقة أو زائفة، مما يقلل من موثوقيته. كمثال على ذلك، قد يقوم النموذج بتقديم روابط غير موجودة، أو ينسب أحداثًا لأشخاص لم تحدث بالفعل. وفقًا لتقرير OpenAI، كشفت اختبارات داخلية أن نموذج o3 يقدم معلومات هالوسة بمعدل 33% من الأسئلة، وهو ضعف معدل الهلوسة في النماذج الأقدم مثل o1 وo3-mini. المفاجأة الأكبر كانت مع نموذج o4-mini الذي سجل معدل هلوسة أعلى وصل إلى 48%. الأسباب الدقيقة لهذا التفاقم ما زالت موضع دراسة، وقد أشير إلى ارتباط الظاهرة بتوسيع نطاق النماذج المنطقية.

تحديات جديدة مع نماذج الذكاء الاصطناعي الحديثة من OpenAI

رغم التحسينات الواضحة في أداء النماذج الحديثة على صعيد الترميز والرياضيات، إلا أنها تُظهر تحديات ملموسة في الحفاظ على دقة وموثوقية معلوماتها. إحدى التجارب أوضحت أن o3 قد يدّعي تنفيذ عمليات برمجية معقدة لم تحدث، ما يشير إلى ضرورة تحسين خوارزميات التعلم بالتعزيز. أحد الباحثين، Neil Chowdhury، يرى أن المشكلة قد ترجع إلى تضخيم أخطاء النماذج عبر التوسيع المستمر. هذه التحديات تجعل استخدامها في مجالات دقيقة كالقانون أو الصحة يتطلب حذرًا إضافيًا.

حلول مقترحة: تحسين دقة الذكاء الاصطناعي لتقليل الهلوسة

من بين الحلول التي تم اقتراحها لتقليل ظاهرة الهلوسة إضافة خاصية البحث الحي عبر الإنترنت في النماذج المتقدمة. على سبيل المثال، تم تطوير GPT-4o المزود بميزة البحث المباشر والذي استطاع تحقيق دقة 90% وفقًا لاختبار SimpleQA. ومع ذلك، فإن تمكين النماذج من الوصول إلى البحث المباشر قد يثير تحفظات بشأن الخصوصية، إذ يتطلب الأمر مشاركة استعلامات البحث مع جهات ثالثة. يعمل الباحثون أيضًا على تطبيق تقنيات تحسين ما بعد التدريب للحد من الأخطاء الناتجة عن التعلم بالتعزيز، مما قد يقلل من نسب الهلوسة بشكل ملموس.

في النهاية، سباق تطوير نماذج الذكاء الاصطناعي يكشف مفارقة كبيرة؛ فكلما تقدمت النماذج لتصبح أكثر تعقيدًا وقدرةً على الاستدلال، تواجه مشاكل أكبر في الدقة والمصداقية. وبالرغم من التطورات المذهلة التي شهدتها الصناعة، تظل الحاجة لتحسين دقة النماذج أكثر إلحاحًا خاصة في المجالات التي تتطلب موثوقية عالية مثل الإعلام والطب والقانون.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top