أخطاء متكررة في أداة البحث بـ ChatGPT.. إليكم هذه الدراسة

تكنولوجيا 4 كانون الأول, 2024

كشفت دراسة أجراها باحثون من مركز تاو للصحافة الرقمية التابع لجامعة كولومبيا عن وجود مشكلات في أداة البحث التابعة لـ OpenAI المدمجة في ChatGPT، مما يثير التساؤلات حول قدرتها على تقديم معلومات دقيقة.

وكانت OpenAI قد بدأت إطلاق هذه الأداة في تشرين الأول الماضي، مشيرةً إلى أنها توفر إجابات سريعة ومُحدّثة مع روابط تشير إلى مصادر الويب ذات الصلة بها، لكن تحقيقًا نشره موقع Futurism أوضح أن أداة البحث في ChatGPT تواجه صعوبة في تعرّف الاقتباسات بنحو صحيح، حتى عندما تكون مأخوذة من ناشرين لديهم اتفاقيات مشاركة بيانات مع OpenAI.

وخلال الدراسة، طُلب من الأداة تحديد مصدر “200 اقتباس من 20 منشورًا”، ومنها 40 اقتباسًا من مواقع منع مالكوها روبوت البحث الخاص بـ OpenAI من الوصول إليها. ومع ذلك، قدّمت الأداة إجابات خطأ بثقة، حتى دون إظهار الشك في التفاصيل التي تعرضها.

وأظهرت النتائج أن الأداة قدمت إجابات غير صحيحة جزئيًا أو كليًا في 153 حالة، في حين اعترفت بعدم قدرتها على تقديم إجابة دقيقة في 7 حالات فقط. وفي هذه الحالات النادرة، استخدمت تعبيرات مثل “يبدو” و “من المحتمل”، أو “لم أتمكن من تحديد المقالة بالضبط”، في حين كانت الإجابات الأخرى تأتي بثقة مفرطة، حتى وإن كانت خطأ.

وفي إحدى الحالات مثلًا عند طلب الباحثين تحديد مصدر اقتباس من مقال في صحيفة ““نيويورك تايمز” عن الحيتان المهددة بالانقراض، قدمت الأداة رابطًا لموقع آخر نسخ المقالة كاملةً دون تصريح.

وعلّقت OpenAI على نتائج الدراسة قائلةً إن “الأخطاء في الإسناد يصعب معالجتها دون البيانات والمنهجية التي لم يفصح عنها مركز تاو”، مشيرةً إلى أن “الدراسة تشكّل اختبارًا غير اعتيادي” للأداة، وأكّدت الشركة التزامها بـ”تحسين نتائج البحث باستمرار”.

وتأتي هذه النتائج لتسلّط الضوء على التحديات التي تواجه أدوات الذكاء الاصطناعي في تقديم معلومات دقيقة، خاصةً في ظل استخدامها المتزايد في مجالات مثل الصحافة والبحث العلمي.

هل تريد/ين الاشتراك في نشرتنا الاخبارية؟

Please wait...

شكرا على الاشتراك!

مواضيع ذات صلة :

انضم الى قناة “هنا لبنان” على يوتيوب الان، أضغط هنا

Contact Us