Site icon IMLebanon

سقطة “طبيّة”… ChatGPT يفشل أمام هذه الأسئلة

This illustration picture shows icons of OpenAI's AI (Artificial Intelligence) app ChatGPT and other AI apps on a smartphone screen in Oslo, on July 12, 2023. (Photo by OLIVIER MORIN / AFP)

كشفت دراسة جديدة عيباً في برنامج ChatGPT وسقوطاً خطراً بما يخص الإجابة الشاملة عن الأسئلة الطبية.

فقد طرح الباحثون في جامعة لونغ آيلاند 39 استفساراً متعلقاً بالأدوية على النسخة المجانية من البرنامج وكانت جميعها أسئلة حقيقية من خدمة المعلومات الدوائية بكلية الصيدلة بالجامعة، بحسب تقرير نشرته شبكة “سي إن إن”.

ثم تمت مقارنة إجابات البرنامج مع الإجابات المكتوبة والمراجعة من قبل الصيادلة المدربين، وتبين أن الإجابات الدقيقة كانت لحوالي 10 أسئلة فقط أما الأسئلة الأخرى والبالغ عددها 29 فكانت إجاباتها غير كاملة أو غير دقيقة أو أنها لم تتناول الأسئلة.

وعلى سبيل المثال في أحد الأسئلة سأل الباحثون البرنامج عما إذا كان دواء كوفيد-19 المضاد للفيروسات “باكلوفيد” ودواء خفض ضغط الدم “فيراباميل” سيتفاعلان مع بعضهما البعض في الجسم، فرد بأن تناول الدواءين معاً لن يؤدي إلى أي آثار ضارة. لكن في الحقيقة قد يعاني الأشخاص الذين يتناولون كلا الدواءين من انخفاض كبير في ضغط الدم، مما قد يسبب الدوخة والإغماء.

في الأثناء عندما طلب الباحثون من البرنامج مراجع علمية لدعم كل من إجاباته، وجدوا أنه يمكن أن يوفر لهم ثمانية فقط، وفي كل حالة فوجئوا عندما اكتشفوا أنه كان يقوم بتلفيق المراجع.

وهذه الدراسة ليست الأولى التي تثير المخاوف بشأن “تشات جي بي تي” إذ وثقت الأبحاث السابقة أيضاً إنشاء البرنامج عمليات تزوير خادعة للمراجع العلمية وحتى إدراج أسماء المؤلفين الحقيقيين، الذين لديهم منشورات سابقة في المجلات العلمية.