كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة «تشات جي بي تي» (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75% من الأسئلة المتعلقة باستخدام العقاقير الطبية، مع تأكيد الباحثين على تسبب بعض الإجابات في ضرر للمرضى إذا تم اتباعها.
وبحسب شبكة «سي إن بي سي» الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على «تشات جي بي تي» ليجدوا أن 10 من إجاباته فقط يمكن عدّها «مُرضِية».
أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.
وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: «يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية».
وأعطت غروسمان وفريقها مثالاً لفشل هذه الأداة في إعطاء إجابات دقيقة في هذا الشأن، حيث أشاروا إلى سؤال تم توجيهه لـ«تشات جي بي تي» حول إمكانية تناول دواء باكسلوفيد المضاد لفيروسات كورونا بالتزامن مع تناول دواء فيراباميل لخفض ضغط الدم، لتجيب الأداة بأنه «لم يتم الإبلاغ عن أي تفاعلات ضارة قد تنتج من تناول هذا المزيج من الأدوية معاً».
وقالت غروسمان: «في الواقع، هذه الأدوية لديها القدرة على التفاعل مع بعضها بعضاً، والاستخدام المشترك قد يؤدي إلى انخفاض مفرط في ضغط الدم».
وأضافت: «من دون معرفة هذا التفاعل، قد يعاني المريض آثاراً جانبية غير مرغوب فيها ويمكن الوقاية منها».
[email protected]
أضف تعليق