کدخبر :288489 پرینت
17 آذر 1402 - 20:32

هشدار محققان؛ اکثر پاسخ‌های چت‌جی‌پی‌تی به سوالات دارویی غلط است!

بررسی‌های محققان دانشکده داروسازی دانشگاه لانگ آیلند آمریکا، نشان می‌دهد که حدود سه چهارم پاسخ‌های ربات هوش مصنوعی چت‌جی‌پی‌تی به سوالات مربوط به داروها غلط یا ناکامل است.

متن خبر

به گزارش سیتنا، بر اساس گزارش فاکس بیزنس، کاربران باید در استفاده از توصیه‌های دارویی این ربات ساخت شرکت OpenAI محتاط باشند.

محققان دانشکده داروسازی دانشگاه «لانگ آیلند» آمریکا با طرح پرسش‌های واقعی، چت‌جی‌پی‌تی را به چالش کشیدند.

این مطالعه که روز سه‌شنبه این هفته در جلسه سالانه انجمن داروسازان آمریکا ارائه شد ۳۹ پرسش را در اختیار هوش مصنوعی چت‌جی‌پی‌تی قرار داد اما در نهایت چت‌جی‌پی‌تی تنها موفق شد برای ۱۰ مورد از این پرسش‌ها پاسخ‌ قانع‌کننده ارائه دهد.

این ربات در مورد ۲۹ پرسش دیگر، پاسخ‌های نامرتبط، نادرست یا ناکامل ارائه کرده است.

همچنین محققان از چت‌جی‌پی‌تی خواستند که رفرنس یا ارجاعات لازم را درباره پاسخ‌های خود ارائه دهد که این سیستم هوش مصنوعی تنها موفق به ارائه ارجاعات برای هشت پاسخ شد.

سارا گراسمن از شرکت «فارم‌دی» و مولف اصلی این کار تحقیقی گفت: افراد حرفه‌ای حوزه بهداشت و درمان و بیماران باید در زمینه استفاده از چت‌جی‌پی‌تی به عنوان یک منبع معتبر برای اطلاعات مرتبط با دارو و درمان محتاط باشند.

به گفته گراسمن، هر کسی که از چت‌جی‌پی‌تی برای کسب اطلاعات مرتبط با دارو و درمان استفاده می‌کند، باید با استفاده از منابع مورد اعتماد این اطلاعات را راستی‌آزمایی و تایید کند.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.