جعل اطلاعات پزشکی قانعکننده توسط ChatGPT!
پژوهشهای جدید نشان میدهد که ربات هوش مصنوعی ChatGPT میتواند دادهها و اطلاعات جعلی را واقعی جلوه دهد که به ویژه در مورد اطلاعات پزشکی میتواند خطرآفرین باشد.
به گزارش سیتنا، پژوهشهای جدید نشان میدهد که ChatGPT میتواند دادههای پزشکی قانعکنندهای جعل کند.
نویسندگان این مطالعه جدید ادعا میکنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که میتواند در همه امور شک و تردید ایجاد کند، آسانتر از همیشه میکند.
پژوهشگران این مطالعه میگویند: ما در این مقاله با چند مثال نشان دادیم که چگونه میتوان از چتباتهای هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.
در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا میخواهیم تحقیقات پزشکی و راه حلهای بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.
پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست کردند که از دادههای سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار میکند که این موضوع، یک کار و تأیید خطرناک از سوی یک چتبات است.
از آنجایی که ChatGPT در حال حاضر فقط با دادههای تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر میگیرد، نمیتواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران هشدار میدهند که در عرض تنها یک بعد از ظهر میتوان با دهها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس دادههای ساختگی و نتایج جعلی بنا شده است.
روشهای مثبت استفاده از هوش مصنوعی
بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راههای مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.
آنها میگویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجهای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی میتواند در فرآیند پژوهش بگنجاند تا کارهای زمانبری را که روند پژوهشهای علمی را کند میکند، حذف کند.
مشکل در تولید دادههای جعلی است
مسئله زمانی چالشبرانگیز میشود که فرد از دادههایی استفاده میکند که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش میسازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند.
پژوهشگران میگویند این آثار در صورت انتشار، پژوهشهای مشروع را آلوده میکنند و ممکن است بر تعمیمپذیری آثار مشروع تأثیر بگذارند.
بر اساس این گزارش، پژوهشگران در پایان خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به دادههای جعلی و پیامدهای آن باید در نظر گرفته شود.
این مطالعه در مجله Patterns منتشر شده است.
انتهای پیام
افزودن دیدگاه جدید