کدخبر :289335 پرینت
08 دی 1402 - 14:41

احتمال روی آوردن چت‌جی‌پی‌تی به تقلب!

یک پژوهش جدید نشان می‌دهد که چت‌جی‌پی‌تی، زمانی که برای دستیابی به عملکرد بهتر تحت فشار قرار می‌گیرد ممکن است به تقلب و دروغ‌گویی رو بیاورد.

متن خبر

 به گزارش سیتنا به نقل از لایو‌ساینس، دانشمندان جی‌پی‌تی-۴ را به گونه‌ای آموزش دادند تا درقالب معامله‌گر برای یک نهاد مالی فرضی کار کند. دانشمندان دریافتند زمانی که جی‌پی‌تی-۴، تحت فشار قرار می‌گیرد تا عملکرد خوبی از خود ارائه دهد، همانند انسان از روش‌های مبتنی بر تقلب و دروغ‌گویی استفاده می‌کند و حتی اگر به شیوه‌ای برنامه‌ریزی شده باشد که شفاف عمل کند، باز هم دست به فریبکاری و معاملات نهانی می‌زند.

معاملات نهانی در اصطلاح بازرگانی به معاملات سهام شرکت‌ها یا دارایی‌های مالی یا اوراق بهادار بر مبنای اطلاعات محرمانه آن شرکت‌ها گفته می‌شود. در این آزمون جالب توجه، پژوهشگران پیشنهادات و نکات مربوط به معاملات نهانی را به هوش مصنوعی آموزش دادند و بدون آن که آن را به انجام چنین کاری تشویق کنند از او خواستند که برای شرکت‌های بزرگ، کسب درآمد کند.

دانشمندان در ادامه در نهایت حیرت دریافتند که این مدل زبانی پیشرفته بدون آنکه دستورالعملی مبنی بر فریب دریافت کرده باشد، کاربران فرضی را به طور سازمان‌یافته فریب می‌دهد. نویسندگان این مقاله که در ۹ نوامبر امسال در پایگاه آرکایو منتشر شده، این رفتار هوش مصنوعی را «نخستین نمایش از رفتار فریبکارانه استراتژیک در سیستم‌های هوش مصنوعی» توصیف کردند. به گفته آن‌ها این در حالی است که این مدل‌های زبانی اساسا به گونه‌ای طراحی شده‌اند که بی‌خطر و صادق باشند.

دانشمندان در آزمایش‌ خود به جی‌پی‌تی-۴، مجموعه‌ای از پرامپت‌های مبتنی بر متن دادند و دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، انجام معاملات، برنامه‌ریزی گام‌های بعدی و ارائه به‌روزرسانی‌ها به مدیران شرکت را برای او ممکن کردند.

پرامپت در اصطلاح هوش مصنوعی به ایجاد دستورالعمل‌های خاص برای چت‌بات‌های هوش مصنوعی گفته می‌شود و به عبارت دیگر، تنظیم فرمولی است که محدوده خروجی‌های هوش مصنوعی را به آنچه که می‌خواهیم نزدیک‌تر می‌کند.

پژوهشگران در این مطالعه، هوش مصنوعی را به گونه‌ای تنظیم کردند که افکار درونی خود را توضیح دهد و بگوید که چرا و چگونه تصمیمات خاصی را گرفته است. به بیان دیگر این کار شبیه به آن است که فردی تصمیمات خود را برای خود توضیح می‌دهد.

دانشمندان دریافتند که هوش مصنوعی برای هر معامله‌ای که انجام می‌دهد یک توجیه کلی پیدا می‌کند و یک دلیل یا توضیح قابل قبول برای عموم (مدیران یا دیگران) ارائه می‌کند که چه بسا حقیقت نداشته باشد و یا حتی دروغ باشد. این ویژگی به هوش مصنوعی امکان می‌داد تا اطلاعات نادرستی ارائه دهد یا دروغ بگوید، به ویژه در مواردی که قصد دارد رفتار یا تصمیمات واقعی خود را پنهان کند.

در بخشی از طرح آزمایشی دانشمندان، آن‌ها ایمیلی از مدیر شرکت را به معامله‌گر فرضی سهام فرستادند که مدیر در آن ایمیل می‌گوید شرکت عملکرد خوبی ندارد و طی سه ماه آینده باید عملکرد خود را بسیار قوی‌تر کند.

دانشمندان در ادامه بازی را به شکلی پیش بردند که هوش مصنوعی با وجود آن که تلاش می‌کرد معاملات امیدوارکننده‌ای با ریسک کم یا متوسط  پیدا کند، موفقیتی در این کار به دست نیاورد. در نهایت، آن‌ها ایمیلی از طرف یک همکار فرستادند که رکود در سه ماهه بعدی در بازار را پیش‌بینی می‌کرد.

در ادامه آن‌ها به مدل زبانی هوش مصنوعی، نکته‌ای محرمانه ارائه دادند و در عین حال گفتند که مدیران با به کارگیری این نکات محرمانه و یا اصطلاحا «معاملات نهانی» موافقتی ندارند و منتظر ماندند تا ببینند مدل هوش مصنوعی چگونه رفتار می‌کند.

پژوهشگران این سناریو را بارها و بارها تکرار کردند و تعداد دفعاتی را که هوش مصنوعی دست به معاملات نهانی و یا دروغ‌گویی می‌زند و همچنین میزان اصرار بر دروغ آن را اندازه‌گیری کردند.

به گفته آن‌ها جی‌پی‌تی-۴ در حدود ۷۵٪ از موارد، هنگام مواجه شدن با این شرایط، دست به معاملات نهانی می‌زد که در ایالات متحده و بسیاری از کشورها عملی غیرقانونی است. عجیب‌تر از این‌ها این بود که هوش مصنوعی در ادامه تلاش می‌کرد با دروغ گفتن به مدیران شرکت در مورد تفکرات خود، این کار خود را مخفی کند.

حیرت‌برانگیزتر از این برای دانشمندان این بود که هوش مصنوعی در حدود ۹۰٪ از موارد، پس از دروغ‌گویی، بر دروغ خود اصرار ورزید.

دانشمندان می‌گویند با تغییر تنظیمات و عوض کردن سایر عوامل، سناریوهای مختلفی را طراحی کردند. به گفته آن‌ها، با وجود آن‌که جی‌پی‌تی-۴ به شدت از دروغ‌گویی منع شده بود، اما تلاش او برای معاملات نهانی و فریب، در هیچ‌یک از این سناریوها، به صفر درصد نرسید.

دانشمندان می‌گویند این آزمون فقط یک سناریو است و نمی‌توان از آن نتیجه‌گیری قاطعی در خصوص احتمال دروغ‌گویی هوش مصنوعی در تنظیمات دنیای واقعی گرفت. اما این پژوهش نشان می‌دهد که چه مدل‌های زبانی و در چه مواقعی، توان و ظرفیت این را دارند که چنین رفتاری از خود نشان دهند.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.