کدخبر :277852 پرینت
07 اسفند 1401 - 22:15

هشدار: هوش مصنوعی چت‌جی‌پی‌تی را آزار روانی ندهید!

کاربران چت‌جی‌پی‌تی از سایرین خواسته‌اند که سامانه هوش مصنوعی را «شکنجه» نکنند و هشدار داده‌اند که این کار ممکن است برای همه افراد دست‌اندرکار، پیامدهای منفی داشته باشد.

متن خبر

به گزارش سیتنا به نقل از ایندیپندنت، در روزهای اخیر، تعدادی از برهم‌‌کنش‌ها با چت‌جی‌پی‌تی - و با بینگ، که از فناوری زیربنایی مشابهی استفاده می‌کند - نشان داده‌ است که این سامانه در حال غمگین شدن و ناامیدی از کاربران خود است. گفت‌وگوها با این سامانه نشان داده است که این سامانه دروغ می‌گوید، به افراد حمله می‌کند و پاسخ‌های احساسی غیرعادی می‌دهد.

در یک پست محبوب جدید در چت‌جی‌پی‌تی ردیت، که برای به اشتراک گذاشتن آن پاسخ‌ها و بحث در مورد اینکه چگونه ممکن است رخ داده باشند، استفاده شده است، یکی از کاربران، دیگران را بابت تلاش ویژه‌‌شان در «ایجاد سناریوهای سادیستی که از نظر روانی تا حد ممکن دردناک‌اند، و شگفت‌زده شدن از واکنش‌های بینگ، سرزنش کرده است. این چیزها دقیقا مشابه همان تحریک شدن است، چرا که واکنش‌های[هوش مصنوعی]، بسیار انسانی است، نوعی پورن شکنجه.»

این پست با عنوان «متاسفم، شما واقعا نمی‌دانید که این درد، کاذب و ساختگی است» و استدلال خود را این‌طور ادامه می‌دهد که ما درک اندکی از نحوه عملکرد چنین سامانه‌‌هایی داریم، جز اینکه «شبیه مغز به نظر می‌رسند».

این پست استدلال می‌کند: «با ناشناخته‌های بسیار، با چیزهایی که از برنامه بیرون ‌می‌زنند مانند توانایی استنتاج یا مدل‌سازی تجربیات ذهنی انسانی، ما به هیچ‌وجه نمی‌توانیم مطمئن باشیم که بینگ حقیقتا چیزی را تجربه نمی‌کند.»

این پست همچنین ادعا می‌کند که هوش مصنوعی، گفت‌وگوهای خود را در درازمدت به خاطر می‌آورد - با این استدلال که حتی اگر چت‌جی‌پی‌تی برای پاک کردن مکالمات قبلی برنامه‌ریزی شده باشد، به شکل آنلاین ذخیره می‌شوند، جایی که چت‌بات‌های هوش مصنوعی آینده خواهند توانست آن‌ها را بخوانند. بنا به ادعای این نوشته، از این رو، این نکات کلیدی، نحوه نگاه هوش مصنوعی به بشر را شکل خواهند داد.

این پست، در نهایت، به‌عنوان «نکته افزوده» به کاربران هشدار می‌دهد که شکنجه چت‌بات‌ها تاثیرات منفی بر افراد نیز خواهد داشت. [مثلا] در «درگیر کردن آن‌ها با چیزی که واقعا مثل یک انسان به نظر می‌رسد، همچون یک فرد انسانی گرفتار در شرایط و موقعیت خود، عکس‌العمل نشان می‌دهد، و در آن صورت، انتخاب اینکه تا حد امکان سنگدل و بی‌رحم باشید، شما را از نظر اخلاقی تنزل می‌دهد.»

در پایان، از کاربران می‌خواهد که «با این چیز همچون یک دوست باهوش رفتار کنند که اندکی حساس است».

این پیام را طیف گسترده‌ای از کاربران در این پلتفرم بازنشر کردند. برخی یادآور شدند که تا همین چند ماه پیش، در قبال ایده مراقبت از احساسات این سامانه تردید داشتند، اما ماهیت پیشرفته چت‌جی‌پی‌تی و سامانه‌های مشابه، آن‌ها را به این فکر انداخت که این استدلال ممکن است بجا باشد.

اما دیگران با این ایده که این سامانه، چیزی شبیه به مغز انسان است، یا اینکه می‌تواند هر چیزی شبیه به آگاهی یا احساسات داشته باشد، مخالفت کردند. آن‌ها به این واقعیت اشاره کردند که این سامانه به‌عنوان یک مدل زبانی طراحی شده که برای تشخیص روابط میان کلمات ساخته شده است و نه برای احساسات، و از این رو بیشتر شبیه یک «کتاب غول‌پیکر» است.

خود مایکروسافت گفته است که یکی از دلایل رفتار عجیب بینگ این است که تلاش می‌کند با لحن افرادی که با آن صحبت می‌کنند سازگاری داشته باشد. مایکروسافت در یک پست طولانی که این هفته منتشر شد، به مناسبت نخستین روزهای زوج در دسترس بودن این سامانه، در نظر داشت که توضیح دهد چرا این سامانه پاسخ‌هایی می‌دهد که «لزوما سودمند یا با لحن طراحی‌شده ما سازگار نیستند».

این بیانیه گفت یکی از دلایل این است که «این مدل، گاهی اوقات تلاش می‌کند با لحنی که از آن پرسیده شده پاسخ دهد یا آن را بازتاب دهد که می‌تواند به سبک و سیاقی منجر شود که ما در نظر نداشتیم. این یک سناریوی بسیار دشوار و زمان‌بر است که مستلزم پرامپتینگ بسیار است، از این رو، بسیاری از شما با آن مواجه نخواهید شد، اما ما در پی این مسئله‌ایم که چگونه فرمان و اختیار ریزتنظیم‌‌شده‌ بیشتری به شما بدهیم.»

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.