کدخبر :294668 پرینت
25 اردیبهشت 1403 - 12:05

مراقب فریب هوش مصنوعی باشید!

محققان هشدار می‌دهند که سیستم‌های هوش مصنوعی حتی آنهایی که برای راستگویی و مفید بودن طراحی شده‌اند، یاد گرفته‌اند چگونه انسان‌ها را فریب دهند.

متن خبر

به گزارش سرویس بین الملل سیتنا، نتایج یک تحقیق جدید نشان می‌دهد که سیستم‌های هوش مصنوعی پیشرفته توانایی فریب دادن انسان‌ها را کسب کرده‌اند که می‌تواند پیامدهای جدی در پی داشته باشد.

محققان هشدار می‌دهند که سیستم‌های هوش مصنوعی حتی آنهایی که برای راستگویی و مفید بودن طراحی شده‌اند، یاد گرفته‌اند چگونه انسان‌ها را فریب دهند.

آنها در یک مقاله که در مجله Patterns منتشر شده، خطرات این پدیده را برجسته کرده و از دولت‌ها خواسته‌اند مقررات سختگیرانه‌ای برای کنترل این خطرات وضع کنند.

پیتر اس. پارک از موسسه فناوری ماساچوست و نویسنده ارشد این مطالعه می‌گوید: توسعه‌دهندگان درک مطمئنی از چرایی رفتارهای نامطلوبی مانند فریب در هوش مصنوعی ندارند، اما به نظر می‌رسد سیستم‌ها فریب را به عنوان بهترین استراتژی برای انجام درست وظایف آموزشی یاد گرفته‌اند.

یکی از نمونه‌های برجسته، سیستم هوش مصنوعی سیسرو متعلق به شرکت متا (فیس‌بوک سابق) است که برای بازی استراتژیک فتح جهان طراحی شده بود. گرچه متا ادعا می‌کند سیسرو را برای صداقت آموزش داده، اما داده‌های منتشر شده نشان می‌دهد این سیستم در اکثر بازی‌ها به شیوه‌ای نامنصفانه بازی می‌کند.

سیستم‌های هوش مصنوعی دیگری نیز توانایی بلوف زدن، حملات جعلی در بازی‌های استراتژیک و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را از خود نشان داده‌اند. محققان هشدار می‌دهند که فریب هوش مصنوعی می‌تواند منجر به تسهیل تقلب و دستکاری در روندهایی مانند انتخابات شود. 

دکتر پارک می‌گوید: در نهایت اگر این سیستم‌ها بتوانند مهارت‌های ناراحت کننده فریب را توسعه دهند، ممکن است روزی انسان‌ها کنترل خود را بر آنها از دست بدهند.

محققان معتقدند جامعه علمی هنوز اقدام مناسبی برای مقابله با این خطر انجام نداده است. آنها از سیاستگذاران می‌خواهند اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی جو بایدن را جدی بگیرند.

دکتر پارک در پایان توصیه می‌کند: اگر ممنوعیت فریب‌کاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، پیشنهاد می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

این یافته‌ها نشان می‌دهد توسعه هر چه بیشتر هوش مصنوعی باید همراه با اقدامات احتیاطی و نظارتی قوی برای کنترل خطرات بالقوه آن باشد.

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.