کدخبر :311314 پرینت
08 آذر 1403 - 09:29

بررسی خطرات امنیتی برنامه‌ های کاربردی هوش مصنوعی

برنامه‌های مبتنی بر هوش مصنوعی ممکن است برخی از نگرانی‌های امنیتی مانند استفاده از آن‌ها برای انتشار اطلاعات گمراه‌کننده، با ایجاد محتوای گمراه‌کننده یا اخبار جعلی ایجاد کنند.

متن خبر

به گزارش سیتنا، برنامه‌هایی مانند Chat GPT که بر هوش مصنوعی متکی هستند، در صورت عدم استفاده یا مدیریت صحیح ممکن است برخی از خطرات امنیتی را ایجاد کنند.

بنابراین، ما از خود برنامه Chat GPT که توسط Open AI توسعه یافته بود، خواستیم تا خطرات امنیتی برنامه‌های مبتنی بر هوش مصنوعی را برای ما نظارت کند.

برنامه «Chat GPT» در پاسخ به مسئله مطرح شده گفت که برنامه‌های مبتنی بر هوش مصنوعی ممکن است برخی از نگرانی‌های امنیتی مانند استفاده از آن‌ها برای انتشار اطلاعات گمراه‌کننده، با ایجاد محتوای گمراه‌کننده یا اخبار جعلی ایجاد کنند.

هوش مصنوعی Chat GPT معتقد است که می‌توان از آن در حملات سایبری مهندسی اجتماعی، با ساخت ایمیل‌های فیشینگ یا تلاش‌های پیچیده فیشینگ استفاده کرد و این حملات را متقاعد کننده‌تر کرد.

به گزارش Chat GPT، اپلیکیشن‌های مبتنی بر هوش مصنوعی می‌توانند داده‌های حساس را در صورت وارد شدن به آن از طریق چت کردن با آن، فاش کنند.

اپلیکیشن Chat GPT معتقد است که استفاده بیش از حد از برنامه‌های هوش مصنوعی در کارهای فکری یا ارتباطی، مهارت کاربر را در توانایی حل مشکلات تضعیف می‌کند.

از خطرات کاربردهای هوش مصنوعی اجتناب کنید.

دسترسی برنامه به داده‌های حساس را محدود کنید.

به افراد آموزش دهید تا از ابزار به طور مسئولانه استفاده کنند و از وارد کردن اطلاعات حساس خودداری کنند.

از تکنیک‌های اضافی برای جلوگیری از ایجاد محتوای مخرب استفاده کنید.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.