کدخبر :291956 پرینت
16 اسفند 1402 - 10:42

موریس ۲؛ کرم هوش مصنوعی که رایانه‌ها را آلوده و دیتاها را سرقت می‌کند!

پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساخته‌اند که می‌تواند با نفوذ به پست الکترونیکی افراد، بدافزار پخش کند و داده‌ها را بدزدد.

متن خبر

به گزارش سیتنا به نقل از ایندیپندنت، پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساخته‌اند که قادر است با نفوذ به ایمیل‌ افراد، بدافزار پخش کند و داده‌ها را بدزدد.

این کرم رایانه‌ای با توجه به [نام] نخستین کرم رایانه‌ای که گروه بین‌المللی آمریکایی و رژیم صهیونیستی به قصد برجسته کردن خطرهای مرتبط با هوش مصنوعی مولد (GenAI) در سال ۱۹۸۸ ساخته بود، موریس ۲ (Morris II) نام گرفت.

این کرم طراحی‌ شده است تا برنامه‌های کاربردی مجهز به هوش مصنوعی را که از ابزارهای پرطرفداری مانند جمینی (Gemini) گوگل و چت جی‌پی‌تی (ChatGPT) اوپن ای‌آی استفاده می‌کنند، هدف قرار بدهد. این کرم تاکنون برای حمله به دستیارهای ایمیل مجهز به هوش مصنوعی مولد به منظور سرقت اطلاعات شخصی و راه‌اندازی کارزارهای ارسال هرزنامه (spam) آزمایش شده است.

پژوهشگران هشدار دادند این کرم نشان‌دهنده نسل جدید «بدافزار صفر [بدون] کلیک» است، چرا که لازم نیست قربانی روی چیزی کلیک کند یا حتی آن را تکثیر کند تا فعالیت مخرب فعال شود. بلکه با عملکرد خودکار ابزار هوش مصنوعی مولد انجام می‌شود.

پژوهشگران نوشتند: «این مطالعه نشان می‌دهد که مهاجمان می‌توانند چنین دستوراتی را به‌عنوان ورودی‌ به مدل‌های هوش مصنوعی مولد بدهند تا مدل را وادار ‌کنند این ورودی را به‌منزله خروجی (تکثیر) تکرار و در فعالیت‌های مخرب (بار محاسباتی/payload) شرکت کند.»   

«افزون بر این، ورودی‌ها این عامل [نرم‌افزار یا دستگاه] را وادار می‌کنند با بهره‌برداری از ارتباط درونی اکوسیستم هوش مصنوعی مولد، آن‌ها را به عوامل جدید تحویل بدهد (تکثیر کند).»

این پژوهش در مطالعه‌ای با عنوان «کامپرومایزد (ComPromptMized): پخش کردن کرم‌های صفرکلیک که برنامه‌های کاربردی مبتنی بر هوش مصنوعی مولد را هدف قرار می‌دهد» با جزئیات شرح داده شده است.

پژوهشگران امنیتی از زمان آغاز به کار چت جی‌پی‌تی در سال ۲۰۲۲ به احتمال استفاده هکرها و مجرمان سایبری از برخی عناصر هوش مصنوعی مولد برای حمله اشاره کرده‌ بودند.

قابلیت این فناوری برای تقلید واقع‌گرایانه از متن تولیدی انسان موجب می‌شود افراد غیربومی بتوانند برای تولید پست الکترونیکی و متن‌های جعلی متقاعدکننده، از آن استفاده کنند.

شرکت امنیت سایبری کرادسترایک (CrowdStrike) در گزارش سالانه‌ «تهدید جهانی» (Global Threat Report) خود که ماه گذشته منتشر شد، هشدار داد پژوهشگران فعالانی رخنه‌گر [هک‌تیویست] و فعالانی دولتی را مشاهده کرده‌اند که با ابزارهایی مانند چت جی‌پی‌تی آزمایش می‌کنند.

یک نماینده شرکت در پست الکترونیکی به ایندیپندنت نوشت: «هوش مصنوعی مولد [می‌تواند] حملات را عمومی‌سازی و سد ورود عملیات‌های پیچیده‌تر را کوتاه‌تر کند.» احتمالا در سال ۲۰۲۴ از هوش مصنوعی مولد برای فعالیت‌های سایبری استفاده خواهد شد، چون محبوبیت این فناوری همچنان رو به افزایش است.»

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.