موریس ۲؛ کرم هوش مصنوعی که رایانهها را آلوده و دیتاها را سرقت میکند!
پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساختهاند که میتواند با نفوذ به پست الکترونیکی افراد، بدافزار پخش کند و دادهها را بدزدد.
به گزارش سیتنا به نقل از ایندیپندنت، پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساختهاند که قادر است با نفوذ به ایمیل افراد، بدافزار پخش کند و دادهها را بدزدد.
این کرم رایانهای با توجه به [نام] نخستین کرم رایانهای که گروه بینالمللی آمریکایی و رژیم صهیونیستی به قصد برجسته کردن خطرهای مرتبط با هوش مصنوعی مولد (GenAI) در سال ۱۹۸۸ ساخته بود، موریس ۲ (Morris II) نام گرفت.
این کرم طراحی شده است تا برنامههای کاربردی مجهز به هوش مصنوعی را که از ابزارهای پرطرفداری مانند جمینی (Gemini) گوگل و چت جیپیتی (ChatGPT) اوپن ایآی استفاده میکنند، هدف قرار بدهد. این کرم تاکنون برای حمله به دستیارهای ایمیل مجهز به هوش مصنوعی مولد به منظور سرقت اطلاعات شخصی و راهاندازی کارزارهای ارسال هرزنامه (spam) آزمایش شده است.
پژوهشگران هشدار دادند این کرم نشاندهنده نسل جدید «بدافزار صفر [بدون] کلیک» است، چرا که لازم نیست قربانی روی چیزی کلیک کند یا حتی آن را تکثیر کند تا فعالیت مخرب فعال شود. بلکه با عملکرد خودکار ابزار هوش مصنوعی مولد انجام میشود.
پژوهشگران نوشتند: «این مطالعه نشان میدهد که مهاجمان میتوانند چنین دستوراتی را بهعنوان ورودی به مدلهای هوش مصنوعی مولد بدهند تا مدل را وادار کنند این ورودی را بهمنزله خروجی (تکثیر) تکرار و در فعالیتهای مخرب (بار محاسباتی/payload) شرکت کند.»
«افزون بر این، ورودیها این عامل [نرمافزار یا دستگاه] را وادار میکنند با بهرهبرداری از ارتباط درونی اکوسیستم هوش مصنوعی مولد، آنها را به عوامل جدید تحویل بدهد (تکثیر کند).»
این پژوهش در مطالعهای با عنوان «کامپرومایزد (ComPromptMized): پخش کردن کرمهای صفرکلیک که برنامههای کاربردی مبتنی بر هوش مصنوعی مولد را هدف قرار میدهد» با جزئیات شرح داده شده است.
پژوهشگران امنیتی از زمان آغاز به کار چت جیپیتی در سال ۲۰۲۲ به احتمال استفاده هکرها و مجرمان سایبری از برخی عناصر هوش مصنوعی مولد برای حمله اشاره کرده بودند.
قابلیت این فناوری برای تقلید واقعگرایانه از متن تولیدی انسان موجب میشود افراد غیربومی بتوانند برای تولید پست الکترونیکی و متنهای جعلی متقاعدکننده، از آن استفاده کنند.
شرکت امنیت سایبری کرادسترایک (CrowdStrike) در گزارش سالانه «تهدید جهانی» (Global Threat Report) خود که ماه گذشته منتشر شد، هشدار داد پژوهشگران فعالانی رخنهگر [هکتیویست] و فعالانی دولتی را مشاهده کردهاند که با ابزارهایی مانند چت جیپیتی آزمایش میکنند.
یک نماینده شرکت در پست الکترونیکی به ایندیپندنت نوشت: «هوش مصنوعی مولد [میتواند] حملات را عمومیسازی و سد ورود عملیاتهای پیچیدهتر را کوتاهتر کند.» احتمالا در سال ۲۰۲۴ از هوش مصنوعی مولد برای فعالیتهای سایبری استفاده خواهد شد، چون محبوبیت این فناوری همچنان رو به افزایش است.»
انتهای پیام
افزودن دیدگاه جدید