کدخبر :250395 پرینت
05 آبان 1399 - 16:13

۱۳ شرکت فناوری جهت دفاع از هوش مصنوعی متخاصم دست به کار شدند

یک سازمان تحقیقاتی با همکاری مایکروسافت و ۱۱ شرکت فناوری چارچوبی را برای مقابله با حملات متخاصم که به سیستم های هوش مصنوعی وارد می شود، فراهم کرده اند.

متن خبر

به گزارش مهر به نقل از اینترنت آو تینگز، شرکت مایکروسافت با همکاری سازمان تحقیقاتی MITRE چارچوبی برای کمک به کارشناسان امنیت سایبری جهت مقابله با حملات به مدل های هوش مصنوعی فراهم کرده اند.

این چارچوب «ماتریکس تهدید یادگیری ماشینی متخاصم» (Adversarial ML Threat Matrix) نام دارد و در گیت هاب فراهم است. علاوه بر مایکروسافت و MITRE یازده شرکت دیگر نیز در این پروژه با آنها همکاری می کنند.

درهمین راستا MITRE دربیانیه ای رسمی در وب سایت خود نوشت: باهمکاری مایکروسافت، بوش، آی بی ام، انویدیا، ایرباس، دیپ اینستینک، تو سیکس لبز، دانشگاه تورنتو، دانشگاه کاردیف، دانشگاه کارنگی ملون، پرایس واترهاوسکوپرز و انستیتو ماشین یادگیری بری ویل این چارچوب را عرضه می کند تا در شناسایی، هشدار و پاسخ به تهدیدها علیه سیستم‌های یادگیری ماشینی (ML) به تحلیلگران کمک کند.

مایکروسافت در وبلاگ خود اعلام کرد طی ۴ سال گذشته با افزایش قابل توجه حملات به سیستم های ML تجاری روبرو بوده است. گزارش های بازاری ماتریکس تهدید ناشی از یادگیری ماشینی متخاصم قرار است تیم‌های امنیتی را تقویت کند.

این ماتریکس مجموعه ای از رفتارهای خصمانه و آسیب پذیری‌هایی را در بردارد که شرکت مایکروسافت و MIRTE طی سال‌ها مشاهده کرده‌اند.

مایکروسافت در پستی در وبلاگ خود گفت: متوجه شده ایم مهاجمان هنگام حمله به یک سیستم یادگیری ماشینی از ترکیبی از «تکنیک‌های سنتی» مانند فیشینگ در کنار تکنیک‌های یادگیری ماشینی متخاصم استفاده می‌کنند.

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.