کدخبر :278974 پرینت
14 فروردین 1402 - 09:54

کلاهبرداری‌ مدرن با صدای جعلی ساخت هوش مصنوعی

متخصصان علوم رایانه‌ای بر این باورند که شبیه‌سازی جعلی صدا توسط هوش مصنوعی عملا کار دشواری نیست و این نرم‌افزارها برای یک جعل تمیز و بی‌ نقص، به در اختیار داشتن صداهای بسیاری از افراد نیاز ندارند.

متن خبر

به گزارش سیتنا، تصور کنید تماسی تلفنی از یکی از اعضای خانواده دریافت می‌کنید که صدایش ناراحت به نظر می‌رسد و از شما درخواست پول می‌کند اما کمی بعد، می‌فهمید که این تماس و صدایی که شنیده‌اید جعلی بوده و از شما کلاهبرداری شده است. به بیان دیگر، متوجه می‌شوید این تماس هرگز از طرف آن‌ها نبوده، بلکه صدایی جعلی ساخته هوش مصنوعی بوده است.

این طرح یک رمان علمی‌تخیلی نیست؛ همین حالا هم چنین چیزی برای هزاران نفر به واقعیت تبدیل شده است. سوفیا خاتسنکوا در گزارشی که اخیرا نوشت، نمونه‌هایی از تولیدات این فناوری جدید شبیه‌سازی صوتی را که آمیزه‌ای از یادگیری عمیق و جعل است، شرح داد.

او می‌نویسد: شما با پرداخت چند یورو بیشتر، می‌توانید از این شرکت‌ها بخواهید یک صدا را با چنان کیفیتی جعل کنند که بتوان با آن، دیگران را متقاعد کرد و فریب داد.

یکی از نمونه‌های اخیر که در فضای مجازی بسیار بازنشر شد، این بود که کاربران انجمن آنلاین 4chan صدای اما واتسون، بازیگر بریتانیایی را در حال خواندن کتاب «نبرد من» آدولف هیتلر جعل و شبیه‌سازی کردند.

آن‌ها برای این جعل صدا از ابزاری به نام پرایم ویس استفاده کردند که شرکت نو‌آفرین ایلون‌لبز (ElevenLabs) آن را ساخته بود. مثال دیگری از بی‌نقص و دقیق بودن این فناوری نمونه شبیه‌سازی صوتی است که صدای لئوناردو دی‌کاپریو در حال سخنرانی در سازمان ملل متحد را تقلید می‌کرد.

اینک کارشناسان بسیاری از این موضوع ابراز نگرانی کرده‌اند. نخست اینکه از این فناوری ممکن است برای پخش اطلاعات نادرست استفاده شود. به عنوان مثال، این فناوری ممکن است کاری کند مردم باور کنند یک سیاستمدار اظهارات تکان‌دهنده‌ای بیان کرده است. خطر دیگر این فناوری هم این است که می‌تواند در کلاهبرداری از افراد، به‌خصوص افراد مسن، به کار گرفته شود.

متخصصان علوم رایانه‌ای بر این باورند که شبیه‌سازی جعلی صدا عملا کار چندان دشواری نیست. متیو رایت، مدیر بخش علوم رایانه‌ای موسسه فناوری روچستر، گفت که این نرم‌افزارها برای یک جعل تمیز و بی‌نقص، به در اختیار داشتن صداهای بسیاری از افراد نیاز ندارند.

به گفته او، برای مثال شما می‌توانید فقط با افراد تماس بگیرید و وانمود کنید فروشنده‌اید و با همین مکالمه، به اندازه کافی صدای فرد مقابل را ضبط کنید. متیو رایت اشاره می‌کند که شاید این تنها چیزی باشد که آن‌ها برای کلاهبرداری از دیگران به آن نیاز دارند.

اخیرا یک روزنامه‌نگار وب‌سایت وایس، با استفاده از شبیه‌سازی صدای خود با هوش مصنوعی موفق شد به حساب بانکی‌اش نفوذ کند. در واقع این روزنامه‌نگار بانک را فریب داد تا بانک او را با صاحب حساب اشتباه بگیرد و به تراکنش‌های او دسترسی پیدا کند؛ موضوعی که امنیت سامانه‌‌های تایید صوتی را زیر سوال می‌برد.

شرکتی که فایل صوتی شبیه‌سازی شده اما واتسون را تولید کرده بود، اعلام کرد که هزینه خدمات و عضویتش را افزایش می‌دهد و تایید هویت کاربران به صورت غیرماشینی انجام می‌شود. با این حال، کارشناسان هشدار می‌دهند که برای جلوگیری از چنین کلاهبرداری‌هایی در آینده باید قوانینی وضع شوند.

کارشناسان پیش از هرچیز پیشنهاد می‌کنند افراد باید مراقب تماس‌های غیرمنتظره و فوری برای درخواست پول از طرف عزیزان یا محل کارشان باشند.

به گفته رایت، شما باید از آن‌ها تعدادی سوال شخصی بپرسید تا بتوانید هویتشان را تایید کنید: «سعی کنید از منابع و کانال‌های متفاوتی استفاده کنید؛ مثلا بهانه‌ای بیاورید و بگویید که خودتان با آن‌ها تماس خواهید گرفت. بعد با شماره‌ تلفنی که از آن‌ها دارید، با این افراد تماس بگیرید. اگر آن‌ها شماره تلفن موردنظر را جعل کرده باشند، طبیعی است که از شما تماسی دریافت نخواهند کرد.»

به طور کلی به این فکر کنید که برای مثال، آیا واقعا منطقی است که رئیستان از شما بخواهد ۱۰ کارت هدیه ۲۵۰ دلاری بخرید؟ احتمالا نه!

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.