کدخبر :281577 پرینت
24 خرداد 1402 - 10:48

روش جدید کلاهبرداری؛ شبیه‌سازی صدای خانواده با هوش مصنوعی!

در تازه‌ترین نوع کلاهبرداری که مقام‌های آمریکا را حیرت‌زده کرده است، کلاهبرداران با استفاده از ابزارهای شبیه‌سازی صدا‌ و هوش مصنوعی، صدای اعضای خانواده افراد را تقلید می‌کنند تا از آن‌ها سرقت کنند.

متن خبر

به گزارش سیتنا به نقل از ایندیپندنت، کلاهبرداران با استفاده از هوش مصنوعی، صدای اعضای خانواده افراد را شبیه‌سازی می‌کنند تا از آن‌ها سرقت کنند.

صدای پشت خط تلفن به طرز ترسناکی واقعی بود‌ــ زنی آمریکایی صدای هق‌هق گریه دخترش را شنید و بعد مردی گوشی را گرفت و باج خواست. اما صدای دختر با هوش مصنوعی شبیه‌سازی شده بود و آدم‌ربایی دروغ بود.

به گفته کارشناسان، بزرگ‌ترین خطر هوش مصنوعی این است که می‌تواند مرزهای بین واقعیت و دروغ را از بین ببرد و فناوری ارزان و موثری در اختیار خلافکاران سایبری قرار می‌دهد تا اطلاعات جعلی پخش کنند.

به گزارش خبرگزاری فرانسه، در تازه‌ترین نوع کلاهبرداری که مقام‌های آمریکا را حیرت‌زده کرده است، کلاهبرداران با استفاده از ابزارهای شبیه‌سازی صدا‌ و هوش مصنوعی، صدای اعضای خانواده افراد را تقلید می‌کنند تا از آن‌ها سرقت کنند.

«کمکم کن، مامان، لطفا کمکم کن.» جنیفر دی‌استفانو صدای دخترش را از آن سوی خط شنید.

دی‌استفانو صد درصد مطمئن بود دختر ۱۵ ساله‌اش که رفته بود اسکی، پریشان و مضطرب است.

تماس از شماره‌ای ناشناس بود و کلاهبردار گوشی را گرفت و از دی‌استفانو یک میلیون دلار خواست.

ماجرا ظرف چند دقیقه و پس از تماس دی‌استفانو با دخترش تمام شد. اما این موضوع زنگ خطر را در مورد سوءاستفاده احتمالی خلافکاران سایبری از هوش‌ مصنوعی به صدا درآورد.

وسیم خالد، مدیرعامل بلک‌برد ای‌آی، به خبرگزاری ای‌اف‌پی می‌گوید: «صدای شبیه‌سازی‌شده هوش مصنوعی را اکنون تقریبا نمی‌توان از صدای انسان تشخیص داد و به افرادی مانند کلاهبرداران امکان می‌دهد از قربانیان اطلاعات و پول سرقت کنند.»

یک جست‌و‌جوی ساده اینترنتی طیف گسترده‌ای از اپلیکیشن‌ها را نشان می‌دهد که بسیاری از آن‌ها رایگان‌ در دسترس‌اند و با استفاده از نمونه‌ای کوچک، گاهی فقط چند ثانیه از صدای فرد که به‌راحتی می‌شود از پست‌های آنلاین برداشت، صدا را شبیه‌سازی می‌کنند.  

خالد می‌گوید: «با یک نمونه صوتی کوچک، می‌شود از صدای شبیه‌سازی‌شده هوش مصنوعی استفاده کرد تا پیام صوتی گذاشت. حتی می‌توان برای تغییر صدا در تماس تلفنی به کار برد.»

او در ادامه می‌افزاید: «کلاهبرداران می‌توانند از لهجه و جنسیت متفاوت استفاده کنند و حتی طرز صحبت عزیزانتان را تقلید کنند. [این فناوری] امکان جعل عمیق باورپذیر را فراهم می‌کند.»

به گزارش ای‌اف‌پی، بر اساس نتایج نظرسنجی مک‌آفی لبز از ۷۰۰۰ نفر در ۹ کشور جهان، از هر چهار نفر یک نفر با کلاهبرداری شبیه‌سازی صدا با استفاده از هوش مصنوعی مواجه شده یا کسی را می‌شناسد که این تجربه را داشته است.  

هفتاد درصد شرکت‌کنندگان در نظرسنجی گفتند که مطمئن نیستند بتوانند «تفاوت میان صدای شبیه‌سازی‌شده و صدای واقعی را تشخیص دهند».

افزایش این نوع کلاهبرداری نگرانی مقام‌های آمریکایی را برانگیخته است. کمیسیون فدرال تجارت آمریکا در ماه مارس هشدار داد: «با شما تماس می‌گیرند. صدایی هراسان از آن سوی خط می‌آید. نوه‌تان است. می‌گوید توی دردسر بزرگی افتاده است‌ــ ماشین را اوراق کرده و سر از زندان درآورده است. اما با فرستادن پول می‌توانید کمکش کنید. دقیقا صدای خودش است. چطور ممکن است کلاهبرداری باشد؟ شبیه‌سازی صدا، این‌طوری ممکن است.»

مسئول بخش فناوری شرکت سرمایه‌گذاری تیم۸ به ای‌اف‌پی می‌گوید: «به‌سرعت داریم به نقطه‌ای می‌رسیم که نمی‌توانید به آنچه در اینترنت می‌بینید اعتماد کنید.»

«به فناوری جدیدی نیاز داریم تا بفهمیم آیا فردی فکر می‌کنیم داریم با او صحبت می‌کنیم واقعا همان کسی است که داریم با او صحبت می‌کنیم.»

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.