شیوع تماسهای صوتی جعلی با بهره از هوش مصنوعی
کلاهبردارهای تلفنی در حال حاضر ارتشی از نیروی کار ارزان را برای ایجاد یک مرکز تماس تلفنی در اختیار دارند. این افراد زمان زیادی را صرف تلفن زدن به افراد مختلف میکنند. هوش مصنوعی میتواند کار این کلاهبردارها را هم تغییر بدهد که اگر چنین شود، میتوان تأثیر گستردهتر هوش مصنوعی در توسعه این کلاهبرداریها را دید.
به گزارش سیتنا، سرویس فناوری بیبیسی در گزارشی نوشت: اخیرا صدایی ضبط شده در پیغامی به رأیدهندگان آمریکایی گفت: «مهم است که رأی خود را برای انتخابات ماه نوامبر ذخیره کنید.» این صدای ضبطشده، بسیار شبیه صدای جو بایدن بود. اما رأیها نیاز به ذخیره شدن ندارند و این صدا هم صدای جو بایدن نبود. به احتمال زیاد یک صدای شبیهسازیشده (کلون شده) با کیفیت قابل قبول توسط هوش مصنوعی بود.
این اتفاق ترس و نگرانیها در مورد قدرت هوش مصنوعی در تولید صدای تقلبی را بهشدت بالا برد. وقتی برای تحقیق دراینباره به سراغ یک شرکت امنیت سایبری رفتم، فهمیدم این نوع فنّاوری هوش مصنوعی در حال پیشرفت و قویتر شدن است.
قرار شد با تلفن صحبت کنیم. مکالمه ما چنین پیش رفت:
«سلام کریس، من رافا پیلینگ از شرکت سکیور ورکس هستم. بهت زنگ زدم چون برای انجام یک مصاحبه تماس گرفته بودی. حالت چطور است؟»
گفتم ممنون خوب هستم.
پیلینگ گفت: «خیلی عالی کریس. ممنون که تماس گرفتی. تا جایی که فهمیدهام شما به تکنیکهای شبیهسازی صوتی علاقه دارید. درست است؟»
جواب دادم بله همینطور است و نگران سو استفاده از این تکنولوژی هستم.
گفت: «قطعاً همینطور است کریس. من هم همین نگرانیها را دارم. بیا وقت مناسبی برای مصاحبه هماهنگ کنیم.»
اما این آقای پیلینگ واقعی نبود. این نمونه آزمایشی بود که شرکت سکور ورکس برای من به نمایش گذاشته بود تا قابلیتهای سیستم هوش مصنوعی را نشانم بدهند. سیستمی که میتواند به من تلفن بزند و به حرفهای من عکسالعمل نشان بدهد. همچنین میتوانست صدای آقای فیلیپس را تقلید کند.
میلیونها تماس تلفنی
آقای پیلینگ واقعی بعد از شنیدن این تماس تلفنی آزمایشی میگوید: «صدایش کمی شبیه یک استرالیایی است که کمی هم مست باشد. با این وجود به نظرم تشابه خوبی دارد.» تشابه صدا کاملاً قانعکننده نبود. بعضی وقتها مکثهای غیرعادی در جواب به سؤالها وجود داشت که میشد بهراحتی فهمید یک ربات آن طرف خط است.
این تماس تلفنی با استفاده از یک پلتفرم که بهصورت مجانی قابل دسترس است برقرار شد. این پلتفرم میتواند تا میلیونها تماس تلفنی در طول روز برقرار کند و با کارمندان هوش مصنوعی خود که صدای انسانی دارند با میلیونها نفر صحبت کند.
در تبلیغات این پلتفرم آمده است که کاربرد آن برای بازیابی، آمارگیریها و نظرسنجیها تلفنی است.
بن جیکوب، همکار آقای پیلینگ از این تکنولوژی بهعنوان یک نمونه مثالی استفاده کرده بود. شرکت سازنده این پلتفرم به هیچ وجه متهم به کار خلافی نیست و کار خطایی نکرده است. اما خود همین نشان میدهد نسل جدید این تکنولوژی چه قابلیتهایی پیدا کرده است. نقطه قوت این تکنولوژی ایجاد مکالمه بود و تمرکز اصلی آن بر تقلید صدا نیست. اما آقای جیکوب محصول دیگری را هم به ما نشان میدهد که میتواند کپی قابل قبولی از یکصدای بخصوص تولید کند. تنها کافی است قطعه کوچکی از فایل صوتی یک نفر را از روی یوتیوب به این برنامه بدهید.
کلاهبردارهای تلفنی در حال حاضر ارتشی از نیروی کار ارزان را برای ایجاد یک مرکز تماس تلفنی استخدام میکنند. این افراد زمان زیادی را صرف تلفن زدن به افراد مختلف میکنند. هوش مصنوعی میتواند کار این کلاهبردارها را هم تغییر بدهد.
اگر چنین شود، میتوان تأثیر گستردهتری که هوش مصنوعی میتواند داشته باشد را هم دید.
اطلاعات جعلی
امسال سال انتخابات سراسری مهم در کشورهایی مانند بریتانیا، ایالاتمتحده آمریکا و هند است و همزمان نگرانیهای زیادی درباره گسترش صداهای دیپ فیک وجود دارد. دیپ فیک صوتی اصطلاحی است که برای نامیدن صداهایی که به دقت باهوش مصنوعی تقلید شدهاند به کار میرود. صداهایی که میتوانند برای تولید و پراکندن اطلاعات جعلی برای دستکاری نتایج انتخابات دموکراتیک به کاربرده شوند.
سیاستمداران تراز اول در بریتانیا هدف دیپ فیک صوتی قرارگرفتهاند. سیاستمداران دیگری از اسلواکی و آرژانتین هم دچار آن شدهاند. مرکز ملی امنیت سایبری در مورد خطری که دیپ فیکهای تولید شده باهوش مصنوعی میتوانند برای انتخابات بریتانیا ایجاد کنند، هشدار جدی داده است.
لورنا مارتینز در شرکت لاجیکالی فکت کار میکند که تلاش دارد با اطلاعات جعلی در اینترنت مقابله کند. او به بیبیسی میگوید دیپ فیکهای صوتی نه تنها در حال گسترش هستند، تشخیص واقعی یا جعلی بودنشان در مقایسه با دیپ فیکهای تصویری پیچیدهتر است.
او میگوید: «اگر کسی بخواهد دیپ فیک صوتی که ساخته را پنهان کند، راحتتر میتواند این کار را انجام دهد چون تکنولوژی و ابزارهای کمتری برای حقیقتیابی دیپ فیک صوتی در دسترس است.»
آقای پیلینگ میگوید تا شما بخواهید جعلی بودن صدا را افشا کنید، فایل صوتی همه جا پخششده است.
خانم مارتینز که تجربههایی در توئیتر برای کشف اطلاعات جعلی داشته است، میگوید در یک سال آینده، وقتی نصف جمعیت جهان قرار است پای صندوقهای رأی بروند، شرکتهای رسانههای اجتماعی باید کارهای بسیار بیشتری برای مبارزه با اطلاعات جعلی انجام بدهند.
او از تولیدکنندگان تکنولوژیهای هوش مصنوعی خواست «قبل از در دسترس قرار دادن ابزارهایشان به فکر راههایی برای پیشگیری از سو استفاده از آنها باشند نه اینکه بعد از در دسترس قرار گرفتن برنامهها، سعی کنند سو استفادههای پیش آمده را رفع و رجوع کنند. این اتفاقی بود که در مورد چت باتها افتاد.»
کمیته انتخابات که مسئول مراقبت از سلامت انتخابات در بریتانیا است میگوید «فراگیر شدن استفاده از هوش مصنوعی نگرانیهای جدی در مورد اینکه رأیدهندگان در دوران انتخابات به کدامیک از اطلاعاتی که میبینند یا میشنوند میتوانند اعتماد کنند و به کدام نمیتوانند اعتماد کنند ایجاد کرده است.»
این کمیته میگوید با دیگر گروههای ناظر وارد همکاری شده است تا بتوانند فرصتها و خطرهای ناشی از هوش مصنوعی را بهتر درک کنند.
اما سام جفرسون، مؤسس شرکت چه کسی مرا هدف قرار میدهد، که تبلیغات سیاسی را رصد میکند، معتقد است باید به خاطر داشته باشیم که چهارچوب و فرآیندهای دموکراتیک در بریتانیا بسیار محکم و مقاوم هستند.
او میگوید بهتر است با موج بدبینی افراطی که میخواهد القا کند دیپ فیکهای میتوانند ما را به هر نوع اطلاعاتی بیاعتماد کند، مقابله کنیم.
او میگوید: «باید مراقب باشیم آنقدر به مردم درباره هوش مصنوعی هشدار ندهیم که آنها ایمان خود را به چیزهایی که میتوانند به آن اعتماد کنند را از دست بدهند.»
انتهای پیام
افزودن دیدگاه جدید