انتشار ویدیوی جعلی از یک مجری تلویزیونی؛ افزایش نگرانیها از گسترش هوش مصنوعی!
انتشار ویدئویی جعلی از کسنیا تورکوا، مجری روسی یک شبکه تلویزیونی، در فضای مجازی خبرساز شد؛ او در این «دیپفیک» یا ویدئوی ساختگی و غیرواقعی، داخل استودیو با مهمانی درباره نرمافزار معاملات رمزارز گفتوگو میکند!
به گزارش سیتنا، این ویدئوی جعلی که توسط هوش مصنوعی ساخته شده است، بسیار واقعی بهنظر میرسد و مجری از نظر ظاهر، رفتار، و گفتار شباهت فوق العادهای به کسنیا تورکوا دارد.
ویدئوی اخیر نمونه نگرانکنندهای از قابلیت هوش مصنوعی برای ایجاد ویدیوهایی است که در آن مجریان واقعی اخبار در حال گزارش داستانهای جعلی هستند.
به گفته کارشناسان، این پدیده نگرانکننده خطر انتشار اطلاعات نادرست و ایجاد بیاعتمادی به رسانهها را افزایش میدهد.
کسنیا تورکوا در این دیپفیک، به جای خواندن اخبار، در حال تبلیغ یک محصول تجاری است. او وقتی جمعه برای نخستین بار این ویدئو را دید، لحظاتی طول کشید تا متوجه شود که جعلی است.
با این شیوه، سوء استفاده از رسانهها رو به گسترش است؛ تاکتیکی که فراگیر بودن آن باعث نگرانی کارشناسان هوش مصنوعی و اطلاعات نادرست شده است.
این یک ترفند نسبتا جدید است، اما روزنامهنگاران رسانههای خبری از جمله سیبیاس، سیانان، و بیبیسی نیز هدف چنین حملاتی قرار گرفتهاند؛ حملاتی که معمولاً به منظور انتشار اطلاعات نادرست مورد استفاده قرار میگیرد.
این ویدئوی جعلی در حساب فیسبوک آژانس ارتباطات آرژانتینی «دیجیت استودیو» منتشر شد که به نظر میرسد از سال ۱۴۰۰ غیر فعال بوده است.
رئیس جمهوری آمریکا، روز دوشنبه یک فرمان اجرایی را امضا کرد که در آن حفاظهای اولیه برای شرکتهای هوش مصنوعی ایجاد میشود. کاخ سفید امیدوار است که این مقررات جامع، زمینه لازم را برای نظارت بیشتر و جلوگیری از سواستفاده از قابلیت هوش مصنوعی فراهم کند.
انتهای پیام
افزودن دیدگاه جدید