دردسرهای هوش مصنوعی؛ نشانگذاری «دیپ فیکها» برای انتخابات سراسر جهان
«دیپفیک» [جعل عمیق] صوت، تصویر و فیلمهایی درباره افراد و مکانها و موقعیتهای واقعی است که توسط هوش مصنوعی برای فریب مخاطب تولید میشود. شرکتهای فناوری به منظور جلوگیری از تاثیرگذاری دیپفیکها روی انتخاباتهای پیش رو در سراسر جهان، شروع به نشانگذاری آنها کردهاند.
به گزارش سیتنا، این اقدامات تاکنون جسته گریخته بودهاند، و کارشناسان نگرانند که مبادا پلتفورمهای رسانههای اجتماعی برای مدیریت هرج و مرج ناشی از هوش مصنوعی در طول انتخابات گسترده جهانی در سال 2024 آماده نباشند.
«طبقهبندیکننده تشخیص تصویر هوش مصنوعی» شرکت «اوپنایآی» از ابزارهایی بود که اخیراً در این راستا معرفی شد. به ادعای این شرکت، ابزار مذکور میتواند 98 درصد از خروجیهای هوش مصنوعی از مولد تصویر پیچیده خود به نام DALL-E 3 را شناسایی کند. این ابزار همچنین حدود 5 تا 10 درصد از تصاویر تولید شده توسط سایر مدلهای هوش مصنوعی را نشانگذاری میکند.
به گفته اوپنایآی، طبقهبندیکننده یک پاسخ باینری درست/نادرست ارائه میکند که احتمال تولید تصویر هوش مصنوعی توسط DALL·E 3 را نشان میدهد. از این ابزار میتوان برای نمایش خلاصه محتوای ساده استفاده کرد، که تأیید میکند این محتوا با ابزار هوش مصنوعی تولید شده است، و همچنین شامل فیلدهایی است که برنامه یا دستگاه و ابزار هوش مصنوعی مورد استفاده را نشانگذاری میکند.
اوپنایآی برای توسعه این ابزار چندین ماه وقت صرف کرد تا ابردادههای مقاوم در برابر دستکاری را به همه تصاویر ایجاد شده و ویرایش شده توسط DALL·E 3 اضافه کند، که میتواند برای تشخیص منبع محتوا استفاده شود. ابزار آشکارساز این ابردادهها را میخواند و تصاویر جعلی را نشانگذاری میکند.
البته این راه حل جامع نیست، زیرا ابردادهها را میتوان حذف کرد، و همچنین میتوان بدون این اطلاعات محتوای فریبنده ایجاد کرد. با این حال، نمیتوان به آسانی این اطلاعات را جعل کرد یا تغییر داد و آن را به منبع اعتمادسازی آنلاین تبدیل کرد.
انتهای پیام
افزودن دیدگاه جدید