تلاش متا و اوپنایآی برای جلوگیری از جا زدن تصاویر جعلی هوش مصنوعی به عنوان واقعی
متا و اوپن ایآی هردو میکوشند برای برچسبگذاری تصاویری که هوش مصنوعی تولید کرده راههایی ایجاد کنند، این دو شرکت برچسبهای پنهان یا به شکلی دیگر را اضافه میکنند که باید به افراد امکان بدهد منبع تصویر یا سایر محتواها را ردیابی کند.
به گزارش سیتنا، اوپن ایآی ویژگیهای جدید را به چت جیپیتی و دال-ای۳ (DALL-E3) میافزاید که برچسبی را در فراداده تصویر قرار میدهد که مشخص میکند با هوش مصنوعی ایجاد شده است. در این ویژگی از استاندارد سی۲پیای (C2PA) استفاده خواهد شد و هدفش این است که بتوان اطلاعات بیشتری درمورد نحوه ساخت تصاویر روی آنها قرار داد و شرکتهای دوربین و سایرینی که ابزارهایی برای تولید تصویر میسازند نیز آن را پذیرفتهاند.
اما اوپن ایآی اشاره کرد که این برچسب «چه بهصورت تصادفی یا عمدی بهسادگی حذف میشود» و بنابراین ضمانتی وجود ندارد. مثلا بیشتر سایتهای رسانههای اجتماعی آن ابرداده را حذف میکنند و میتوان با عکس گرفتن از صفحه آن را بهسادگی پاک کرد.
ابزارهای متا قرار است محتوای موجود در فیسبوک، اینستاگرام و تردز را که هوش مصنوعی تولید کرده شناسایی کرده و آنها را برچسبگذاری کنند.
این شرکت بزرگ رسانههای اجتماعی گفت که اکنون درحال ایجاد این قابلیت است و طی «ماههای پیش رو» و پیش از تعدادی از انتخاباتهای بزرگ جهانی در سال جاری آن را در سراسر بسترهای خود عرضه خواهد کرد.
متا هماکنون روی تصاویری که با استفاده از هوش مصنوعی تولید شده برچسبی قرار میدهد، اما گفت قابلیت جدیدش امکان قرار دادن برچسب روی تصاویری را که هوش مصنوعی گوگل، اوپن ایآی، مایکروسافت، ادوب، میدجرنی و شاتراستاک تولید کرده فراهم میکند، این بهمنزله بخشی از تلاش در سطح تمام صنایع برای استفاده از «بهترین روش» و قرار دادن «نشانگرهای نامرئی» روی تصاویر و فرادادههای آن برای کمک به شناسایی آنها بهعنوان تصاویر تولیدشده با هوش مصنوعی خواهد بود.
سر نیک کلگ، معاون سابق نخستوزیر بریتانیا که اکنون رئیس امور بینالملل متا است، توانایی احتمالی افراد شرور برای بهرهبرداری از تصاویر تولیدشده با استفاده از هوش مصنوعی به منظور انتشار اطلاعات نادرست را دلیلی مهم برای معرفی این ویژگی از طرف متا تایید کرد.
او گفت: «این کار اهمیتی ویژه دارد از این رو که احتمالا این فضا در سالهای آینده روزبهروز به فضایی متخاصم تبدیل میشود.»
«افراد و سازمانهایی که بهعمد میخواهند افراد را با محتوای تولید هوش مصنوعی بفریبند، دنبال روشهایی برای دور زدن تدابیر امنیتیاند که برای شناسایی آن به کار گرفته شده است.»
«در سراسر صنعت و بهطور کل جامعهمان باید همواره به دنبال راههایی باشیم تا یک گام پیشتر بمانیم.»
«در این فاصله، مهم است که افراد هنگام تعیین اینکه محتوایی با هوش مصنوعی تولیدشده یا نه چند چیز را درنظر بگیرند، مثلا بررسی کنند که آیا حساب منتشرکننده این محتوا معتبر است یا به دنبال جزئیاتی باشند که ممکن است غیرعادی به نظر برسد یا اینطور نشان بدهد.»
انتهای پیام
افزودن دیدگاه جدید