بازخواست اتحادیه اروپا از غولهای فناوری در مورد خطرات هوش مصنوعی مولد
به دنبال انتشار گسترده تصاویر و ویدئوهای جعلی در هفتههای اخیر، قانونگذاران اتحادیه اروپا نظارت بر شرکتهای بزرگ فناوری از جمله گوگل، فیسبوک و تیکتاک را افزایش داده و از آنها خواستند اطلاعات مربوط به برنامههایی را که برای مهار خطرات ناشی از هوش مصنوعی مولد دارند اعلام کنند.
به گزارش سیتنا و به نوشته خبرگزاری آسوشیتدپرس، موضوع انتشار گسترده و سریع مطالب جعلی تصویری و ویدئویی (دیپفیکها) در روزها و هفتههای اخیر در کانون این درخواست اتحادیه اروپا قرار دارد.
هوش مصنوعی مُوَلِّد نوعی از هوش مصنوعی است که به جای تحلیل دادههای موجود، میتواند محتوای جدید و خلاقانهای مانند متن، تصویر، موسیقی و ویدیو تولید کند.
کمیسیون اروپا، بازوی اجرایی اتحادیه اروپا، پرسشنامههایی در مورد راههایی که هشت پلتفرم و موتور جستجو، شامل بینگ مایکروسافت، اینستاگرام، اسنپ چت، یوتیوب و ایکس (توییتر سابق)، برای کاهش خطرات ناشی از هوش مصنوعی مولد بهکار گرفتهاند، ارسال کردهاست.
این اتحادیه ۲۷ کشوری در حال استفاده از قدرتهای نظارتی جدید بهدست آمده تحت قانون خدمات دیجیتال است. مجموعهای جامع از مقررات که سال گذشته با هدف پاکسازی پلتفرمهای بزرگ آنلاین و ایمن نگهداشتن کاربران، تحت خطر جریمههای سنگین، به اجرا درآمد.
اعضای پارلمان اروپا روز چهارشنبه ۲۳ اسفندماه رسماً «قانون هوش مصنوعی»، اولین مجموعه قوانین جامع جهان برای هوش مصنوعی را تصویب کردند.
تیری برتون، کمیسر بازار داخلی این اتحادیه، در پیامی نوشت: «اروپا اکنون در زمینه هوش مصنوعی استانداردهای جهانی را تعیین میکند.»
به گزارش سیتنا، نقض این قوانین میتواند جریمههایی معادل ۷ درصد از گردش مالی جهانی یک شرکت را در پی داشته باشد. این موضوع باعث نگرانی در غولهای فناوری شدهاست، که در ایالات متحده مقررات مطلوبتری در این حوزه دارند.
کمیسیون اتحادیه اروپا اکنون به دنبال اسناد داخلی است که نشان میدهند شرکتها چگونه ریسکها را بررسی کردهاند و برای کاهش آنها چه اقداماتی انجام دادهاند، به خصوص در مورد چگونگی مواجهه با تأثیر هوش مصنوعی مولد بر همه چیز؛ از فرایندهای انتخاباتی و انتشار محتوای غیرقانونی گرفته تا خشونت جنسیتی و حمایت از خردسالان.
مقامات اروپایی در حال بررسی آمادگی پلتفرمهای فناوری برای مقابله با اطلاعات نادرست و گمراهکنندهای هستند که هوش مصنوعی پشتوانه آنهاست و خود را برای انتخابات اتحادیه اروپا که برای اوایل ژوئن برنامهریزی شده است آماده میکنند.
اتحادیه اروپا در حال بررسی آمادگی پلتفرمهای فناوری برای مقابله با اطلاعات نادرست و گمراهکنندهای هستند که هوش مصنوعی پشتوانه آنهاست.
مقامات کمیسیون گفتند که میخواهند بدانند آیا پلتفرمهای بزرگ آنلاین در صورت انتشار گسترده یک کارزار دروغرسانی دیجیتالی «تأثیرگذار» در لحظات پایانی انتخابات آماده هستند یا خیر.
اتحادیه اروپا خواستار پاسخ شرکتها در مورد محافظتهای انتخاباتی آنها تا ۵ آوریل و در مورد سایر موضوعات تا ۲۶ آوریل شده است.
دروغرسانی در انتخابات با هوش مصنوعی
فناوری هوش مصنوعی که با کمک آن هر فردی با ذرهای تخیل فریبکارانه و یک تلفن همراه میتواند اطلاعات جعلی ولی به ظاهر قانعکننده و مستند تولید کند، به یک خطر جدی برای گمراه کردن مردم جهان در دورههای حساس برگزاری انتخابات بدل شده است.
به گزارش سیتنا، قپیش بل از ورود ابزارهای هوش مصنوعی به بازار، تولید مضامین صوتی و تصویری گمراهکننده و جعلی مستلزم کار گروهی خبره، زمان و پول فراوان بود.
ولی امروز تقریباً هر کسی با استفاده از اپلیکیشنهای رایگان یا بسیار ارزانقیمت شرکتهایی نظیر گوگل و اوپنایآی میتواند مضامین جعلی موسوم به «جعل عمقی» تولید و منتشر کند.
کارشناسان فناوریهای جدید و ناظران سیاسی هشدار میدهند که در انتخاباتهایی که در پیش رو است این تهدید جدیتر خواهد شد.
امروز کاربران با استفاده از اپلیکیشنهای رایگان شرکتهایی نظیر گوگل و اوپنایآی میتواند مضامین جعلی تولید و منتشر کنند.
گزارشی که به سفارش مجمع جهانی اقتصاد (داووس) تهیه شده اطلاعات غلط ایجادشده با کمک هوش مصنوعی را بزرگترین خطر عنقریب در جهان توصیف کرده است.
موجی از اطلاعات غلط و گمراهکننده که در ماههای اخیر در مورد انتخابات در تعدادی از کشورهای اروپایی و آسیایی در شبکههای اجتماعی منتشر شد هشداری است در مورد نقش زیانباری که هوش مصنوعی میتواند در بیش از ۵۰ انتخابات امسال در کشورهای مختلف جهان ایفا کند.
اکثر کارشناسان معتقدند که در مورد تأثیرگذاری مضامین جعلی خلقشده با کمک هوش مصنوعی بر انتخابات، دیگر تردیدی وجود ندارد و اکنون پرسش این است که میزان تأثیرگذاری آن در چه حدی خواهد بود.
همزمان با داغ شدن فضای رقابتها در آستانه انتخابات ریاست جمهوری آمریکا، مدیر افبیآی اخیراً در مورد افزایش این خطر هشدار داد و گفت هوش مصنوعی مولد «تأثیرگذاری مخرب کشورهای دشمن بر انتخابات را تسهیل کرده است.»
به گزارش سیتنا، مضامین جعلی که با کمک این فناوری تولید میشوند ممکن است به نفع یا به ضرر این و آن نامزد تبلیغ کنند، مردم را به سوی یک نامزد و حزب جلب و علیه دیگری تشویق کند یا حتی رایدهندگان را از شرکت در انتخابات منصرف کند. اما به باور کارشناسان بزرگترین تهدید آن برای دموکراسی بیاعتماد کردن مردم به آنچه که میشنوند و میبینند خواهد بود.
کارشناسان معتقدند شرکتهای فناوری دیجیتال توانایی لازم برای پیشگیری از نشر اطلاعات غلط را ندارند و عملکرد آنها در مقابله با این مشکل کند است.
نو بودن و پیچیدگی این فناوری، پیگرد و شناسایی افراد و عوامل دخیل در استفاده از هوش مصنوعی برای دروغرسانی را دشوار میکند. کارشناسان معتقدند دولتها و شرکتهای فناوری دیجیتال هنوز توانایی لازم برای پیشگیری از نشر اطلاعات غلط را ندارند و عملکرد آنها در مقابله با این مشکل کند است.
علاوه بر این، به دلیل پیشرفت سریع فناوری هوش مصنوعی، یافتن راههای مقابله با انتشار مضامین جعلی و گمراهکننده دشوارتر خواهد شد.
تضعیف اعتماد عمومی
یکی از اهداف کارزارهای نشر اطلاعات جعلی ایجاد تردید در سمتگیری و وفاداری نامزدها و احزاب به قطبهای سیاسی و اردوهای جهانی است.
به عنوان چین به استفاده از هوش مصنوعی برای پیشبرد اهداف سیاسی و راهبردی متهم شده است. یک نمونه آن انتشار ویدئوی جعلی راب ویتمن، نایب رئیس جمهوریخواه کمیته نیروهای مسلح مجلس نمایندگان آمریکا در شبکه اجتماعی «تیک تاک» بود که ظاهراً وعده میداد اگر حزب متمایل به غرب در انتخابات تایوان پیروز شود واشینگتن کمکهای نظامی به این کشور را افزایش خواهد داد.
ویتمن حزب کمونیست چین را به تلاش برای مداخله در انتخابات تایوان متهم و ادعا کرد که از «تیک تاک» برای تبلیغات سیاسی استفاده میکند.
کمیسیون فدرال ارتباطات در آمریکا پیامهای تلفنی خلقشده توسط هوش مصنوعی با هدف ترغیب مردم به عدم شرکت در انتخابات را غیرقانونی اعلام کرد.
به همین خاطر، به گزارش آسوشیتدپرس، کمیسیون فدرال ارتباطات در آمریکا پیامهای تلفنی خلقشده توسط هوش مصنوعی با هدف ترغیب مردم به عدم شرکت در انتخابات را غیرقانونی اعلام کرده است.
شرکتهای بزرگ فناوری دیجیتال در آمریکا نیز با هدف پیشگیری از سوءاستفاده از هوش مصنوعی برای مختل کردن انتخابات دموکراتیک در سطح جهان توافقی را امضا کردهاند.
مخدوش کردن واقعیات
به گزارش سیتنا، تشخیص مضامین صوتی جعلی بسیار دشوارتر است چون برخلاف ویدئوها، ردپایی از مضمون دستکاریشده به جا نمیگذارد. یک نمونه آن انتشار فایل صوتی جعلی منتسب به رهبر یک حزب لیبرال در اسلواکی بود که در آن در مورد طرحی برای تقلب در رایگیری و افزایش بهای آبجو صحبت میکرد.
در ماه ژانویه یک فایل صوتی جعلی منتسب به جو بایدن، رئیسجمهور آمریکا، پخش شد که ظاهراً از مردم در ایالت نیوهمپشایر میخواست در انتخابات مقدماتی دو حزب در این ایالت شرکت نکنند. معلوم شد که این فایل صوتی را یک شرکت مشاوره سیاسی منتشر کرده و هدفش تبلیغ در مورد خطرات «جعل عمقی» محصول هوش مصنوعی بوده است.
اتحادیه اروپا از مدتی قبل به شرکتهای بزرگ فناوری دیجیتال اعلام کرده که باید خطر دروغرسانیهای مرتبط با انتخابات را کاهش دهند.
اکثر شرکتهای بزرگ صاحب شبکههای اجتماعی نظیر گوگل و متا اخیراً در یک اقدام داوطلبانه و با امضای توافق مشترکی وعده دادند که از ایجاد اختلال در انتخابات به وسیله ابزارهای هوش مصنوعی جلوگیری کنند.
اما مقابله با انتشار اطلاعات جعلی در شبکه اجتماعی تلگرام که این توافق را امضا نکرده و همه پیامها را کاملاً رمزگذاری میکند، دشوارتر خواهد بود.
انتهای پیام
افزودن دیدگاه جدید