کدخبر :292336 پرینت
24 اسفند 1402 - 22:32

بازخواست اتحادیه اروپا از غول‌های فناوری در مورد خطرات هوش مصنوعی مولد

به دنبال انتشار گسترده تصاویر و ویدئوهای جعلی در هفته‌های اخیر، قانون‌گذاران اتحادیه اروپا نظارت بر شرکت‌های بزرگ فناوری از جمله گوگل، فیس‌بوک و تیک‌تاک را افزایش داده و از آنها خواستند اطلاعات مربوط به برنامه‌هایی را که برای مهار خطرات ناشی از هوش مصنوعی مولد دارند اعلام کنند.

متن خبر

به گزارش سیتنا و به نوشته خبرگزاری آسوشیتدپرس، موضوع انتشار گسترده و سریع مطالب جعلی تصویری و ویدئویی (دیپ‌فیک‌ها) در روزها و هفته‌های اخیر در کانون این درخواست اتحادیه اروپا قرار دارد.

هوش مصنوعی مُوَلِّد نوعی از هوش مصنوعی است که به جای تحلیل داده‌های موجود، می‌تواند محتوای جدید و خلاقانه‌ای مانند متن، تصویر، موسیقی و ویدیو تولید کند.

کمیسیون اروپا، بازوی اجرایی اتحادیه اروپا، پرسشنامه‌هایی در مورد راه‌هایی که هشت پلتفرم و موتور جستجو، شامل بینگ مایکروسافت، اینستاگرام، اسنپ چت، یوتیوب و ایکس (توییتر سابق)، برای کاهش خطرات ناشی از هوش مصنوعی مولد به‌کار گرفته‌اند، ارسال کرده‌است.

این اتحادیه ۲۷ کشوری در حال استفاده از قدرت‌های نظارتی جدید به‌دست آمده تحت قانون خدمات دیجیتال است. مجموعه‌ای جامع از مقررات که سال گذشته با هدف پاکسازی پلتفرم‌های بزرگ آنلاین و ایمن نگه‌داشتن کاربران، تحت خطر جریمه‌های سنگین، به اجرا درآمد.

اعضای پارلمان اروپا روز چهارشنبه ۲۳ اسفندماه رسماً «قانون هوش مصنوعی»، اولین مجموعه قوانین جامع جهان برای هوش مصنوعی را تصویب کردند.

تیری برتون، کمیسر بازار داخلی این اتحادیه، در پیامی نوشت: «اروپا اکنون در زمینه هوش مصنوعی استانداردهای جهانی را تعیین می‌کند.»

به گزارش سیتنا، نقض این قوانین می‌تواند جریمه‌هایی معادل ۷ درصد از گردش مالی جهانی یک شرکت را در پی داشته باشد. این موضوع باعث نگرانی در غول‌های فناوری شده‌است، که در ایالات متحده مقررات مطلوب‌تری در این حوزه دارند.

کمیسیون اتحادیه اروپا اکنون به دنبال اسناد داخلی است که نشان می‌دهند شرکت‌ها چگونه ریسک‌ها را بررسی کرده‌اند و برای کاهش آنها چه اقداماتی انجام داده‌اند، به خصوص در مورد چگونگی مواجهه با تأثیر هوش مصنوعی مولد بر همه چیز؛ از فرایندهای انتخاباتی و انتشار محتوای غیرقانونی گرفته تا خشونت جنسیتی و حمایت از خردسالان.

مقامات اروپایی در حال بررسی آمادگی پلتفرم‌های فناوری برای مقابله با اطلاعات نادرست و گمراه‌کننده‌ای هستند که هوش مصنوعی پشتوانه آنهاست و خود را برای انتخابات اتحادیه اروپا که برای اوایل ژوئن برنامه‌ریزی شده است آماده می‌کنند.

اتحادیه اروپا در حال بررسی آمادگی پلتفرم‌های فناوری برای مقابله با اطلاعات نادرست و گمراه‌کننده‌ای هستند که هوش مصنوعی پشتوانه آنهاست.

مقامات کمیسیون گفتند که می‌خواهند بدانند آیا پلتفرم‌های بزرگ آنلاین در صورت انتشار گسترده یک کارزار دروغ‌رسانی دیجیتالی «تأثیرگذار» در لحظات پایانی انتخابات آماده هستند یا خیر.

اتحادیه اروپا خواستار پاسخ شرکت‌ها در مورد محافظت‌های انتخاباتی آنها تا ۵ آوریل و در مورد سایر موضوعات تا ۲۶ آوریل شده است.

دروغ‌رسانی در انتخابات با هوش مصنوعی

فناوری هوش مصنوعی که با کمک آن هر فردی با ذره‌ای تخیل فریبکارانه و یک تلفن همراه می‌تواند اطلاعات جعلی ولی به ظاهر قانع‌کننده و مستند تولید کند، به یک خطر جدی برای گمراه کردن مردم جهان در دوره‌های حساس برگزاری انتخابات بدل شده است.

به گزارش سیتنا، قپیش بل از ورود ابزارهای هوش مصنوعی به بازار، تولید مضامین صوتی و تصویری گمراه‌کننده و جعلی مستلزم کار گروهی خبره، زمان و پول فراوان بود.

ولی امروز تقریباً هر کسی با استفاده از اپلیکیشن‌های رایگان یا بسیار ارزان‌قیمت شرکت‌هایی نظیر گوگل و اوپن‌ای‌آی می‌تواند مضامین جعلی موسوم به «جعل عمقی» تولید و منتشر کند.

کارشناسان فناوری‌های جدید و ناظران سیاسی هشدار می‌دهند که در انتخابات‌هایی که در پیش رو است این تهدید جدی‌تر خواهد شد.

امروز کاربران با استفاده از اپلیکیشن‌های رایگان شرکت‌هایی نظیر گوگل و اوپن‌ای‌آی می‌تواند مضامین جعلی تولید و منتشر کنند.

گزارشی که به سفارش مجمع جهانی اقتصاد (داووس) تهیه شده اطلاعات غلط ایجادشده با کمک هوش مصنوعی را بزرگ‌ترین خطر عنقریب در جهان توصیف کرده است.

موجی از اطلاعات غلط و گمراه‌کننده که در ماه‌های اخیر در مورد انتخابات در تعدادی از کشورهای اروپایی و آسیایی در شبکه‌های اجتماعی منتشر شد هشداری است در مورد نقش زیانباری که هوش مصنوعی می‌تواند در بیش از ۵۰ انتخابات امسال در کشورهای مختلف جهان ایفا کند.

اکثر کارشناسان معتقدند که در مورد تأثیرگذاری مضامین جعلی خلق‌شده با کمک هوش مصنوعی بر انتخابات، دیگر تردیدی وجود ندارد و اکنون پرسش این است که میزان تأثیرگذاری آن در چه حدی خواهد بود.

همزمان با داغ شدن فضای رقابت‌ها در آستانه انتخابات ریاست جمهوری آمریکا، مدیر اف‌بی‌آی اخیراً در مورد افزایش این خطر هشدار داد و گفت هوش مصنوعی مولد «تأثیرگذاری مخرب کشورهای دشمن بر انتخابات را تسهیل کرده است.»

به گزارش سیتنا، مضامین جعلی که با کمک این فناوری تولید می‌شوند ممکن است به نفع یا به ضرر این و آن نامزد تبلیغ کنند، مردم را به سوی یک نامزد و حزب جلب و علیه دیگری تشویق کند یا حتی رای‌دهندگان را از شرکت در انتخابات منصرف کند. اما به باور کارشناسان بزرگ‌ترین تهدید آن برای دموکراسی بی‌اعتماد کردن مردم به آنچه که می‌شنوند و می‌بینند خواهد بود.

کارشناسان معتقدند شرکت‌های فناوری دیجیتال توانایی لازم برای پیشگیری از نشر اطلاعات غلط را ندارند و عملکرد آنها در مقابله با این مشکل کند است.

نو بودن و پیچیدگی این فناوری، پیگرد و شناسایی افراد و عوامل دخیل در استفاده از هوش مصنوعی برای دروغ‌رسانی را دشوار می‌کند. کارشناسان معتقدند دولت‌ها و شرکت‌های فناوری دیجیتال هنوز توانایی لازم برای پیشگیری از نشر اطلاعات غلط را ندارند و عملکرد آنها در مقابله با این مشکل کند است.

علاوه بر این، به دلیل پیشرفت سریع فناوری هوش مصنوعی، یافتن راه‌های مقابله با انتشار مضامین جعلی و گمراه‌کننده دشوارتر خواهد شد.

تضعیف اعتماد عمومی

یکی از اهداف کارزارهای نشر اطلاعات جعلی ایجاد تردید در سمت‌گیری و وفاداری نامزدها و احزاب به قطب‌های سیاسی و اردوهای جهانی است.

به عنوان چین به استفاده از هوش مصنوعی برای پیشبرد اهداف سیاسی و راهبردی متهم شده است. یک نمونه آن انتشار ویدئوی جعلی راب ویتمن، نایب رئیس جمهوری‌خواه کمیته نیروهای مسلح مجلس نمایندگان آمریکا در شبکه اجتماعی «تیک تاک» بود که ظاهراً وعده می‌داد اگر حزب متمایل به غرب در انتخابات تایوان پیروز شود واشینگتن کمک‌های نظامی به این کشور را افزایش خواهد داد.

ویتمن حزب کمونیست چین را به تلاش برای مداخله در انتخابات تایوان متهم و ادعا کرد که از «تیک تاک» برای تبلیغات سیاسی استفاده می‌کند.

کمیسیون فدرال ارتباطات در آمریکا پیام‌های تلفنی خلق‌شده توسط هوش مصنوعی با هدف ترغیب مردم به عدم شرکت در انتخابات را غیرقانونی اعلام کرد.

به همین خاطر، به گزارش آسوشیتدپرس، کمیسیون فدرال ارتباطات در آمریکا پیام‌های تلفنی خلق‌شده توسط هوش مصنوعی با هدف ترغیب مردم به عدم شرکت در انتخابات را غیرقانونی اعلام کرده است.

شرکت‌های بزرگ فناوری دیجیتال در آمریکا نیز با هدف پیشگیری از سوءاستفاده از هوش مصنوعی برای مختل کردن انتخابات دموکراتیک در سطح جهان توافقی را امضا کرده‌اند.

مخدوش کردن واقعیات

به گزارش سیتنا، تشخیص مضامین صوتی جعلی بسیار دشوارتر است چون برخلاف ویدئوها، ردپایی از مضمون دستکاری‌شده به جا نمی‌گذارد. یک نمونه آن انتشار فایل صوتی جعلی منتسب به رهبر یک حزب لیبرال در اسلواکی بود که در آن در مورد طرحی برای تقلب در رای‌گیری و افزایش بهای آبجو صحبت می‌کرد.

در ماه ژانویه یک فایل صوتی جعلی منتسب به جو بایدن، رئیس‌جمهور آمریکا، پخش شد که ظاهراً از مردم در ایالت نیوهمپشایر می‌خواست در انتخابات مقدماتی دو حزب در این ایالت شرکت نکنند. معلوم شد که این فایل صوتی را یک شرکت مشاوره سیاسی منتشر کرده و هدفش تبلیغ در مورد خطرات «جعل عمقی» محصول هوش مصنوعی بوده است.

اتحادیه اروپا از مدتی قبل به شرکت‌های بزرگ فناوری دیجیتال اعلام کرده که باید خطر دروغ‌رسانی‌های مرتبط با انتخابات را کاهش دهند.

اکثر شرکت‌های بزرگ صاحب شبکه‌های اجتماعی نظیر گوگل و متا اخیراً در یک اقدام داوطلبانه و با امضای توافق مشترکی وعده دادند که از ایجاد اختلال در انتخابات به وسیله ابزارهای هوش مصنوعی جلوگیری کنند.

اما مقابله با انتشار اطلاعات جعلی در شبکه اجتماعی تلگرام که این توافق را امضا نکرده و همه پیام‌ها را کاملاً رمزگذاری می‌کند، دشوارتر خواهد بود.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.