کدخبر :291214 پرینت
28 بهمن 1402 - 16:37

همکاری شرکت‌های بزرگ فناوری جهان برای جلوگیری از فریب کاربران با هوش مصنوعی

ترس از فریب کاربران با هوش مصنوعی، شرکت‌های «ادوبی»، «آمازون»، «گوگل»، «آی‌بی‌ام»، «متا»، «مایکروسافت»، «اوپن‌آی»، «تیک تاک» و «ایکس» را به همکاری سوق داده است تا روش‌هایی برای شناسایی و طبقه بندی محتوای هوش مصنوعی فریبنده در پلتفرم‌هایشان به کار گیرند.

متن خبر

به گزارش سیتنا به نقل از گاردین، شرکت‌های بزرگ فناوری روز جمعه توافق‌نامه‌ای را امضا کردند که از استفاده از هوش مصنوعی برای مختل کردن انتخابات آزاد در سراسر جهان جلوگیری می‌کند.

مدیران اجرایی شرکت‌های «ادوبی»، «آمازون»، «گوگل»، «آی‌بی‌ام»، «متا»، «مایکروسافت»، «اوپن‌آی» و «تیک تاک» روز جمعه 27 بهمن در کنفرانس امنیتی در مونیخ گرد هم آمدند تا چارچوب جدیدی برای نحوه پاسخگویی به دیپ‌فیک‌های تولیدشده توسط هوش مصنوعی که رای‌دهندگان را فریب می‌دهند، اعلام کنند.

همچنین 12 شرکت دیگر از جمله شرکت «ایکس» متعلق به ایلان ماسک در امضای این قرارداد شرکت داشتند.

در این زمینه نیک کلگ، رئیس امور جهانی «متا» شرکت مادر فیس‌بوک و اینستاگرام گفت: «همه می‌دانند یک شرکت فناوری، یا یک دولت، یا یک سازمان و یا یک جامعه مدنی به تنهایی نمی‌توانند با ظهور این فناوری و احتمال استفاده ناپسند و بد آن مبارزه کنند.»

کلگ توضیح داد: «این توافق تا حد زیادی نمادین است زیرا فایل‌های صوتی و تصویری که با هوش مصنوعی تولید می‌شوند چهره، صدا یا رفتار نامزدهای سیاسی، مقامات انتخاباتی و سایر دست‌اندرکاران کلیدی را جعل کرده و پردازش می‌کند.»

کلگ اظهار داشت، این توافق‌نامه شرکت‌ها را موظف به ممنوعیت یا حذف دیپ فیک‌ها نمی‌کند، بلکه روش‌هایی برای شناسایی و طبقه بندی محتوای هوش مصنوعی فریبنده در پلتفرم‌هایشان استفاده می‌کنند را مشخص می‌کند.

او همچنین افزود که شرکت‌ها فعالانه هرگونه اطلاعاتی در مورد انتشار محتوا یا ویدیوی تقلبی را با یکدیگر به اشتراک می‌گذارند و هنگامی که چنین محتوایی شروع به انتشار کرد، «پاسخ‌های سریع و متناسب» را ارائه می‌دهند.

این در حالی است که نگرانی‌های بین‌المللی در مورد توانایی هوش مصنوعی برای جعل‌سازی به گونه‌ای که قابل شناسایی نیست، افزایش یافته است و تاکنون هیچ مکانیزم یا قوانینی برای مقابله با این اقدامات وجود ندارد.

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.