کدخبر :289980 پرینت
26 دی 1402 - 08:10

رئیس مرکز پژوهش‌های مجلس: هوش مصنوعی امکان تحقق شرافت اخلاقی در رسانه را فراهم می‌کند

رئیس مرکز پژوهش های مجلس گفت: هوش مصنوعی با ایجاد ظرفیت در شناخت اخبار جعلی، امکان تحقق شرافت اخلاقی در رسانه ها را فراهم می کند.

متن خبر

به گزارش سیتنا، دکتر بابک نگاهداری در سومین همایش هوش‌مصنوعی و رسانه با محوریت حکمرانی رسانه در عصر هوش‌مصنوعی با اشاره به ظرفیت‌ها و چالش‌های هوش‌مصنوعی، اظهار کرد: برای مواجهه و به‌کارگیری هوش‌مصنوعی باید تدابیر سنجیده و پیشگیرانه را به کار بگیریم.

رئیس مرکز پژوهش‌های مجلس به مخاطرات هوش‌مصنوعی اشاره و تصریح‌کرد: با توجه به اینکه هوش‌مصنوعی، ابزاری داده مبنا بوده و می‌تواند الگوریتم سازی کند، یادگیری و پیش بینی را امکان‌پذیر می‌کند.

وی با بیان اینکه انبوه زیادی داده در زندگی انسان‌ها وجود دارد، گفت: این داده‌ها با قابلیت‌هایی که هوش‌مصنوعی دارد، می‌تواند نظام حکمرانی را در راستای ارتقای کارآمدی، تغییر دهد.

اثرگذاری هوش‌مصنوعی در همه سطوح نظام حکمرانی

نگاهداری گفت: به‌کارگیری هوش‌مصنوعی باعث افزایش بهره‌وری، کیفیت و سرعت در عرصه خدمات خصوصی نیز می‌شود. در واقع همه سطوح نظام حکمرانی تحت‌تأثیر این ابزار قرار خواهد گرفت.

وی ادامه‌داد: تقریباً همه کشورها به‌نحوی با هوش‌مصنوعی ارتباط برقرار کرده‌اند، برخی به‌طور کلی آن را انکار و برخی دیگر بیشتر امور خود را به آن سپرده‌اند. در کشور ما نیز در چند سال اخیر فعالیت‌هایی در این زمینه انجام شده که نظام حکمرانی ما را تحت‌تأثیر قرار داده است.

رئیس مرکز پژوهش‌های مجلس آماری در خصوص پرداختن به هوش‌مصنوعی در دانشگاه‌ها و پژوهشگاه‌ها اشاره کرد و افزود: ۱۷۲ دانشجوی دوره دکتری و ۱۳۵۸ دانشجوی کارشناسی‌ارشد تاکنون در عرصه هوش‌مصنوعی فعالیت کرده‌اند یا آموزش‌دیده‌اند. همچنین ۴۵۲ شرکت دانش بنیان و شش پژوهشگاه یا پژوهشکده به‌طور مستقیم از هوش‌مصنوعی استفاده می‌کنند. بنابراین نیروی انسانی توانمندی در زمینه به‌کارگیری این ابزار در کشور تربیت شده‌است.

مشارکت مرکز پژوهش‌های مجلس در ایجاد قوانین هوش‌مصنوعی

وی به قوانین مصوب شده از سوی مجلس در زمینه هوش‌مصنوعی اشاره کرد و گفت: همچنین نهادهایی مانند شورای عالی انقلاب فرهنگی، نهاد ریاست جمهوری و... بخشی از زیربنای تقنین و اجرایی برای به‌کارگیری هوش‌مصنوعی را ایجاد کرده‌اند.

نگاهداری تصریح‌کرد: بنابراین اگر اراده حکمرانی کشور به‌سمت به‌کارگیری هوش‌مصنوعی حرکت کند، شرایط استفاده از آن از نظر تقنین، نیروی انسانی متخصص و زیرساخت فنی، تا حدودی آماده شده‌است.

وی به چالش‌های ناشی از توسعه فناوری هوش‌مصنوعی در عرصه‌های مختلف اجتماع اشاره کرد و گفت: هوش‌مصنوعی در حوزه کسب و کار، در زمینه شکاف‌های دیجیتالی ناشی از دسترسی به داده، شفافیت و مشارکت بیشتر مردم در عرصه سیاست، اثرگذار خواهد بود.

رئیس مرکز پژوهش‌های مجلس با اشاره به تدوین و انتشار ۱۲ یا ۱۳ گزارش تخصصی در این مرکز در حوزه هوش‌مصنوعی، گفت: آخرین گزارش با عنوان نگاشت نهادی و تقسیم‌کار ملی در حوزه توسعه هوش‌مصنوعی و حکمرانی داده محور بوده است. همچنین باتوجه به اینکه در لایحه برنامه هفتم توسعه، بخشی به هوش‌مصنوعی اختصاص نیافته بود، ما پیشنهاد ایجاد موادی در این برنامه در خصوص این ابزار به کمیسیون تلفیق ارائه داد که در برنامه هفتم گنجانده شد.

ضرورت شفافیت الگوریتم‌های هوش‌مصنوعی

وی با بیان اینکه نیاز است در حوزه رسانه، هوش‌مصنوعی را در نظام تقنین و مقررات تمرکز بیشتری داشته‌باشیم، گفت: در قوانین جدید باید به تضمین شفافیت الگوریتم‌های هوش‌مصنوعی را در عرصه رسانه مورد توجه قرار دهیم. تصمیمات در این زمینه به انتشار و دسترسی به اطلاعات با عدالت و بدون تبعیض ارتباط دارد.

نگاهداری با مسئولیت رسانه‌ها درباره عملکرد هوش‌مصنوعی اشاره کرد و افزود: ممکن است در به‌کارگیری هوش‌مصنوعی در رسانه، اشتباهاتی رخ دهد که برای جبران خسارت و عمل به تعهدات از سوی رسانه‌ها، باید برنامه ریزی صورت گیرد.

وی ادامه‌داد: یکی از چالش‌های مهم هوش‌مصنوعی، نحوه حفظ حریم خصوصی و جلوگیری از استفاده ناخواسته از داده‌های شخصی است. همچنین باید بتوانیم بین مصالح مختلف افراد، آزادی بیان، هویت فرهنگی، حقوق مالکیت فکری و... تعادل برقرار کنیم.

اهمیت حضور بین‌المللی ایران در هوش‌مصنوعی

رئیس مرکز پژوهش‌های مجلس با اشاره به اینکه ضرورت دارد با کشورهای مختلف در زمینه استفاده از هوش‌مصنوعی وارد تعامل شویم، گفت: پیشنهاد ما این است که جمهوری اسلامی ایران در کنسرسیوم‌ها و اجلاس‌های بین المللی حضور جدی داشته‌باشد تا بتوانیم منافع کشورمان را در این حوزه حفظ کنیم.

وی در ادامه به مخاطرات هوش‌مصنوعی در عرصه رسانه اشاره کرد و گفت: هوش‌مصنوعی از الگوریتم‌های ریاضی و آماری استفاده می‌کند درحالیکه تحلیل محتوا در رسانه باید با درک از مفاهیم انسانی باشد. از سوی دیگر آموزش و تمرین مدل‌های هوش‌مصنوعی نیاز به داده‌های وسیع دارد که محدودیت دسترسی به اطلاعات شخصی و خصوصی در این زمینه چالش‌هایی را ایجاد می‌کند.

نگاهداری ادامه‌داد: چالش دیگر به‌کارگیری هوش‌مصنوعی در عرصه رسانه، مداخلات در تحقیقات رسانه‌ای است بنابراین باید قوانین حریم خصوصی، مالکیت فکری و انتشار محتوا در این زمینه به‌درستی رعایت شود.

به‌کارگیری هوش‌مصنوعی برای صیانت از شرافت رسانه‌ای

وی با تأکید بر اینکه باید نگاه تسهیل گر و نوآورانه در عرصه هوش‌مصنوعی داشته‌باشیم، گفت: این ابزار امکاناتی نظیر شناسایی اخبار جعلی و جامعیت بخشی به اطلاعات صحیح را در اختیار رسانه‌ها قرار می‌دهد که ظرفیت قابل توجهی در تحقق شرافت اخلاقی است.

رئیس مرکز پژوهش‌های مجلس ادامه‌داد: صیانت از شرافت‌های اخلاقی در هر حوزه‌ای اهمیت دارد. در حوزه رسانه نیز زمانی می‌توان شرافت رسانه را حفظ کرد که اطلاعات صحیح را در اختیار مردم قرار دهیم.

وی تأکید کرد: نوع و جنس تدبیر ما باید در راستای حفظ شرافت باشد چراکه هر کاری با شرافت زیباست.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.