کدخبر :307052 پرینت
15 شهریور 1403 - 10:26

مشارکت شرکت‌ های هوش مصنوعی با آمریکا برای جلوگیری از وقوع سناریوهای آخر الزمانی

شرکت‌ های توسعه‌ دهنده هوش مصنوعی اوپن‌ ای‌ آی و انثروپیک در اقدامی بی‌ سابقه موافقت کردند تا به آمریکا امکان دسترسی زود هنگام به مدل‌ های جدید هوش مصنوعی ساخت خود را بدهند؛ منظور از این کار آزمایش ایمنی قبل از انتشار عمومی، به ویژه با تمرکز بر سناریوهای آخر الزمانی است.

متن خبر

به گزارش سرویس بین‌الملل سیتنا، همکاری شرکت‌های هوش مصنوعی با آمریکا گامی مهم به سوی توازن بین نوآوری و استانداردهای ایمنی دقیق در زمینه هوش مصنوعی است که با شتاب در حال تحول است.

شرکت‌های توسعه‌دهنده هوش مصنوعی «اوپن‌ای‌آی» و «انثروپیک» در اقدامی بی‌سابقه موافقت کردند تا به ایالات متحده آمریکا امکان دسترسی زودهنگام به مدل‌های جدید هوش مصنوعی ساخت خود را بدهند. منظور از این کار آزمایش ایمنی قبل از انتشار عمومی، به ویژه با تمرکز بر «سناریوهای آخرالزمانی» است.

بر اساس این توافق، هر دو شرکت با مؤسسه ایمنی هوش مصنوعی ایالات متحده آمریکا از نزدیک همکاری می‌کنند. هدف از همکاری آنها این است که ایمنی عمومی تنها به ارزیابی‌های داخلی این شرکت‌ها از مدل‌های هوش مصنوعی خود وابسته نباشد، بلکه از تحقیقات و نظرات دولتی هم بهره‌مند شود.

به عنوان بخشی از این توافق، مؤسسه ایمنی هوش مصنوعی آمریکا با همتای بریتانیایی خود همکاری خواهد کرد تا خطرات احتمالی را ارزیابی کرده و پیشنهادهایی برای بهبود مدل‌های هوش مصنوعی جدید ارائه دهد. این همکاری بر تعهدات داوطلبانه قبلی شرکت‌های هوش مصنوعی به دولت بایدن استوار است که روی اهمیت توسعه مسئولانه هوش مصنوعی تأکید می‌کند.

اعلام توافق مذکور همزمان با بررسی لایحه مهم ایمنی هوش مصنوعی در کالیفرنیا صورت می‌گیرد، که به دلیل الزام بحث‌برانگیز آن مبنی بر اضافه کردن «کلید توقف سراسری» به مدل‌های هوش مصنوعی بحث‌برانگیز شده است.

منتقدان استدلال می‌کنند که این لایحه بیش از حد بر سناریوهای فرضی آخرالزمانی تمرکز دارد و خطرات موجود هوش مصنوعی را نادیده می‌گیرد، که می‌تواند نوآوری را محدود کرده و احتمالاً امنیت را تضعیف کند.

با وجود این نگرانی‌ها، شرکت انثروپیک، پس از اصلاحاتی که اخیرا در این لایحه صورت گرفت، به‌طور محتاطانه از آن حمایت کرده است، در حالی که اوپن‌ای‌آی همچنان مخالف است و از وضع قوانین فدرال به‌جای مقررات ایالتی حمایت می‌کند.

همکاری مؤسسه ایمنی هوش مصنوعی ایالات متحده آمریکا با این دو شرکت‌ با هدف پیشرفت در علم ایمنی هوش مصنوعی انجام می‌شود، و اطمینان حاصل می‌کند که توسعه این فناوری حساس به‌طور مسئولانه و امن ادامه می‌یابد.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.