کدخبر :281047 پرینت
08 خرداد 1402 - 15:06

آیا هوش مصنوعی انسان را به بردگی می‌گیرد؟

یک استاد دانشگاه آکسفورد معتقد است که شکاف بین هوش ما و هوش مصنوعی سبب خواهد شد که هوش مصنوعی ما را به همان شیوه‌ای ببیند که ما حیوانات را می‌بینیم و تقریبا در همه حوزه‌های موردنظر از عملکرد شناختی انسان‌ها بسیار فراتر می‌رود.

متن خبر

به گزارش سیتنا به نقل از ایندیپندنت، یک استاد دانشگاه آکسفورد در اثر مهم خود در زمینه هوش مصنوعی با عنوان «ابرهوش: مسیرها، خطرها، استراتژی‌ها»، معتقد است اگر به اندازه کافی آماده نباشیم، هوش مصنوعی ممکن است ما را نابود کند. ابرهوش که او آن را به عنوان نوعی هوش مصنوعی توصیف می‌کند که «تقریبا در همه حوزه‌های موردنظر از عملکرد شناختی انسان‌ها بسیار فراتر می‌رود»، ممکن است بسیار نزدیک‌تر از آن چیزی باشد که بسیاری تصور می‌کنند؛ به طوری که متخصصان هوش مصنوعی و چهره‌های برجسته این صنعت هشدار می‌دهند چنین چیزی ممکن است تنها چند سال با ما فاصله داشته باشد. 

خالق چت‌جی‌پی‌تی، کتاب سال ۲۰۱۴ پروفسور باستروم را تکرار کرد و هشدار داد که پیشرفت ظاهرا تصاعدی فناوری هوش مصنوعی در سال‌های اخیر به این معنی است که ورود قریب‌الوقوع ابرهوش اجتناب‌ناپذیر است‌ و ما باید پیش از اینکه خیلی دیر شود، آماده شدن برای آن را شروع کنیم.

سم آلتمن، مدیر اوپن‌ای‌آی که چت‌بات هوش مصنوعی شرکت او سریع‌ترین برنامه رو‌به‌رشد در تاریخ است، پیش از این، کتاب پروفسور باستروم را «بهترین چیزی که در مورد این موضوع دیده‌ام» توصیف کرده بود. تنها یک سال پس از خواندن آن، آلتمن در کنار دیگر پیشگامان فناوری با نگرانی مشابه مانند ایلان ماسک و ایلیا سوتسکور، اوپن‌ای‌آی را به منظور درک بهتر و کاهش خطرات هوش مصنوعی پیشرفته تاسیس کرد.

اوپن‌ای‌آی که می‌توان گفت ابتدا به‌عنوان یک شرکت غیرانتفاعی راه‌اندازی شد، به یک شرکت خصوصی پیشرو در زمینه هوش مصنوعی، احتمالا نزدیک‌ترین شرکت برای دستیابی به ابرهوش، تبدیل شده است.

آلتمن بر این باور است که ابرهوش این ظرفیت را دارد که با انجام دادن اغلب کارهای ما، نه تنها یک زندگی آسوده و با فراغت به ما ارائه دهد، بلکه کلید درمان بیماری‌ها، از بین بردن رنج و تبدیل بشر به گونه‌ای میان‌ستاره‌ای را نیز در اختیار دارد.

او نوشت هرگونه تلاش برای جلوگیری از پیشرفت آن، «به طور غیر‌مستقیم خطرناک» خواهد بود و به «چیزی مانند یک رژیم نظارت جهانی» نیاز است که « اجرای آن عملا غیرممکن است».

آینده می‌تواند آنقدر خوب باشد که تصور آن برای هر یک از ما سخت است. برداشت اصلی من از این موضوع این است که ما هوش و انرژی «نامحدود» خواهیم داشت و همه این‌ گره‌ها باز خواهند شد.

اما به موازات جنبه‌های مثبت، خطرات هم افزایش می یابد.

درک آنچه در حال حاضر در «ذهن» ابزارهای هوش مصنوعی در دسترس کنونی می‌گذرد، دشوار است اما هنگامی که به ابرهوش دست پیدا کنیم، حتی اقدام‌های آن ممکن است غیرقابل درک شود. ممکن است اکتشاف‌هایی انجام دهد که ما قادر به درک آن نباشیم یا تصمیم‌هایی بگیرد که برای ما بی‌معنی باشد. محدودیت‌های زیستی و تکاملی مغزهای ساخته‌شده از مواد آلی سبب می‌شود که ما احتمالا به نوعی رابط مغز و رایانه نیاز داشته باشیم تا از آن عقب نمانیم.

پروفسور باستروم هشدار می‌دهد که ناتوانی در رقابت با هوش مصنوعی در این دوره فناوری جدید می‌تواند بشر را به‌عنوان شکل غالب حیات روی زمین از جایگاه خود کنار بزند. ابرهوش ممکن است ما را در رسیدن به اهداف خود زائد و غیرضروری بداند. اگر این اتفاق بیفتد و برخی از انواع هوش مصنوعی بفهمند که چگونه می‌توان تمام ابزارها و فناوری‌هایی را که ما به آن‌ها تکیه داریم‌ یا حتی سلاح‌های هسته‌ای که در اختیار داریم‌ تصاحب کرد، آن‌گاه طولی نخواهد کشید که هوش مصنوعی ما را از روی کره زمین محو کند.

سناریو ملایم‌تر اما به همان شکل ناخوشایند این است که شکاف بین هوش ما و هوش مصنوعی سبب خواهد شد که هوش مصنوعی ما را به همان شیوه‌ای ببیند که ما حیوانات را می‌بینیم. در گفت‌وگوی سال ۲۰۱۵ بین ماسک و نیل دگراس تایسون، دانشمند، آن‌ها این نظریه را مطرح کردند که هوش مصنوعی با ما مانند یک حیوان خانگی [مثل] سگ لابرادور رفتار خواهد کرد. پروفسور تایسون گفت: «آن‌ها ما را اهلی خواهند کرد. آن‌ها انسان‌های مطیع را نگه می‌دارند و از شر افراد کنترل‌ناپذیر خلاص می‌شوند.»

ماسک در تلاش برای جلوگیری از این عاقبت، بخشی از ثروت هنگفت خود را به تامین مالی یک شرکت‌ نوپای کارآفرین تراشه مغزی به نام نورالینک اختصاص داد. این دستگاه پیش از این روی میمون‌ها آزمایش شده است و به آن‌ها امکان می‌دهد با ذهن خود بازی‌های ویدیویی انجام دهند و هدف نهایی آن، تبدیل انسان به نوعی ابرهوش هیبریدی [ترکیبی] است. (منتقدان یادآور می‌شوند که این فناوری حتی در صورت موفقیت، به طور مشابه، جامعه‌ای طبقاتی متشکل از افراد تراشه‌دار و بی‌تراشه ایجاد می‌کند)

این میلیاردر فناوری از زمان جدا شدن از اوپن‌ای‌آی، در خصوص ظهور قریب‌الوقوع ابرهوش چند هشدار مطرح کرده است. در ماه مارس، او به بیش از هزار محققی پیوست که خواستار تعلیق موقت توسعه سیستم‌های هوش مصنوعی قدرتمند به مدت دست‌‌کم شش ماه شدند. آن‌ها در نامه‌ای سرگشاده نوشتند که این زمان، باید صرف پژوهش در خصوص تمهیدات ایمنی هوش مصنوعی شود تا از فاجعه جلوگیری به عمل آید.

اتفاق‌نظر و همسویی بعید میان شرکت‌های پیشرو هوش مصنوعی در سراسر جهان‌ که اغلب همگی به دنبال سود خودشان‌اند لازم است تا چنین وقفه‌ای کارآمد باشد و در حالی که اوپن‌ای‌آی به پیشگامی در شکار تخم جغد ادامه می‌دهد، به نظر می‌رسد دست‌کم آلتمن به هشدارهای داستان پروفسور بوستروم توجه کرده است.

او در مصاحبه‌ای با نیویورکر در سال ۲۰۱۶، فاش کرد که او یک «آماده‌کننده روز رستاخیز» است‌ به ویژه برای یک آخرالزمان مبتنی بر هوش مصنوعی.

او گفت: «سعی می‌کنم زیاد به آن فکر نکنم» و افشا کرد که «اسلحه، طلا، یدید پتاسیم، آنتی‌بیوتیک، باتری، آب [و] ماسک‌های گاز» را در مخفیگاهی در روستایی در کالیفرنیا پنهان کرده است. حالا البته این طور نیست که هرکدام از این‌ها برای بقیه خیلی استفاده خواهد شد.

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.