آیا هوش مصنوعی انسان را به بردگی میگیرد؟
یک استاد دانشگاه آکسفورد معتقد است که شکاف بین هوش ما و هوش مصنوعی سبب خواهد شد که هوش مصنوعی ما را به همان شیوهای ببیند که ما حیوانات را میبینیم و تقریبا در همه حوزههای موردنظر از عملکرد شناختی انسانها بسیار فراتر میرود.
به گزارش سیتنا به نقل از ایندیپندنت، یک استاد دانشگاه آکسفورد در اثر مهم خود در زمینه هوش مصنوعی با عنوان «ابرهوش: مسیرها، خطرها، استراتژیها»، معتقد است اگر به اندازه کافی آماده نباشیم، هوش مصنوعی ممکن است ما را نابود کند. ابرهوش که او آن را به عنوان نوعی هوش مصنوعی توصیف میکند که «تقریبا در همه حوزههای موردنظر از عملکرد شناختی انسانها بسیار فراتر میرود»، ممکن است بسیار نزدیکتر از آن چیزی باشد که بسیاری تصور میکنند؛ به طوری که متخصصان هوش مصنوعی و چهرههای برجسته این صنعت هشدار میدهند چنین چیزی ممکن است تنها چند سال با ما فاصله داشته باشد.
خالق چتجیپیتی، کتاب سال ۲۰۱۴ پروفسور باستروم را تکرار کرد و هشدار داد که پیشرفت ظاهرا تصاعدی فناوری هوش مصنوعی در سالهای اخیر به این معنی است که ورود قریبالوقوع ابرهوش اجتنابناپذیر است و ما باید پیش از اینکه خیلی دیر شود، آماده شدن برای آن را شروع کنیم.
سم آلتمن، مدیر اوپنایآی که چتبات هوش مصنوعی شرکت او سریعترین برنامه روبهرشد در تاریخ است، پیش از این، کتاب پروفسور باستروم را «بهترین چیزی که در مورد این موضوع دیدهام» توصیف کرده بود. تنها یک سال پس از خواندن آن، آلتمن در کنار دیگر پیشگامان فناوری با نگرانی مشابه مانند ایلان ماسک و ایلیا سوتسکور، اوپنایآی را به منظور درک بهتر و کاهش خطرات هوش مصنوعی پیشرفته تاسیس کرد.
اوپنایآی که میتوان گفت ابتدا بهعنوان یک شرکت غیرانتفاعی راهاندازی شد، به یک شرکت خصوصی پیشرو در زمینه هوش مصنوعی، احتمالا نزدیکترین شرکت برای دستیابی به ابرهوش، تبدیل شده است.
آلتمن بر این باور است که ابرهوش این ظرفیت را دارد که با انجام دادن اغلب کارهای ما، نه تنها یک زندگی آسوده و با فراغت به ما ارائه دهد، بلکه کلید درمان بیماریها، از بین بردن رنج و تبدیل بشر به گونهای میانستارهای را نیز در اختیار دارد.
او نوشت هرگونه تلاش برای جلوگیری از پیشرفت آن، «به طور غیرمستقیم خطرناک» خواهد بود و به «چیزی مانند یک رژیم نظارت جهانی» نیاز است که « اجرای آن عملا غیرممکن است».
آینده میتواند آنقدر خوب باشد که تصور آن برای هر یک از ما سخت است. برداشت اصلی من از این موضوع این است که ما هوش و انرژی «نامحدود» خواهیم داشت و همه این گرهها باز خواهند شد.
اما به موازات جنبههای مثبت، خطرات هم افزایش می یابد.
درک آنچه در حال حاضر در «ذهن» ابزارهای هوش مصنوعی در دسترس کنونی میگذرد، دشوار است اما هنگامی که به ابرهوش دست پیدا کنیم، حتی اقدامهای آن ممکن است غیرقابل درک شود. ممکن است اکتشافهایی انجام دهد که ما قادر به درک آن نباشیم یا تصمیمهایی بگیرد که برای ما بیمعنی باشد. محدودیتهای زیستی و تکاملی مغزهای ساختهشده از مواد آلی سبب میشود که ما احتمالا به نوعی رابط مغز و رایانه نیاز داشته باشیم تا از آن عقب نمانیم.
پروفسور باستروم هشدار میدهد که ناتوانی در رقابت با هوش مصنوعی در این دوره فناوری جدید میتواند بشر را بهعنوان شکل غالب حیات روی زمین از جایگاه خود کنار بزند. ابرهوش ممکن است ما را در رسیدن به اهداف خود زائد و غیرضروری بداند. اگر این اتفاق بیفتد و برخی از انواع هوش مصنوعی بفهمند که چگونه میتوان تمام ابزارها و فناوریهایی را که ما به آنها تکیه داریم یا حتی سلاحهای هستهای که در اختیار داریم تصاحب کرد، آنگاه طولی نخواهد کشید که هوش مصنوعی ما را از روی کره زمین محو کند.
سناریو ملایمتر اما به همان شکل ناخوشایند این است که شکاف بین هوش ما و هوش مصنوعی سبب خواهد شد که هوش مصنوعی ما را به همان شیوهای ببیند که ما حیوانات را میبینیم. در گفتوگوی سال ۲۰۱۵ بین ماسک و نیل دگراس تایسون، دانشمند، آنها این نظریه را مطرح کردند که هوش مصنوعی با ما مانند یک حیوان خانگی [مثل] سگ لابرادور رفتار خواهد کرد. پروفسور تایسون گفت: «آنها ما را اهلی خواهند کرد. آنها انسانهای مطیع را نگه میدارند و از شر افراد کنترلناپذیر خلاص میشوند.»
ماسک در تلاش برای جلوگیری از این عاقبت، بخشی از ثروت هنگفت خود را به تامین مالی یک شرکت نوپای کارآفرین تراشه مغزی به نام نورالینک اختصاص داد. این دستگاه پیش از این روی میمونها آزمایش شده است و به آنها امکان میدهد با ذهن خود بازیهای ویدیویی انجام دهند و هدف نهایی آن، تبدیل انسان به نوعی ابرهوش هیبریدی [ترکیبی] است. (منتقدان یادآور میشوند که این فناوری حتی در صورت موفقیت، به طور مشابه، جامعهای طبقاتی متشکل از افراد تراشهدار و بیتراشه ایجاد میکند)
این میلیاردر فناوری از زمان جدا شدن از اوپنایآی، در خصوص ظهور قریبالوقوع ابرهوش چند هشدار مطرح کرده است. در ماه مارس، او به بیش از هزار محققی پیوست که خواستار تعلیق موقت توسعه سیستمهای هوش مصنوعی قدرتمند به مدت دستکم شش ماه شدند. آنها در نامهای سرگشاده نوشتند که این زمان، باید صرف پژوهش در خصوص تمهیدات ایمنی هوش مصنوعی شود تا از فاجعه جلوگیری به عمل آید.
اتفاقنظر و همسویی بعید میان شرکتهای پیشرو هوش مصنوعی در سراسر جهان که اغلب همگی به دنبال سود خودشاناند لازم است تا چنین وقفهای کارآمد باشد و در حالی که اوپنایآی به پیشگامی در شکار تخم جغد ادامه میدهد، به نظر میرسد دستکم آلتمن به هشدارهای داستان پروفسور بوستروم توجه کرده است.
او در مصاحبهای با نیویورکر در سال ۲۰۱۶، فاش کرد که او یک «آمادهکننده روز رستاخیز» است به ویژه برای یک آخرالزمان مبتنی بر هوش مصنوعی.
او گفت: «سعی میکنم زیاد به آن فکر نکنم» و افشا کرد که «اسلحه، طلا، یدید پتاسیم، آنتیبیوتیک، باتری، آب [و] ماسکهای گاز» را در مخفیگاهی در روستایی در کالیفرنیا پنهان کرده است. حالا البته این طور نیست که هرکدام از اینها برای بقیه خیلی استفاده خواهد شد.
انتهای پیام
افزودن دیدگاه جدید