تاثیر جامعه بینالمللی بر جلوگیری از نابودی بشر توسط هوش مصنوعی
از نگاه اساتید علوم سیاسی مانند هنری کسینجر یا ایان برمر، هوش مصنوعی در حد و اندازههای بمب اتم میتواند ساختار بینالمللی موجود را تحت تاثیر قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند؛ چرا که به رغم جلو بودن آمریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل دسترسی به این ابزار قدرتآفرین، به شدت آسانتر خواهد بود.
به گزارش سرویس بین الملل سیتنا به نقل از بی بی سی، هوش مصنوعی پدیده جدیدی نیست، اما رشد دور از انتظار این فناوری در یکی دو سال اخیر موجب شده تا ناگهان در مرکز توجه جهان قرار بگیرد؛ یک فناوری استثنایی که میتواند یک انقلاب اقتصادی-سیاسی-اجتماعی کمسابقه را برای بشریت رقم بزند.
از نظر برخی کارشناسان، این انقلاب همین حالا آغاز شده است. در حال حاضر بخشهای مختلف اقتصاد و جامعه در برخی کشورها به شکل قابل ملاحظهای از کمک هوش مصنوعی بهره میبرند؛ بخشهایی مانند خدمات درمانی، حمل و نقل، خدمات مالی، آموزش و پرورش، حفاظت از محیط زیست و البته امور امنیتی و نظامی.
در عین حال سرعت توسعه این فناوری نیز بسیاری را شوکه کرده است. در سال ۲۰۱۸ که برای نخستین بار جیپیتی-۱ راهاندازی شد، این مدل هوش مصنوعی از ۱۱۰ میلیون «پارامتر» برخوردار بود؛ یکی از واحدهای اندازهگیری برای درک میزان پیشرفت مدل هوش مصنوعی. در سال ۲۰۲۳ که جیپیتی-۴ در دسترس عموم قرار گرفت، تعداد پارامترهای این مدل از یک تریلیون (هزار میلیارد) «پارامتر» فراتر رفته بود؛ تفاوتی که نشاندهنده رشد خارقالعاده و نجومی این فناوری است.
این انتظار وجود دارد که قدرت پردازش و سرعت هوش مصنوعی ظرف پنج سال به ۱۰۰ تریلیون پارامتر برسد که از نظر عمق پیچیدگی و توانایی یادگیری و هوش عمومی با مغز انسان برابری خواهد کرد.
اما این فناوری نیز مانند هر تکنولوژی دیگری، همانقدر که میتواند عصای دست بشریت باشد، تهدیدی مرگبار نیز هست. اگر هوش مصنوعی بتواند به عنوان مثال، درمان بیماریهای لاعلاج را کشف کند، آیا نمیتواند ویروسی بسازد که در دورهای بسیار کوتاه میلیونها نفر را از پای در آورد؟
یا مثلا همان هوش مصنوعی که قرار است رانندگی خودورهایمان را برعهده بگیرد، نمیتواند تانک براند؟ اگر هوش مصنوعی میتواند میزان بهرهوری تولید کفش و موبایل و رایانه را به شکلی خارقالعاده افزایش دهد، نمیتواند در توسعه خیرهکننده و تولید انبوه تسلیحات جنگی به کار برود؟
همین دلایل موجب شده تا هوش مصنوعی ظرف چند سال اخیر به یکی از مهمترین دغدغههای ژئوپولتیک در جهان تبدیل شود و قدرتهای بزرگ مانند آمریکا و چین، منابع گستردهای را صرف توسعه و به خدمت گرفتن این فناوری بکنند. در حال حاضر این باور وجود دارد که هرکس بتواند از نظر توسعه هوش مصنوعی از دیگران پیشی بگیرد، در دورانی که بعد از انقلاب هوش مصنوعی شکل خواهد گرفت، دست بالا را خواهد داشت.
از نگاه اساتید علوم سیاسی مانند هنری کسینجر یا ایان برمر، هوش مصنوعی در حد و اندازههای بمب اتم میتواند ساختار بینالمللی موجود را تحت تاثیر قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند. چرا که به رغم جلو بودن آمریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل دسترسی به این ابزار قدرتآفرین، به شدت آسانتر خواهد بود.
هوش مصنوعی، یک سختافزار جدید مانند رایانه یا یک نرمافزار جدید مانند ویندوز یا یک فناوری انقلابی مانند اینترنت نیست. آیفون، فیسبوک و تیکتاک، زندگی بشر را متحول کردند و همهشان نیز کاربردهای دوگانه دارند. اما هیچ کدام تا امروز به حدی رشد نکردهاند که بتوانند نظم بینالمللی موجود را به شکل بنیادین به چالش بکشند یا تهدیدی برای موجودیت بشر توصیف شوند.
حتی اگر در حال حاضر مشخصا سطح دسترسی سختافزاری و نرمافزاری کشورهای «جنوب جهانی» به هوش مصنوعی شبیه به کشورهای غربی یا چین نباشد، این فرض وجود دارد که با توجه به سرعت رشد فناوریهای رایانه ای، دسترسی همه به مدلهای بسیار پیشرفته هوش مصنوعی در دهههای آینده بسیار آسان خواهد بود.
بماند که اصولا بخش مهمی از توسعه هوش مصنوعی در دنیای امروز، در کنترل شرکتهای خصوصی است؛ شرکتهایی که بر اساس تعاریف و نظریههای روابط بینالملل، سالهاست به بازیگرانی بسیار قدرتمند در سطح بینالمللی بدل شدهاند و کنترل ابزارهایی را در دست دارند که تا پیش از این تنها در کنترل دولت-ملتها بود.
وقتی در روزهای پایانی جنگ جهانی دوم، آمریکا از بمب اتمی استفاده کرد، نخبگان مهم جامعه بشریت مانند آلبرت انیشتین و برتراند راسل هشدار دادند که توسعه، گسترش و استفاده از تسلیحات هستهای در جنگها میتواند حیات بر روی کره زمین را به نابودی کامل بکشاند. در پی همین هشدارها و کارزاری طولانی و فراگیر در سطح جهانی، «پیمان منع گسترش تسلیحات هستهای» (NPT) شکل گرفت تا جلوی نابودی کامل بشریت گرفته شود.
این روزها که در محافل سیاست بینالملل، هوش مصنوعی به طور معمول با بمب اتم مقایسه میشود، این پرسش نیز به شکلی جدی وجود دارد که چه باید کرد؟ آیا راهی برای کنترل هوش مصنوعی وجود دارد؟ چه کسی باید مسئولیت مقابله با تهدیدهای احتمالی ناشی از هوش مصنوعی را بر عهده بگیرد؟
آیا «آژانس بینالمللی هوش مصنوعی» تشکیل میشود؟
در حال حاضر در دنیا هیچ مقرراتی برای کنترل توسعه هوش مصنوعی وجود ندارد. از این زاویه، سال ۲۰۲۳ یکی از پرکارترین سالها برای سیاستمداران - به ویژه در غرب - بود تا نخستین گامهای جدی را در این مسیر بردارند.
از آن جمله در ماه مه سال ۲۰۲۳ میلادی، کشورهای عضو گروه هفت (آمریکا، بریتانیا، فرانسه، آلمان، کانادا، ایتالیا و ژاپن) سند کوتاهی را به نام «روند هیروشیما» منتشر کردند که در آن اصول مورد نظر این کشورها برای «توسعه امن و اخلاقی» هوش مصنوعی ذکر شده بود. در این دستورالعمل پیشنهادی از دستاندرکاران توسعه هوش مصنوعی درخواست شد تا خود به شکل داوطلبانه، خطرات احتمالی این فناوری را شناسایی کنند و در جریان کارشان، این خطرات را خنثی کنند.
یک ماه بعد از انتشار این سند، پارلمان اتحادیه اروپا برای نخستین بار متن پیشنویس قانون هوش مصنوعی را تصویب کرد که نخستین قانون جامع نظارت و کنترل این فناوری در جهان توصیف شده است. اما این قانون از سال ۲۰۲۶ اجرا خواهد شد؛ زمانی که به گفته کارشناسان فناوری، مدلهای هوش مصنوعی دیگر هیچ شباهتی به هوش مصنوعی امروز نخواهند داشت.
سرانجام در میانه تابستان ۲۰۲۳، موضوع هوش مصنوعی به شورای امنیت سازمان ملل کشیده شد. آنتونیو گوترش، دبیرکل سازمان ملل به اشکال مختلف حمایتش را از تشکیل یک سازمان بینالمللی جدید، شبیه به سازمان بینالمللی انرژی هستهای، برای نظارت بر هوش مصنوعی بیان کرده است.
گوترش در شورای امنیت نیز بار دیگر نگرانیهایش را بیان کرد و در نهایت اعضای این شورا بر سر تشکیل یک شورای مشورتی توافق کردند. این شورا در ۲۶ اکتبر (۵ آبان) گزارش اولیهاش را منتشر کرد که در آن به کشورهای جهان توصیه شده هر چه سریعتر، به تلاشهایی مشترک روی بیاورند. گزارش نهایی این شورا قرار است در تابستان ۲۰۲۴ در «نشست آینده» منتشر شود؛ نشستی که انتظار میرفت به شکل قابل ملاحظهای به مسائل محیطزیستی اختصاص داشته باشد و حالا این گمانه مطرح است که زیر سایه موضوع خطرات کلیدی هوش مصنوعی قرار بگیرد.
متفکرانی مانند هنری کسینجر معتقدند که بشریت در مواجهه با هوش مصنوعی باید از تاریخ کنترل تسلیحات هستهای درس بگیرد؛ سالهایی که ابرقدرتهای جهان به رغم تفاوتهای بنیادین و حتی رویکردهای خصمانه نسبت به یکدیگر، در کنار هم پذیرفتند که جلوی گسترش بمبهای اتمی را بگیرند.
با این حال مقایسه این دو پدیده و به ویژه ارجاع به موفقیتهای سازمان بینالمللی انرژی هستهای در این زمینه میتواند بسیار خوشبینانه به نظر برسد. همین حالا کم نیستند منتقدانی که میگویند پیمان منع گسترش تسلیحات هستهای به شکل یکجانبه و به ضرر کشورهای غیرهستهای اجرا شده و یکی از وعدههای بزرگ این پیمان مبنی بر خلع سلاح هستهای قدرتهای بزرگ، هرگز عملی نشده است.
به بیان دیگر، این پیمان در واقع ابزاری بوده در دست قدرتهای بزرگ تا از دسترسی کشورهای دیگر به تسلیحات هستهای جلوگیری کنند و موقعیت استثنایی و بسیار قدرتمند خود را در عالیترین سطوح سلسله مراتب بینالمللی تضمین کنند.
علاوه بر این، با در نظر گرفتن تنشهای ژئوپلتیک موجود در سطح قدرتهای بزرگ و رقابت شدید و پر از اضطراب چین و آمریکا، چگونه میتوان از این دو کشور خواست تا از توسعه هوش مصنوعی دست بکشند؟ آیا واشنگتن یا پکن، هیچ کدام حاضر میشوند که حتی برای دورانی کوتاه و موقت، توسعه این فناوری را به حال تعلیق دربیاورند؟
انتهای پیام
افزودن دیدگاه جدید