کدخبر :292426 پرینت
27 اسفند 1402 - 14:39

تاثیر جامعه بین‌المللی بر جلوگیری از نابودی بشر توسط هوش مصنوعی

از نگاه اساتید علوم سیاسی مانند هنری کسینجر یا ایان برمر، هوش مصنوعی در حد و اندازه‌های بمب اتم می‌تواند ساختار بین‌المللی موجود را تحت تاثیر قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند؛ چرا که به رغم جلو بودن آمریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل دسترسی به این ابزار قدرت‌آفرین، به شدت آسان‌تر خواهد بود.

متن خبر

به گزارش سرویس بین الملل سیتنا به نقل از بی بی سی، هوش مصنوعی پدیده جدیدی نیست، اما رشد دور از انتظار این فناوری در یکی دو سال اخیر موجب شده تا ناگهان در مرکز توجه جهان قرار بگیرد؛ یک فناوری استثنایی که می‌تواند یک انقلاب اقتصادی-سیاسی-اجتماعی کم‌سابقه را برای بشریت رقم بزند.

از نظر برخی کارشناسان، این انقلاب همین حالا آغاز شده است. در حال حاضر بخش‌های مختلف اقتصاد و جامعه در برخی کشورها به شکل قابل ملاحظه‌ای از کمک هوش مصنوعی بهره می‌برند؛ بخش‌هایی مانند خدمات درمانی، حمل و نقل، خدمات مالی، آموزش و پرورش، حفاظت از محیط زیست و البته امور امنیتی و نظامی.

در عین حال سرعت توسعه این فناوری نیز بسیاری را شوکه کرده است. در سال ۲۰۱۸ که برای نخستین بار جی‌پی‌تی-۱ راه‌اندازی شد، این مدل هوش مصنوعی از ۱۱۰ میلیون «پارامتر» برخوردار بود؛ یکی از واحدهای اندازه‌گیری برای درک میزان پیشرفت مدل هوش مصنوعی. در سال ۲۰۲۳ که جی‌پی‌تی-۴ در دسترس عموم قرار گرفت، تعداد پارامترهای این مدل از یک تریلیون (هزار میلیارد) «پارامتر» فراتر رفته بود؛ تفاوتی که نشان‌دهنده رشد خارق‌العاده و نجومی این فناوری است.

این انتظار وجود دارد که قدرت پردازش و سرعت هوش مصنوعی ظرف پنج سال به ۱۰۰ تریلیون پارامتر برسد که از نظر عمق پیچیدگی و توانایی یادگیری و هوش عمومی با مغز انسان برابری خواهد کرد.

اما این فناوری نیز مانند هر تکنولوژی دیگری، همانقدر که می‌تواند عصای دست بشریت باشد، تهدیدی مرگبار نیز هست. اگر هوش مصنوعی بتواند به عنوان مثال، درمان بیماری‌های لاعلاج را کشف کند، آیا نمی‌تواند ویروسی بسازد که در دوره‌ای بسیار کوتاه میلیون‌ها نفر را از پای در آورد؟

یا مثلا همان هوش مصنوعی که قرار است رانندگی خودورهایمان را برعهده بگیرد، نمی‌تواند تانک براند؟ اگر هوش مصنوعی می‌تواند میزان بهره‌وری تولید کفش و موبایل و رایانه را به شکلی خارق‌العاده افزایش دهد، نمی‌تواند در توسعه خیره‌کننده و تولید انبوه تسلیحات جنگی به کار برود؟

همین دلایل موجب شده تا هوش مصنوعی ظرف چند سال اخیر به یکی از مهم‌ترین دغدغه‌های ژئوپولتیک در جهان تبدیل شود و قدرت‌های بزرگ مانند آمریکا و چین، منابع گسترده‌ای را صرف توسعه و به خدمت گرفتن این فناوری بکنند. در حال حاضر این باور وجود دارد که هرکس بتواند از نظر توسعه هوش مصنوعی از دیگران پیشی بگیرد، در دورانی که بعد از انقلاب هوش مصنوعی شکل خواهد گرفت، دست بالا را خواهد داشت.

از نگاه اساتید علوم سیاسی مانند هنری کسینجر یا ایان برمر، هوش مصنوعی در حد و اندازه‌های بمب اتم می‌تواند ساختار بین‌المللی موجود را تحت تاثیر قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند. چرا که به رغم جلو بودن آمریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل دسترسی به این ابزار قدرت‌آفرین، به شدت آسان‌تر خواهد بود.

هوش مصنوعی، یک سخت‌افزار جدید مانند رایانه یا یک نرم‌افزار جدید مانند ویندوز یا یک فناوری انقلابی مانند اینترنت نیست. آیفون، فیس‌بوک و تیک‌تاک، زندگی بشر را متحول کردند و همه‌شان نیز کاربردهای دوگانه دارند. اما هیچ کدام تا امروز به حدی رشد نکرده‌اند که بتوانند نظم بین‌المللی موجود را به شکل بنیادین به چالش بکشند یا تهدیدی برای موجودیت بشر توصیف شوند.

حتی اگر در حال حاضر مشخصا سطح دسترسی سخت‌افزاری و نرم‌افزاری کشورهای «جنوب جهانی» به هوش مصنوعی شبیه به کشورهای غربی یا چین نباشد، این فرض وجود دارد که با توجه به سرعت رشد فناوری‌های رایانه ای، دسترسی همه به مدل‌های بسیار پیشرفته هوش مصنوعی در دهه‌های آینده بسیار آسان خواهد بود.

بماند که اصولا بخش مهمی از توسعه هوش مصنوعی در دنیای امروز، در کنترل شرکت‌های خصوصی است؛ شرکت‌هایی که بر اساس تعاریف و نظریه‌های روابط بین‌الملل، سال‌هاست به بازیگرانی بسیار قدرتمند در سطح بین‌المللی بدل شده‌اند و کنترل ابزارهایی را در دست دارند که تا پیش از این تنها در کنترل دولت-ملت‌ها بود.

وقتی در روزهای پایانی جنگ جهانی دوم، آمریکا از بمب اتمی استفاده کرد، نخبگان مهم جامعه بشریت مانند آلبرت انیشتین و برتراند راسل هشدار دادند که توسعه، گسترش و استفاده از تسلیحات هسته‌ای در جنگ‌ها می‌تواند حیات بر روی کره زمین را به نابودی کامل بکشاند. در پی همین هشدارها و کارزاری طولانی و فراگیر در سطح جهانی، «پیمان منع گسترش تسلیحات هسته‌ای» (NPT) شکل گرفت تا جلوی نابودی کامل بشریت گرفته شود.

این روزها که در محافل سیاست بین‌الملل، هوش مصنوعی به طور معمول با بمب اتم مقایسه می‌شود، این پرسش نیز به شکلی جدی وجود دارد که چه باید کرد؟ آیا راهی برای کنترل هوش مصنوعی وجود دارد؟ چه کسی باید مسئولیت مقابله با تهدیدهای احتمالی ناشی از هوش مصنوعی را بر عهده بگیرد؟

آیا «آژانس بین‌المللی هوش مصنوعی» تشکیل می‌شود؟

در حال حاضر در دنیا هیچ مقرراتی برای کنترل توسعه هوش مصنوعی وجود ندارد. از این زاویه، سال ۲۰۲۳ یکی از پرکارترین سال‌ها برای سیاستمداران - به ویژه در غرب - بود تا نخستین گام‌های جدی را در این مسیر بردارند.

از آن جمله در ماه مه سال ۲۰۲۳ میلادی، کشورهای عضو گروه هفت (آمریکا، بریتانیا، فرانسه، آلمان، کانادا، ایتالیا و ژاپن) سند کوتاهی را به نام «روند هیروشیما» منتشر کردند که در آن اصول مورد نظر این کشورها برای «توسعه امن و اخلاقی» هوش مصنوعی ذکر شده بود. در این دستورالعمل پیشنهادی از دست‌اندرکاران توسعه هوش مصنوعی درخواست شد تا خود به شکل داوطلبانه، خطرات احتمالی این فناوری را شناسایی کنند و در جریان کارشان، این خطرات را خنثی کنند.

یک ماه بعد از انتشار این سند، پارلمان اتحادیه اروپا برای نخستین بار متن پیش‌نویس قانون هوش مصنوعی را تصویب کرد که نخستین قانون جامع نظارت و کنترل این فناوری در جهان توصیف شده است. اما این قانون از سال ۲۰۲۶ اجرا خواهد شد؛ زمانی که به گفته کارشناسان فناوری، مدل‌های هوش مصنوعی دیگر هیچ شباهتی به هوش مصنوعی امروز نخواهند داشت.

سرانجام در میانه تابستان ۲۰۲۳، موضوع هوش مصنوعی به شورای امنیت سازمان ملل کشیده شد. آنتونیو گوترش، دبیرکل سازمان ملل به اشکال مختلف حمایتش را از تشکیل یک سازمان بین‌المللی جدید، شبیه به سازمان بین‌المللی انرژی هسته‌ای، برای نظارت بر هوش مصنوعی بیان کرده است.

گوترش در شورای امنیت نیز بار دیگر نگرانی‌هایش را بیان کرد و در نهایت اعضای این شورا بر سر تشکیل یک شورای مشورتی توافق کردند. این شورا در ۲۶ اکتبر (۵ آبان) گزارش اولیه‌اش را منتشر کرد که در آن به کشورهای جهان توصیه شده هر چه سریعتر، به تلاش‌هایی مشترک روی بیاورند. گزارش نهایی این شورا قرار است در تابستان ۲۰۲۴ در «نشست آینده» منتشر شود؛ نشستی که انتظار می‌رفت به شکل قابل ملاحظه‌ای به مسائل محیط‌زیستی اختصاص داشته باشد و حالا این گمانه مطرح است که زیر سایه موضوع خطرات کلیدی هوش مصنوعی قرار بگیرد.

متفکرانی مانند هنری کسینجر معتقدند که بشریت در مواجهه با هوش مصنوعی باید از تاریخ کنترل تسلیحات هسته‌ای درس بگیرد؛ سال‌هایی که ابرقدرت‌های جهان به رغم تفاوت‌های بنیادین و حتی رویکردهای خصمانه نسبت به یکدیگر، در کنار هم پذیرفتند که جلوی گسترش بمب‌های اتمی را بگیرند.

با این حال مقایسه این دو پدیده و به ویژه ارجاع به موفقیت‌های سازمان بین‌المللی انرژی هسته‌ای در این زمینه می‌تواند بسیار خوش‌بینانه به نظر برسد. همین حالا کم نیستند منتقدانی که می‌گویند پیمان منع گسترش تسلیحات هسته‌ای به شکل یک‌جانبه و به ضرر کشورهای غیرهسته‌ای اجرا شده و یکی از وعده‌های بزرگ این پیمان مبنی بر خلع سلاح هسته‌ای قدرت‌های بزرگ، هرگز عملی نشده است.

به بیان دیگر، این پیمان در واقع ابزاری بوده در دست قدرت‌های بزرگ تا از دسترسی کشورهای دیگر به تسلیحات هسته‌ای جلوگیری کنند و موقعیت استثنایی و بسیار قدرتمند خود را در عالی‌ترین سطوح سلسله مراتب بین‌المللی تضمین کنند.

علاوه بر این، با در نظر گرفتن تنش‌های ژئوپلتیک موجود در سطح قدرت‌های بزرگ و رقابت شدید و پر از اضطراب چین و آمریکا، چگونه می‌توان از این دو کشور خواست تا از توسعه هوش مصنوعی دست بکشند؟ آیا واشنگتن یا پکن، هیچ کدام حاضر می‌شوند که حتی برای دورانی کوتاه و موقت، توسعه این فناوری را به حال تعلیق دربیاورند؟

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.