چرا ورود هوش مصنوعی به صحنه جنگ باعث نگرانی میشود؟
ورود هوش مصنوعی به میدان جنگ باعث نگرانی از شدت گرفتن درگیریها و تضعیف نقش حیاتی انسان در تصمیمگیریهای جنگی شده است. هوش مصنوعی نشان داده که میتواند سریعتر عمل کند، اما لزوماً ایمنتر یا اخلاقیتر نیست.
به گزارش سرویس بین الملل سیتنا، آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً گفت از گزارشهای رسانههای رژیم صهیونیستی مبنی بر استفاده این رژیم از هوش مصنوعی برای شناسایی اهداف در غزه که «منجر به تلفات زیاد غیرنظامیان شده»، «عمیقاً ناراحت» است.
گذشته از نرمافزار مورد اشاره گوترش، یعنی نرمافزار لَوندر و انکار و تکذیب رژیم صهیونیستی، در اینجا نگاهی داریم به تحولات حوزه فناوری که در حال دگرگون کردن چهره جنگ است.
همانطور که در مورد لوندر دیده شد، هوش مصنوعی با الگوریتمهای پرسرعت خود که حجم عظیمی از دادهها را برای شناسایی تهدیدات بالقوه پردازش میکنند، میتواند بهویژه برای انتخاب اهداف مفید باشد. اما نتایج فناوری باز هم در حوزه احتمالات قرار میگیرند و کارشناسان هشدار میدهند که بروز خطا در آن اجتنابناپذیر است.
هوش مصنوعی در فن آرایش رزمی نیز کاربرد دارد، برای مثال، آرایش جنگی پهپادها به صورت دستهای؛ تاکتیکی که به نظر میرسد چین به سرعت در حال توسعه آن است. با این روش، پهپادها این قابلیت را خواهند داشت که با یکدیگر ارتباط برقرار کنند و بر اساس اهداف تعیینشده قبلی با هم همکاری داشته باشند.
در مقیاسی بزرگتر، هوش مصنوعی مدلهایی از میدانهای نبرد فراهم میکند و برای مقابله با حملات راههایی پیشنهاد میکند که هیچ بعید نیست شامل استفاده از سلاحهای هستهای هم بشود.
فکر کردن با سرعتی هرچه بیشتر
آلساندرو آکورسی از گروه بینالمللی بحران میگوید: «یک درگیری تمامعیار بین دو کشور را تصور کنید که برای تهیه راهبرد و طرحهای نظامی آن سراغ هوش مصنوعی رفتهاند و هوش مصنوعی در آنِ واحد نسبت به هر رخداد و تحول جدید پاسخ میدهد.»
او میافزاید که با این کار «فاصله زمانیِ واکنشهای طرفین درگیری بسیار کاهش مییابد و تصمیم و اقدامی برای یک انسان یک ساعت طول میکشد، برای هوش مصنوعی چند ثانیه بیشتر طول نمیکشد».
یک خلأ اخلاقی نگرانکننده
با توجه به تشدید مسابقه تسلیحاتی و دشواریهای همیشگی صحنه جنگ، بعید نیست هوش مصنوعی را هم در آینده بسیار نزدیک وارد میدان نبرد کنند و این درحالی است که بخش بزرگی از جهان هنوز بهطور کامل از پیامدهای بالقوه آن آگاه نیست.
دو روشی-روشگوند میگوید: انسانها با این کار «پیشنهادهای یک ماشین را مبنای تصمیمات خود قرار میدهند، اما از اطلاعاتی که دستگاه برای رسیدن به چنین تصمیمی از آن استفاده کرده، بیاطلاعاند».
او اضافه میکند: «درست است که در نهایت انسان دکمه پرتاب یا شلیک را فشار میدهد، اما عدم آگاهی فرد از روند تصمیمگیری و همچنین سرعت کار ماشین بدین معناست که فرد شلیککننده کنترل واقعی بر روی نتیجهگیریها و تصمیمات خود ندارد.»
اولریکه فرانکه از شورای روابط خارجی اروپا میگوید: هوش مصنوعی «مثل سیاهچاله است؛ لزوماً نمیفهمیم چه میداند یا چه فکر میکند، یا چگونه به این نتایج میرسد».
او ادامه میدهد: «چرا هوش مصنوعی این یا آن هدف را پیشنهاد میکند؟ چه میشود که این اطلاعات یا آن اطلاعات را به من میدهد؟ با این وضع اگر اجازه دهیم هوش مصنوعی جنگافزار را هم کنترل کند، با یک پرسش اخلاقی جدی روبهرو میشویم».
اوکراین بهعنوان صحنۀ آزمایش
خبر میرسد که آمریکا به تازگی از الگوریتمهایی در حملات اخیر خود علیه حوثیها در یمن استفاده کرده است.
اما آکورسی میگوید: «تغییردهنده واقعی شیوه بازی، جنگ اوکراین است که به آزمایشگاهی برای کاربرد نظامی هوش مصنوعی تبدیل شده است».
ویتالی گونچاروک از رصدخانه هوش مصنوعی دفاعی در دانشگاه هلموت اشمیت هامبورگ میگوید: از زمان حمله روسیه به اوکراین در سال ۲۰۲۲، طرفین درگیری شروع به «توسعه و بهکارگیری راه حلهای هوش مصنوعی برای حوزههایی مانند اطلاعات جغرافیایی فضایی، عملیات با سامانههای بدون سرنشین، آموزش نظامی و جنگ سایبری» کردهاند.
گونچاروک میگوید: «در نتیجه، جنگ در اوکراین به اولین درگیری تبدیل شده که در آن هر دو طرف، در جهت استفاده از هوش مصنوعی رقابت میکنند؛ عاملی که به یک مؤلفه حیاتی برای دستیابی به پیروزی بدل شده است.»
برتریجویی و خطر هستهای
«ترمیناتور»، ربات قاتلی که انسان کنترل خود را بر آن از دست میدهد، جزو تخیلات هالیوودی است. با اینحال، محاسبات سرد این ماشین، پژواکی از واقعیات هوش مصنوعی مدرن را در خود دارد: اینکه این سیستمها نه غریزه بقا دارند و نه تردید.
محققان چهار مؤسسه و دانشگاه آمریکایی در ژانویه نتایج یک مطالعه علمی انجامشده روی پنج مدل زبانی بزرگ (سیستمی شبیه به نرمافزار مولد چتجیپیتی) در موقعیتهای تنش سیاسی و درگیری را منتشر کردند.
این مطالعه نشان داد که گرایش این مدلهای هوش مصنوعی، «به سمت ایجاد رقابت تنگاتنگ تسلیحاتی است که منجر به درگیریهای بزرگتر و در موارد نادر استفاده از سلاحهای هستهای میشود».
قدرتهای بزرگ جهانی کوشش فراوانی دارند تا در میدان مسابقه کاربرد نظامی هوش مصنوعی، پیروز صحنه شوند و همین تکاپوی بیامان، مانع ساماندهی و قانونگذاری بهموقع در این حوزه شده است.
جو بایدن، رئیسجمهور آمریکا و شی جین پینگ، رئیسجمهور چین در ماه نوامبر توافق کردند که کارشناسان خود را برای سامان دادن به این وضعیت بهکار بگمارند.
بحثهایی نیز ده سال پیش در سازمان ملل متحد آغاز شد، اما بدون نتیجهای ملموس باقی ماند.
آکورسی میگوید: «درباره کارهای که باید در ارتباط با خطرات ورود هوش مصنوعی به حوزه غیرنظامی انجام شود، بحثهایی وجود دارد، اما وقتی نوبت به صنعت دفاعی میرسد، کسی به آن نمیپردازد.»
انتهای پیام
افزودن دیدگاه جدید