کدخبر :333121
05 اسفند 1404 - 08:50

هوش مصنوعی و دگرگونی قدرت جهانی؛ آغاز عصر سلاح‌های نامرئی

سازمان ملل ۲۰ فوریه ۲۰۲۶ از راه‌اندازی کمیته‌ای بین‌المللی متشکل از ۴۰ کارشناس خبر داد که ماموریت آن ارزیابی تهدیدهای پیش‌ روی هوش مصنوعی و تدوین چارچوبی راهبردی برای دولت‌ها است تا «کنترل انسانی» همچنان در کانون این فناوری شتابان، باقی بماند.

متن خبر

به گزارش سیتنا به نقل از ایندیپندنت، این تصمیم شاید در ظاهر، اقدامی فنی در چارچوب سازوکار‌های معمول سازمان ملل به نظر برسد، در عمق خود اعترافی است به اینکه جهان در آستانه یک دگرگونی راهبردی قرار دارد که حتی مفهوم قدرت را بازتعریف می‌کند. امروز دیگر برتری با تعداد جنگنده‌ها و موشک‌ها سنجیده نمی‌شود، بلکه با شتاب الگوریتم‌ها، انبوه داده‌ها و توان سامانه‌ها در اتخاذ تصمیم در کسری از ثانیه تعریف می‌شود.

هوش مصنوعی دیگر تنها ابزاری برای رشد اقتصاد یا تسهیل امور زندگی روزمره نیست، بلکه به مولفه‌ای اساسی در سامانه‌های امنیتی، دفاعی و اطلاعاتی بدل شده است. سامانه‌های پدافندی که در یک چشم‌ به هم‌ زدن هزاران داده را پردازش می‌کنند، پهپادهایی که با تحلیل الگوهای حرکتی هدفشان را انتخاب می‌کنند و نرم‌افزارهایی که قادرند بدون مداخله مستقیم انسان، حملات سایبری پیچیده را طراحی و اجرا کنند.

در چنین بستری، هوش مصنوعی به «سلاحی نامرئی» بدل می‌شود که نه صدای انفجارش شنیده می‌شود و نه ردی آشکار به جا می‌گذارد، اما می‌تواند سرنوشت یک نبرد را پیش از آغاز آن، رقم بزند.

اهمیت ابتکار ۲۰ فوریه نه در تعداد کارشناسان، بلکه در این اعتراف بین‌المللی نهفته است که این فناوری دو جنبه درهم‌تنیده دارد: نوید توسعه و خطر رشد بی‌رویه. همان‌گونه که این فناوری می‌تواند با بهبود دقت هدف‌گیری و هشدارهای زودهنگام، تلفات انسانی را کاهش دهد، هم‌زمان می‌تواند انگیزه‌ای برای تدوین دکترین‌های نظامی تازه باشد که تصمیم‌گیری درباره استفاده از قدرت را از نظر سیاسی آسان‌تر و از نظر هزینه انسانی برای مهاجم سبک‌تر می‌کند. در نتیجه، هرگاه هزینه جنگ برای تصمیم‌گیرنده کاهش یابد، احتمال توسل به آن افزایش می‌یابد.

تفاوت اساسی بین سلاح‌های متعارف و سیستم‌های هوش مصنوعی در ماهیت تصمیم‌گیری نهفته است. یک سلاح متعارف منتظر انگشت انسان است تا دکمه‌ای را فشار دهد، اما سامانه‌های هوشمند بر اساس معیارهای از پیش تعیین‌شده توان ارزیابی و انتخاب خواهند داشت. این امر پرسش‌های اخلاقی و حقوقی جدی را مطرح می‌کند: اگر الگوریتم اشتباه کند، چه کسی پاسخگو خواهد بود؟ آیا برنامه‌نویسی که آن را طراحی کرده، مسئول است، یا فرمانده‌ای که آن را فعال کرده، یا دولتی که از آن استفاده کرده است، یا اینکه تصمیم‌ در یک شبکه نرم‌افزاری پیچیده که در آن خطا را نمی‌توان به یک بازیگر واحد نسبت داد، گم می‌شود؟ حقوق بین‌الملل بشردوستانه بر پایه وجود انسان پاسخگو طراحی شد، اما در عصر الگوریتم‌ها، تعیین مسئول بسیار دشوارتر می‌شود.

جنبه دیگری نیز وجود دارد که اهمیت آن را نمی‌توان نادیده گرفت: رقابت سر قدرت. قدرت‌های بزرگ میلیاردها دلار در پژوهش‌های هوش مصنوعی سرمایه‌گذاری می‌کنند، نه فقط برای اهداف اقتصادی، بلکه برای تثبیت جایگاه راهبردی خود در نظم جهانی. برتری الگوریتمی یعنی توان پیشدستی بر رقیب، درک اهداف و برنامه‌ها، از کار انداختن تاسیسات حیاتی و حتی فلج کردن زیرساخت‌های دشمن، بی‌آنکه حتی یک گلوله شلیک شود. در چنین فضایی، هر چارچوب نظارتی سختگیرانه در سطح بین‌المللی، با تردید قدرت‌هایی روبرو می‌شود که این فناوری را ستون جایگاه جهانی خود می‌دانند. پرسش محوری این است: آیا قواعد حکمرانی به‌طور عادلانه و یکسان اجرا خواهد شد یا به ابزاری سیاسی بدل می‌شوند که برخی کشورها را مهار و به برخی دیگر میدان مانور گسترده‌تر می‌دهند؟

هوش مصنوعی را نمی‌توان در دوگانه ساده «خطر یا پیشرفت» خلاصه کرد. این فناوری در واقع بازتابی فشرده از ماهیت خود نظم بین‌الملل است. اگر این نظم بر پایه توازن و بازدارندگی متقابل استوار باشد، می‌تواند با تقویت سامانه‌های دفاعی دقیق‌تر و پاسخگوتر، به تحکیم همین بازدارندگی کمک کند، اما اگر منطق رقابت مهارنشده دست بالا را پیدا کند، این فناوری ممکن است به موتور یک مسابقه تسلیحاتی دیجیتال بدل شود؛ رقابتی که از توان مهار نهادهای بین‌المللی فراتر می‌رود. در نهایت، این فناوری به‌تنهایی تعیین‌کننده مسیر آینده نیست. آنچه سرنوشت را مشخص می‌کند، تصمیم‌ و اراده‌ سیاسی‌ است که نحوه استفاده از آن را تعیین می‌کند.

اقدام سازمان ملل در ۲۰ فوریه ۲۰۲۶ فرصتی است برای بازاندیشی در قوانین بازی، پیش از آنکه پیامدها در میدان عمل قطعی شوند. تشکیل کمیته‌ای از کارشناسان به معنای تلاش برای پیش‌بینی بحران است، نه صرفا مدیریت آن پس از وقوع. با این حال، موفقیت این تلاش به میزان تمایل کشورها به پذیرش محدودیت‌های متقابلی که حداقل سطح ثبات را حفظ می‌کنند، بستگی دارد. تاریخ ثابت کرده است که فناوری اغلب سریع‌تر از قوانینی که آن را تنظیم می‌کنند، پیشرفت می‌کند و لحظه تعیین‌کننده نه در خود اختراع، بلکه در نحوه اعمال آن نهفته است.

البته، هوش مصنوعی خود هیچ قصد و نیتی ندارد؛ بلکه آیینه‌ای است که منافع و اولویت‌های کاربران خود را منعکس می‌کند. اگر این فناوری در چارچوب‌های شفاف و با نظارت انسانی و پاسخگویی استفاده شود، می‌تواند ابزاری برای حفظ جان‌ انسان‌ها و تقویت امنیت باشد، اما اگر در رقابتی بی‌ضابطه و بدون کنترل رها شود، به منبعی از آشوب و هرج‌ومرج تبدیل خواهد شد.

بنابراین آنچه در فوریه ۲۰۲۶ اتفاق افتاد، پایان ماجرا نیست، بلکه آغاز آن است. پرسشی که سرنوشت آینده جهان را رقم خواهد زد در ظاهر ساده به نظر می‌رسد، اما در عمق، پیامدهای عظیمی به همراه دارد: چه کسی کنترل واقعی فناوری پیشرفته جنگ را در دست خواهد داشت؟ انسان با چارچوب‌های قانونی و اخلاقی‌اش، یا منطق بی‌قیدوبند قدرت که هیچ محدودیتی نمی‌شناسد؟

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.