کدخبر :289532 پرینت
13 دی 1402 - 09:59

پیشرفت‌های ترسناک هوش مصنوعی در سال ۲۰۲۴

برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفت‌های هراس‌انگیزی را از هوش مصنوعی شاهد خواهیم بود، از تولید محتوای جعلی و ساختگی تا بسیاری توانایی‌های دیگر از جمله کاربردهای عملی چت‌جی‌پی‌تی.

متن خبر

به گزارش سیتنا به نقل از لایوساینس، پدیده هوش مصنوعی، پدیده‌ جدیدی نیست و از دهه‌ها پیش تاکنون وجود داشته است، اما آنچه که با گذشته متفاوت است این است که اکنون مردم عادی نیز با استفاده از چت‌جی‌پی‌تی شرکت اوپن‌ای‌آی می‌توانند به آن دسترسی داشته باشند. این فناوری در پی سال‌ها تجربه و آزمون و خطا به دست آمده و تاریخچه‌ای طولانی پشت خود دارد.

اینک هوش مصنوعی آمده است تا از فرایند تشخیص پزشکی گرفته تا کشفیات علمی را متحول کند. برای نمونه هوش مصنوعی می‌تواند با تجزیه و تحلیل یک اسکن پرتو ایکس، میزان خطر ابتلای یک فرد به سرطان ریه را تشخیص دهد یا در دوران همه‌‌گیری کرونا یک الگوریتم هوش مصنوعی ساخته شده بود که می‌توانست با شنیدن تفاوت‌های ظریف در صدای سرفه افراد، آلودگی فرد به ویروس را تشخیص دهد. از هوش مصنوعی همچنین برای طراحی آزمایش‌های علمی به خصوص در فیزیک کوانتومی نیز استفاده شده است.

اما کاربردهای هوش مصنوعی به این موارد خلاصه نمی‌شود و هوش مصنوعی فراتر از این‌ها به زمینه‌‌های ناخوشایند و چه بسا خطرناک نیز وارد شده است. از پهپادهای قاتل گرفته تا تولید محتوای جعلی که هر کدام به نوعی آینده بشر را تهدید می‌کنند.

لایوساینس در گزارش خود چند نمونه از هولناک‌ترین پیشرفت‌های احتمالی هوش مصنوعی در سال ۲۰۲۴ را فهرست کرده است.

هوش مصنوعی کیو-استار؛ آیا هوش جامع مصنوعی فرا رسیده است؟

هنوز هیچ‌کس دقیقا نمی‌داند که چرا سم آلتمن، مدیرعامل شرکت اوپن‌ای‌آی، در اواخر سال ۲۰۲۳ از کار خود اخراج و سپس بازگردانده شد. اما در کشاکش هرج‌ومرج‌هایی که در پی اخراج او در این شرکت رخ داد، شایعاتی شنیده شد که برخی از آن‌ها هولناک به نظر می‌رسید.

از جمله این شایعات، ظهور یک فناوری به نام کیو استار بود که به گمان برخی ممکن است تحقق هوش جامع مصنوعی باشد. هنوز اطلاعات کمی درباره این سیستم رازآلود وجود دارد، اما اگر این گزارش‌ها واقعیت داشته باشند، این پروژه می‌تواند قابلیت‌های هوش مصنوعی را چند پله ارتقا دهد.

هوش جامع مصنوعی اصطلاحی است که دانشمندان علوم رایانه‌ای آن را به کار می‌برند و مقصودشان رسیدن به مرحله‌ای است که در آن، هوش مصنوعی از انسان پیشی می‌گیرد و باهوش‌تر می‌شود. مدل‌های کنونی هوش مصنوعی هنوز مشکلات بسیاری دارند و در زمینه‌هایی از جمله استدلال مبتنی بر خلاقیت، از انسان عقب‌ترند. اغلب محتوای تولیدشده در هوش مصنوعی صرفا بر پایه همان داده‌هایی است که پیش از این به او آموزش داده شده است.

اما هوش جامع مصنوعی احتمالا خواهد توانست برخی از کارها را بهتر از اغلب مردم انجام دهد. این دقیقا همان نقطه‌ای است که دانشمندان را نگران کرده است. اگر هوش جامع مصنوعی برای مقاصد تهاجمی مورد استفاده قرار گیرد متوقف کردن آن کار ساده‌ای نیست.

برای نمونه هوش مصنوعی ممکن است با ایجاد پاتوژن‌های تقویت‌شده، با راه‌اندازی حمله‌های سایبری عظیم یا سازماندهی عملیات جعل و تولید محتوای اصطلاحا فیک (جعلی)، تمدن بشری را با خطر روبرو کند.

ایده هوش جامع مصنوعی تا مدت‌ها مفهومی علمی-تخیلی به نظر می‌رسید و بسیاری از دانشمندان هنوز هم باور دارند که ما هرگز به این نقطه نخواهیم رسید.

اگر اوپن‌ای‌آی واقعا به این مرحله رسیده باشد این یک شوک بزرگ خواهد بود. اما واقعیت این است که این موضوع چندان هم غیرمحتمل نیست. سم آلتمن در فوریه ۲۰۲۳ در حال ایجاد زمینه‌ای برای هوش مصنوعی جامع بوده و برخی از پژوهشگران گفته‌اند که هوش جامع مصنوعی تا ۵ سال آینده در دسترس خواهد بود. اما آیا در سال ۲۰۲۴ به هوش جامع مصنوعی دست خواهیم یافت؟ گذر زمان این موضوع را به ما نشان خواهد داد.

تقلب در انتخابات و فناوری جعل عمیق 

یکی از مهم‌ترین تهدیدهای سایبری، جعل عمیق (دیپ‌فیک) است.جعل عمیق اصطلاحا به تصاویر یا ویدیوهای کاملا ساختگی از افراد گفته می‌شود که ممکن است تصویر نادرستی از آن‌ها نشان دهد. فناوری جعل عمیق هوش مصنوعی تا اینجای کار به اندازه کافی خوب نبوده است که یک تهدید مهم تلقی شود. اما شرایط همواره به این صورت باقی نخواهد ماند و ممکن است همه چیز به زودی عوض شود.

هوش مصنوعی اکنون در تولید چهره‌های انسانی به قدری خوب شده است که دیگر به سختی می‌توان تفاوت بین تصاویر واقعی و جعلی را تشخیص داد.

یک بررسی در مجله سایکولوژیکال ساینس در نوامبر سال پیش نشان داد که پدیده‌ای به نام هایپررئالیسم ممکن است سبب شود که محتوای تولید‌شده با هوش مصنوعی، بیشتر از خود واقعیت به‌عنوان محتوای واقعا «واقعی» برداشت شود.

این امر در عمل تشخیص واقعیت از خیال را، دست‌کم با چشم معمولی، برای افراد غیرممکن می‌کند. اگرچه ابزارهایی کمکی نیز وجود دارند که به افراد کمک می‌کنند تا «دیپ فیک‌ها» را شناسایی کنند، اما این ابزارها هنوز راه درازی در پیش دارند تا بتوانند اثر قطعی و دقیق در شناسایی تصاویر جعلی به جای بگذارند.

با پیشرفت هوش مصنوعی، احتمال ترسناکی که پیش می‌آید این است که بتوان از جعل عمیق برای تغییر در نتایج انتخابات استفاده کرد.

به عنوان نمونه در شرایطی که به گزارش فایننشال تایمز، بنگلادش خود را برای انتخاباتی در ژانویه آماده می‌کند که جعل عمیق می‌تواند در آن اخلال ایجاد کند. در حالی که ایالات متحده نیز برای برگزاری انتخابات ریاست‌جمهوری در نوامبر ۲۰۲۴ آماده می‌شود، این احتمال وجود دارد که هوش مصنوعی و جعل عمیق بتوانند نتیجه این انتخابات مهم را تغییر دهند.

برخی از گزارش‌ها حاکی از آن‌اند که بسیاری از ایالت‌های آمریکا از قوانین یا ابزارهای لازم برای رسیدگی به هرگونه نشر اطلاعات نادرست هوش مصنوعی برخوردار نیستند.

ربات‌های قاتل با هوش مصنوعی

هوش مصنوعی در سراسر جهان به طور فزاینده‌ای در ابزارهای جنگی استفاده می‌شود. دولت ایالات متحده در ۲۲ نوامبر اعلام کرد که ۴۷ ایالت این کشور، بیانیه‌ای را در مورد استفاده مسئولانه از هوش مصنوعی در ارتش تایید کرده‌اند.

برخی از دانشمندان می‌گویند تدوین چنین بیانیه‌ای لازم بود. چرا که استفاده غیرمسئولانه از هوش مصنوعی بدون شک چشم‌انداز هولناکی را پیش روی بشر قرار می‌دهد. به‌عنوان مثال، ما شاهد پهپادهای هوش مصنوعی بوده‌ایم که در لیبی بدون دخالت انسان حمله‌های خود را صورت می‌دادند.

در واقع هوش مصنوعی می‌تواند الگوها را تشخیص دهد، خودآموزی کند، پیش‌بینی کند یا حتی توصیه‌هایی در زمینه‌های نظامی ایجاد کند. از این رو رقابت تسلیحاتی سختی در هوش مصنوعی در دنیا در جریان است.

در سال ۲۰۲۴، این احتمال وجود دارد که نه تنها شاهد استفاده از هوش مصنوعی در سامانه‌‌های تسلیحاتی باشیم، بلکه ببینیم که از هوش مصنوعی در سیستم‌های لجستیکی و پشتیبانی و همچنین در واحدهای تحقیق و توسعه نیز استفاده می‌شود.

مثال بارز آن در سال ۲۰۲۲ بود که هوش مصنوعی توانست ۴۰ هزار سلاح شیمیایی جدید و فرضی تولید کند.

انتهای پیام

برچسب ها

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.