پیشرفتهای ترسناک هوش مصنوعی در سال ۲۰۲۴
برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفتهای هراسانگیزی را از هوش مصنوعی شاهد خواهیم بود، از تولید محتوای جعلی و ساختگی تا بسیاری تواناییهای دیگر از جمله کاربردهای عملی چتجیپیتی.
به گزارش سیتنا به نقل از لایوساینس، پدیده هوش مصنوعی، پدیده جدیدی نیست و از دههها پیش تاکنون وجود داشته است، اما آنچه که با گذشته متفاوت است این است که اکنون مردم عادی نیز با استفاده از چتجیپیتی شرکت اوپنایآی میتوانند به آن دسترسی داشته باشند. این فناوری در پی سالها تجربه و آزمون و خطا به دست آمده و تاریخچهای طولانی پشت خود دارد.
اینک هوش مصنوعی آمده است تا از فرایند تشخیص پزشکی گرفته تا کشفیات علمی را متحول کند. برای نمونه هوش مصنوعی میتواند با تجزیه و تحلیل یک اسکن پرتو ایکس، میزان خطر ابتلای یک فرد به سرطان ریه را تشخیص دهد یا در دوران همهگیری کرونا یک الگوریتم هوش مصنوعی ساخته شده بود که میتوانست با شنیدن تفاوتهای ظریف در صدای سرفه افراد، آلودگی فرد به ویروس را تشخیص دهد. از هوش مصنوعی همچنین برای طراحی آزمایشهای علمی به خصوص در فیزیک کوانتومی نیز استفاده شده است.
اما کاربردهای هوش مصنوعی به این موارد خلاصه نمیشود و هوش مصنوعی فراتر از اینها به زمینههای ناخوشایند و چه بسا خطرناک نیز وارد شده است. از پهپادهای قاتل گرفته تا تولید محتوای جعلی که هر کدام به نوعی آینده بشر را تهدید میکنند.
لایوساینس در گزارش خود چند نمونه از هولناکترین پیشرفتهای احتمالی هوش مصنوعی در سال ۲۰۲۴ را فهرست کرده است.
هوش مصنوعی کیو-استار؛ آیا هوش جامع مصنوعی فرا رسیده است؟
هنوز هیچکس دقیقا نمیداند که چرا سم آلتمن، مدیرعامل شرکت اوپنایآی، در اواخر سال ۲۰۲۳ از کار خود اخراج و سپس بازگردانده شد. اما در کشاکش هرجومرجهایی که در پی اخراج او در این شرکت رخ داد، شایعاتی شنیده شد که برخی از آنها هولناک به نظر میرسید.
از جمله این شایعات، ظهور یک فناوری به نام کیو استار بود که به گمان برخی ممکن است تحقق هوش جامع مصنوعی باشد. هنوز اطلاعات کمی درباره این سیستم رازآلود وجود دارد، اما اگر این گزارشها واقعیت داشته باشند، این پروژه میتواند قابلیتهای هوش مصنوعی را چند پله ارتقا دهد.
هوش جامع مصنوعی اصطلاحی است که دانشمندان علوم رایانهای آن را به کار میبرند و مقصودشان رسیدن به مرحلهای است که در آن، هوش مصنوعی از انسان پیشی میگیرد و باهوشتر میشود. مدلهای کنونی هوش مصنوعی هنوز مشکلات بسیاری دارند و در زمینههایی از جمله استدلال مبتنی بر خلاقیت، از انسان عقبترند. اغلب محتوای تولیدشده در هوش مصنوعی صرفا بر پایه همان دادههایی است که پیش از این به او آموزش داده شده است.
اما هوش جامع مصنوعی احتمالا خواهد توانست برخی از کارها را بهتر از اغلب مردم انجام دهد. این دقیقا همان نقطهای است که دانشمندان را نگران کرده است. اگر هوش جامع مصنوعی برای مقاصد تهاجمی مورد استفاده قرار گیرد متوقف کردن آن کار سادهای نیست.
برای نمونه هوش مصنوعی ممکن است با ایجاد پاتوژنهای تقویتشده، با راهاندازی حملههای سایبری عظیم یا سازماندهی عملیات جعل و تولید محتوای اصطلاحا فیک (جعلی)، تمدن بشری را با خطر روبرو کند.
ایده هوش جامع مصنوعی تا مدتها مفهومی علمی-تخیلی به نظر میرسید و بسیاری از دانشمندان هنوز هم باور دارند که ما هرگز به این نقطه نخواهیم رسید.
اگر اوپنایآی واقعا به این مرحله رسیده باشد این یک شوک بزرگ خواهد بود. اما واقعیت این است که این موضوع چندان هم غیرمحتمل نیست. سم آلتمن در فوریه ۲۰۲۳ در حال ایجاد زمینهای برای هوش مصنوعی جامع بوده و برخی از پژوهشگران گفتهاند که هوش جامع مصنوعی تا ۵ سال آینده در دسترس خواهد بود. اما آیا در سال ۲۰۲۴ به هوش جامع مصنوعی دست خواهیم یافت؟ گذر زمان این موضوع را به ما نشان خواهد داد.
تقلب در انتخابات و فناوری جعل عمیق
یکی از مهمترین تهدیدهای سایبری، جعل عمیق (دیپفیک) است.جعل عمیق اصطلاحا به تصاویر یا ویدیوهای کاملا ساختگی از افراد گفته میشود که ممکن است تصویر نادرستی از آنها نشان دهد. فناوری جعل عمیق هوش مصنوعی تا اینجای کار به اندازه کافی خوب نبوده است که یک تهدید مهم تلقی شود. اما شرایط همواره به این صورت باقی نخواهد ماند و ممکن است همه چیز به زودی عوض شود.
هوش مصنوعی اکنون در تولید چهرههای انسانی به قدری خوب شده است که دیگر به سختی میتوان تفاوت بین تصاویر واقعی و جعلی را تشخیص داد.
یک بررسی در مجله سایکولوژیکال ساینس در نوامبر سال پیش نشان داد که پدیدهای به نام هایپررئالیسم ممکن است سبب شود که محتوای تولیدشده با هوش مصنوعی، بیشتر از خود واقعیت بهعنوان محتوای واقعا «واقعی» برداشت شود.
این امر در عمل تشخیص واقعیت از خیال را، دستکم با چشم معمولی، برای افراد غیرممکن میکند. اگرچه ابزارهایی کمکی نیز وجود دارند که به افراد کمک میکنند تا «دیپ فیکها» را شناسایی کنند، اما این ابزارها هنوز راه درازی در پیش دارند تا بتوانند اثر قطعی و دقیق در شناسایی تصاویر جعلی به جای بگذارند.
با پیشرفت هوش مصنوعی، احتمال ترسناکی که پیش میآید این است که بتوان از جعل عمیق برای تغییر در نتایج انتخابات استفاده کرد.
به عنوان نمونه در شرایطی که به گزارش فایننشال تایمز، بنگلادش خود را برای انتخاباتی در ژانویه آماده میکند که جعل عمیق میتواند در آن اخلال ایجاد کند. در حالی که ایالات متحده نیز برای برگزاری انتخابات ریاستجمهوری در نوامبر ۲۰۲۴ آماده میشود، این احتمال وجود دارد که هوش مصنوعی و جعل عمیق بتوانند نتیجه این انتخابات مهم را تغییر دهند.
برخی از گزارشها حاکی از آناند که بسیاری از ایالتهای آمریکا از قوانین یا ابزارهای لازم برای رسیدگی به هرگونه نشر اطلاعات نادرست هوش مصنوعی برخوردار نیستند.
رباتهای قاتل با هوش مصنوعی
هوش مصنوعی در سراسر جهان به طور فزایندهای در ابزارهای جنگی استفاده میشود. دولت ایالات متحده در ۲۲ نوامبر اعلام کرد که ۴۷ ایالت این کشور، بیانیهای را در مورد استفاده مسئولانه از هوش مصنوعی در ارتش تایید کردهاند.
برخی از دانشمندان میگویند تدوین چنین بیانیهای لازم بود. چرا که استفاده غیرمسئولانه از هوش مصنوعی بدون شک چشمانداز هولناکی را پیش روی بشر قرار میدهد. بهعنوان مثال، ما شاهد پهپادهای هوش مصنوعی بودهایم که در لیبی بدون دخالت انسان حملههای خود را صورت میدادند.
در واقع هوش مصنوعی میتواند الگوها را تشخیص دهد، خودآموزی کند، پیشبینی کند یا حتی توصیههایی در زمینههای نظامی ایجاد کند. از این رو رقابت تسلیحاتی سختی در هوش مصنوعی در دنیا در جریان است.
در سال ۲۰۲۴، این احتمال وجود دارد که نه تنها شاهد استفاده از هوش مصنوعی در سامانههای تسلیحاتی باشیم، بلکه ببینیم که از هوش مصنوعی در سیستمهای لجستیکی و پشتیبانی و همچنین در واحدهای تحقیق و توسعه نیز استفاده میشود.
مثال بارز آن در سال ۲۰۲۲ بود که هوش مصنوعی توانست ۴۰ هزار سلاح شیمیایی جدید و فرضی تولید کند.
انتهای پیام
افزودن دیدگاه جدید