کدخبر :307545 پرینت
25 شهریور 1403 - 10:32

نمایش محتوای خشونت‌ آمیز به پسران توسط الگوریتم‌ شبکه‌ های اجتماعی!

الگوریتم‌ ها در شبکه های اجتماعی بر اساس تعاملات کار می‌کنند، چه تعامل مثبت باشد و چه منفی، لذا کاربران در زمان ورود اطلاعات شخصی باید علاقه مندی های خود را مشخص کنند تا محتوایی که سلیقه آنها نیست برای‌شان به نمایش در نیاید و از لایک کردن پست هایی که مورد علاقه شان نیست خودداری کنند.

متن خبر

به گزارش سیتنا به نقل از بی بی سی فارسی، سال ۲۰۲۲ بود و کای، که آن زمان ۱۶ سال داشت، با موبایلش در حال چرخیدن در اینترنت بود. او می‌گوید یکی از اولین ویدیوهایی که در شبکه‌های اجتماعی‌ دید، ویدئویی از یک سگ بامزه بود. اما بعد، همه چیز تغییر کرد.

او می‌گوید «ناگهان» ویدیوهایی به او پیشنهاد شد که در آن‌ها خودرویی فردی را زیر می‌گرفت، یک مونولوگ از یک اینفلوئنسر و کلیپ‌هایی از درگیری‌های خشونت‌آمیز.

از خودش پرسید - چرا من؟

در دوبلین، اندرو کائنگ به عنوان تحلیل‌گر ایمنی کاربران در تیک‌تاک فعالیت می‌کرد. او از دسامبر ۲۰۲۰ تا ژوئن ۲۰۲۲ به مدت ۱۹ ماه مشغول این کار بود.

او می‌گوید او و یکی از همکارانش تصمیم گرفتند تا بررسی کنند که الگوریتم‌های این اپلیکیشن چه محتوایی را به کاربران در بریتانیا پیشنهاد می‌دهد، از جمله کاربران ۱۶ ساله.

کمی پیش‌تر، او برای شرکت رقیب یعنی متا که مالک اینستاگرام است - یکی دیگر از سایت‌هایی که کای از آن استفاده می‌کند - کار می‌کرد.

اندرو به برنامه پانورامای بی‌بی‌سی گفت وقتی محتوای تیک‌تاک را بررسی کرد، متوجه شد که به برخی از پسران نوجوان پست‌هایی نشان داده می‌شود که شامل خشونت و پورنوگرافی است و دیدگاه‌های زن‌ستیزانه را ترویج می‌کنند که مایه نگرانی او شد. او می‌گوید که به طور کلی، به دختران نوجوان محتوای بسیار متفاوتی بر اساس علاقه‌مندی‌هایشان پیشنهاد می‌شود.

تیک‌تاک و دیگر شرکت‌های شبکه‌های اجتماعی از ابزارهای هوش مصنوعی استفاده می‌کنند تا اکثر محتوای مضر را حذف کرده و محتوای دیگر را، صرف‌نظر از تعداد بازدیدهایی که آن‌ها داشته‌اند، برای بررسی توسط ناظران انسانی علامت‌گذاری کنند. اما ابزارهای هوش مصنوعی نمی‌توانند همه‌چیز را شناسایی کنند.

اندرو کانگ می‌گوید در زمان حضورش در تیک‌تاک، همه ویدیوهایی که هوش مصنوعی حذف نکرده یا برای ناظران انسانی علامت‌گذاری نشده بودند - یا کاربران دیگر آن‌ها را به ناظران گزارش نکرده بودند - فقط در صورتی دوباره به صورت دستی بررسی می‌شدند که به آستانه بازدید مشخصی می‌رسیدند.

او می‌گوید که در یک برهه زمانی، آستانه بازبینی ویدیوها ۱۰هزار بازدید یا بیشتر بود. او نگران بود که با این وضع شاید برخی از کاربران جوان‌تر در معرض ویدیوهای مضر قرار می‌گیرند. بیشتر شرکت‌های بزرگ شبکه‌های اجتماعی به افراد ۱۳ ساله یا بالاتر اجازه ثبت‌نام می‌دهند.

تیک‌تاک اعلام کرده است که ۹۹ درصد از محتوایی که به دلیل نقض قوانینش حذف می‌شود، توسط هوش مصنوعی یا ناظران انسانی قبل از رسیدن به ۱۰ هزار بازدید حذف می‌شود. همچنین گفته است که بررسی‌های پیشگیرانه‌ای را روی ویدیوهایی با بازدید کمتر از این تعداد انجام می‌دهد.

به گفته اندرو کانگ که بین سال‌های ۲۰۱۹ و دسامبر ۲۰۲۰ در متا کار می‌کرد، مشکل دیگری وجود داشت. او می‌گوید بیشتر ویدیوها را ابزارهای هوش مصنوعی حذف یا به ناظران گزارش می‌کردند، ولی سایت به کاربران تکیه می‌کرد تا ویدیوها را پس از تماشای آن‌ها گزارش کنند.

او می‌گوید که در هر دو شرکت نگرانی‌هایی را مطرح کرد، اما عمدتاً با بی‌توجهی مواجه شد زیرا به گفته او، ترس از میزان کار لازم یا هزینه‌ها وجود داشت. او می‌گوید که در نهایت بهبودهایی در تیک‌تاک و متا اعمال شد، اما معتقد است که کاربران جوان‌تر، مانند کای، در این مدت در معرض خطر قرار داشتند.

چندین کارمند سابق از این شرکت‌های شبکه‌های اجتماعی به بی‌بی‌سی گفته‌اند که نگرانی‌های اندرو کانگ با اطلاعات و تجربیات خودشان تطابق داشته است.

آفکام، نهاد ناظر رسانه‌ای بریتانیا، به بی‌بی‌سی می‌گوید که الگوریتم‌های تمام شرکت‌های بزرگ شبکه‌های اجتماعی به کودکان محتوای مضر را پیشنهاد می‌دهند، حتی اگر ناخواسته باشد.

آلمودنا لارا، مدیر توسعه سیاست‌های ایمنی آنلاین آفکام، می‌گوید: «شرکت‌ها چشم خود را بسته‌اند و با کودکان همان‌گونه رفتار می‌کنند که با بزرگسالان رفتار می‌کنند.»

تیک‌تاک به بی‌بی‌سی گفته است که دارای تنظیمات ایمنی «پیشرو در این صنعت» برای نوجوانان است و بیش از ۴۰ هزار نفر را برای ایمن نگه‌داشتن کاربران به کار گرفته است. این شرکت گفته است که فقط در سال جاری انتظار دارد «بیش از ۲ میلیارد دلار در زمینه ایمنی سرمایه‌گذاری کند» و ۹۸ درصد از محتوایی را که به دلیل نقض قوانینش حذف می‌کند، پیشگیرانه پیدا می‌کند.

متا، که مالک اینستاگرام و فیس‌بوک است، می‌گوید بیش از ۵۰ ابزار، منبع و ویژگی مختلف دارد تا به نوجوانان «تجربیات مثبت و مناسب سن‌شان» بدهد.

کای به بی‌بی‌سی گفت که سعی کرده از یکی از ابزارهای اینستاگرام و ابزار مشابهی در تیک‌تاک استفاده کند تا نشان دهد به محتوای خشونت‌آمیز یا زن‌ستیز علاقه‌ای ندارد - اما او می‌گوید که همچنان این محتوا به او پیشنهاد می‌شد.

کای به یو‌اف‌سی - مسابقات قهرمانی مبارزه نهایی - علاقه دارد. او متوجه شد بدون این که بخواهد، ویدیوهایی از اینفلوئنسرهای جنجالی به او نشان داده می‌شدند. او می‌گوید نمی‌خواست این محتوای افراطی‌تر به او پیشنهاد شود.

او می‌گوید: «آن تصویر وارد ذهن‌تان می‌شود و نمی‌توانید آن را پاک کنید. [آن تصویر] ذهن شما را لکه‌دار می‌کند و بعد تا پایان روز به آن فکر می‌کنید.»

گوشی

او می‌گوید به دخترانی که هم‌ سن او هستند، ویدیوهایی درباره موضوعاتی مانند موسیقی و آرایش پیشنهاد می‌شود، نه خشونت.

در عین حال، کای که اکنون ۱۸ ساله است، می‌گوید هنوز هم محتوای خشونت‌آمیز و زن‌ستیزانه در اینستاگرام و تیک‌تاک به او پیشنهاد می‌شود.

وقتی ریل‌های اینستاگرام او را مرور می‌کنیم، تصاویری می‌بینیم که خشونت خانگی را بی‌اهمیت جلوه می‌دهند یا با آن شوخی می‌کنند. در یکی از این تصاویر، دو شخصیت کنار هم قرار دارند که یکی از آن‌ها کبودی‌هایی بر تن دارد و زیر آن نوشته شده «زبان عشق من». تصویر دیگری نشان می‌دهد که فردی با کامیون زیر گرفته شده است.

کای می‌گوید که متوجه شده ویدیوهایی که میلیون‌ها لایک دارند، می‌توانند بر دیگر مردان جوان هم‌ سن او تأثیر بگذارند.

برای نمونه، او می‌گوید یکی از دوستانش تحت تأثیر محتواهای تولید شده یک اینفلوئنسر جنجالی قرار گرفت و شروع به پذیرش دیدگاه‌های زن‌ستیزانه کرد.

کای می‌گوید که در بخش نظرات پست‌ها نوشته است که علاقه‌ای به آنها ندارد و وقتی به اشتباه ویدیوهایی را لایک می‌کرده، تلاش می‌کرده آن لایک را بردارد و امیدوار بوده که الگوریتم‌ها به حالت اولیه برگردند. او می‌گوید اما به جای آن، ویدیوهای بیشتری در فیدهای او ظاهر شده است.

الگوریتم‌های تیک‌تاک چگونه کار می‌کنند؟

به گفته اندرو کانگ، الگوریتم‌ها بر اساس تعاملات کار می‌کنند، چه تعامل مثبت باشد و چه منفی. این می‌تواند بخشی از دلیل عدم موفقیت تلاش‌های کای برای تغییر الگوریتم‌ها را توضیح دهد.

اولین مرحله برای کاربران این است که هنگام ثبت‌نام، موارد مورد پسند و علایق خود را مشخص کنند. اندرو می‌گوید برخی از محتوای اولیه‌ای که الگوریتم‌ها به عنوان مثال به یک نوجوان ۱۶ ساله نشان می‌دهند، بر اساس ترجیحاتی که او مشخص کرده و ترجیحات دیگر کاربران هم‌سن او و در مکان‌های مشابه است.

به گفته تیک‌تاک، جنسیت کاربران به الگوریتم‌ها اطلاع داده نمی‌شود. اما اندرو می‌گوید علایقی که نوجوانان هنگام ثبت‌نام ابراز می‌کنند اغلب موجب دسته‌بندی آنها بر اساس جنسیت می‌شود.

این کارمند سابق تیک‌تاک می‌گوید برخی از پسران ۱۶ ساله ممکن است «فورا» با محتوای خشونت‌آمیز مواجه شوند، زیرا دیگر کاربران نوجوان با ترجیحات مشابه به این نوع محتوا علاقه نشان داده‌اند - حتی اگر این به معنی صرف زمان بیشتر روی ویدیویی باشد که توجه آن‌ها را برای مدت طولانی‌تری جلب می‌کند.

او می‌گوید علایق مشخص‌شده بسیاری از دختران نوجوان در پروفایل‌هایی که بررسی کرده است - مانند «خوانندگان پاپ، آهنگ‌ها، آرایش» - باعث شده که به آن‌ها این محتوای خشونت‌آمیز پیشنهاد نشود.

او می‌گوید الگوریتم‌ها از «یادگیری تقویتی» استفاده می‌کنند - روشی که در آن سیستم‌های هوش مصنوعی با آزمون و خطا یاد می‌گیرند - و خود را برای تشخیص رفتار نسبت به ویدیوهای مختلف آموزش می‌دهند.

اندرو کانگ می‌گوید که این الگوریتم‌ها به گونه‌ای طراحی شده‌اند که تعامل را به حداکثر برسانند و ویدیوهایی را به شما نشان دهند که انتظار دارند زمان بیشتری به تماشای آن‌ها بپردازید، روی آن‌ها نظر دهید یا آن‌ها را لایک کنید - همه این‌ها به منظور ترغیب شما به بازگشت و تماشای بیشتر است.

او می‌گوید الگوریتمی که محتوا را به «صفحه برای شما» در تیک‌تاک پیشنهاد می‌دهد، همیشه قادر به تشخیص و تفکیک محتوای مضر از محتوای غیرمضر نیست.

به گفته اندرو، یکی از مشکلاتی که او در زمان کار در تیک‌تاک شناسایی کرد، این بود که تیم‌های مربوط به آموزش و کدنویسی الگوریتم همیشه از ماهیت دقیق ویدیوهایی که الگوریتم پیشنهاد می‌کرد، آگاه نبودند.

این کارشناس سابق تیک‌تاک به من می‌گوید: «آن‌ها تنها به تعداد بینندگان، سن، ترندها و این نوع داده‌های بسیار انتزاعی توجه می‌کنند و لزوماً خود محتوا را نمی‌بینند.»

به همین دلیل، در سال ۲۰۲۲، او و یکی از همکارانش تصمیم گرفتند نگاهی بیندازند به انواع ویدیوهایی که به گروه‌های مختلف کاربران، از جمله برخی نوجوانان ۱۶ ساله، پیشنهاد می‌شوند.

او می‌گوید آن‌ها نگران محتوای خشونت‌آمیز و مضر بودند که به برخی نوجوانان نشان داده می‌شد و پیشنهاد کردند که تیک‌تاک باید سیستم نظارت خود را به‌روز کند.

آن‌ها خواهان این بودند که تیک‌تاک ویدیوها را به‌طور واضح برچسب‌گذاری کند تا هر کسی که در آنجا کار می‌کند بتواند ببیند که چرا این ویدیوها مضر هستند - دلایلی مانند خشونت شدید، آزار و سوءاستفاده، پورنوگرافی و غیره - و همچنین پیشنهاد کردند که تیک‌تاک تعداد بیشتری از مدیران محتوا را که در این زمینه‌های مختلف تخصص داشته باشند، استخدام کند. اندرو می‌گوید پیشنهادات آن‌ها در آن زمان رد شد.

تیک‌تاک می‌گوید که آن موقع ناظرانی حرفه‌ای داشت و با رشد پلتفرم، همچنان به استخدام ناظران بیشتری ادامه داده است. همچنین گفته است که انواع مختلف محتوای مضر را به دسته‌های مختلفی که آن‌ها را «صف» می‌نامد، برای ناظران تفکیک کرده است.

اندرو کانگ می‌گوید که از درون تیک‌تاک و متا، انجام تغییرات مورد نظرش بسیار دشوار به نظر می‌رسید.

او می‌گوید: «ما از یک شرکت خصوصی که هدفش ترویج محصولات خودش است، درخواست می‌کنیم که بر خود نظارت کند، که انگار به ببر بگویی شما را نخورد.»

او همچنین می‌گوید که فکر می‌کند کودکان و نوجوانان اگر از گوشی‌های هوشمند خود استفاده نکنند، زندگی بهتری خواهند داشت.

اما برای کای، ممنوع کردن گوشی‌ها یا شبکه‌های اجتماعی برای نوجوانان راه‌حل نیست. گوشی او بخش جدایی‌ناپذیر از زندگی‌اش است - وسیله‌ای بسیار مهم برای گفتگو با دوستان، مسیریابی هنگام بیرون بودن و پرداخت هزینه‌ها.

به جای آن، او می‌خواهد که شرکت‌های شبکه‌های اجتماعی بیشتر به آنچه که نوجوانان نمی‌خواهند ببینند توجه کنند. او می‌خواهد این شرکت‌ها ابزارهایی بسازند که به کاربران اجازه دهند علایق خود را مؤثرتر مشخص کنند.

کای به من می‌گوید: «احساس می‌کنم که شرکت‌های شبکه‌های اجتماعی تا جایی که پای پول در آوردن در میان باشد، احترامی برای عقیده و نظر شما قایل نیستند.»

در بریتانیا، قانونی جدید شرکت‌های شبکه‌های اجتماعی را مجبور خواهد کرد تا سن کودکان را تأیید کنند و از پیشنهاد محتواهای پورنوگرافی یا دیگر محتوای مضر به جوانان جلوگیری کنند. نهاد نظارت کننده بر رسانه‌های بریتانیا، آفکام، مسئول اجرای این قانون است.

المودینا لارا، مدیر توسعه سیاست‌های ایمنی آنلاین آفکام، می‌گوید که محتوای مضری که عمدتاً روی زنان جوان تأثیر می‌گذارد - مانند ویدیوهایی که اختلالات خوردن و خودآسیبی را ترویج می‌کنند - به‌درستی در کانون توجه قرار گرفته‌اند، اما مسیرهای الگوریتمی که نفرت و خشونت را به‌طور عمده به سمت پسران نوجوان و مردان جوان هدایت می‌کنند، کمتر در کانون توجه بوده‌اند.

خانم لارا می‌گوید: «معمولاً تعداد کمی از [کودکان] در معرض مضرترین محتوا قرار می‌گیرند. اما ما می‌دانیم که وقتی با آن محتوای مضر مواجه می‌شوید، دیگر نمی‌توان از آن اجتناب کرد.»

آفکام می‌گوید که می‌تواند شرکت‌ها را جریمه کند و در صورت عدم انجام اقدامات کافی، آن‌ها را تحت پیگرد قانونی قرار دهد، اما این تدابیر تا سال ۲۰۲۵ به اجرا در نخواهند آمد.

تیک‌تاک می‌گوید که از «فناوری‌های نوآورانه» استفاده می‌کند و «تنظیمات امنیتی و حریم خصوصی پیشرو در صنعت» را برای نوجوانان فراهم می‌آورد، از جمله سامانه‌هایی برای مسدود کردن محتوای نامناسب و همچنین تأکید می‌کند که اجازه نشر خشونت‌های شدید یا زن‌ستیزی را نمی‌دهد.

متا، که مالک اینستاگرام و فیسبوک است، می‌گوید که بیش از «۵۰ ابزار، منبع و ویژگی مختلف» دارد تا به نوجوانان «تجربیات مثبت و مناسب با سن‌شان» ارائه دهد. به گفته متا، این شرکت از تیم‌های خود بازخورد می‌گیرد و تغییرات سیاستی احتمالی از طریق یک فرآیند دقیق بررسی می‌شوند.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.