کدخبر :263897 پرینت
09 آذر 1400 - 10:23

کمک "هوش مصنوعی" به فضای حقوقی

یکی از حوزه‌های کاربردی هوش مصنوعی در علوم جنائی از طریق پیش‌بینی جرم، پیشگیری و دستگیری مظنونین تا صلاحیت‌سنجی جهت اعمال و اجرای نهادهای ارفاقی و مراقبت‌های پس از خروج از زندان است.

متن خبر

به گزارش سیتنا به نقل از تسنیم، کرسی نظریه‌پردازی "کاربرد هوش مصنوعی در پیشگیری از جرم" به همت پژوهشکده حقوقی شهر دانش و با ارائه مهرنوش ابوذری، عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه تهران، برگزار شد.

بهزاد لک، عضو هیئت علمی دانشگاه علوم انتظامی امین، محمد فرجی‌ها، عضو هیئت علمی دانشگاه تربیت مدرس و بهرام بیات، عضو هیئت علمی دانشگاه عالی دفاع ملی، ناقدان این کرسی بودند. در این نشست به کاربردهای هوش مصنوعی در فضای حقوقی پرداخته و گفته شد؛ یکی از حوزه‌های کاربردی هوش مصنوعی در علوم جنائی از طریق پیشگیری جرم و دستگیری مظنونین تا مراقبت‌های پس از خروج از زندان است.

در آغاز این کرسی راضیه صابری که دبیری علمی جلسه را به عهده داشت، سؤال تحقیق را به این صورت مطرح کرد؛ "کاربرد هوش مصنوعی در پیشگیری از جرم چیست و استفاده از آن، چه منافع و مضراتی به همراه دارد؟"

نگاهی به کاربردهای هوش مصنوعی در فضای حقوقی

مهرنوش ابوذری، ارائه‌دهنده موضوع با بیان اینکه هوش مصنوعی به عنوان یک تکنولوژی که در صدد شبیه‌سازی هوش طبیعی انسان و جانشینی و دستیاری هوش انسان و حذف محدودیت‌های بشری است، اظهار کرد: فارغ از اینکه هوش مصنوعی در چه بخش‌هایی مورد استفاده قرار گیرد، پیامدهای آن می‌تواند سطوح مختلف از اجرای ساده وظایف گرفته تا تصمیم‌گیری‌های سریع و پیچیده را تحت تأثیر قرار دهد.

وی افزود: در عصر پیشرفت بسیار سریع هوش مصنوعی و فناوری رباتیک، بی‌توجهی به فرصت‌ها و چالش‌های این حوزه جامعه را با مسائلی پیش‌بینی نشده روبرو خواهد کرد. لذا کشورهای پیشرو در این حوزه تلاش می‌کنند ضمن پذیرش و تلاش در توسعه آن، در زمینه قانون‌های حاکم بر طراحی، ساخت، تجاری‌سازی و مسائل اجتماعی، اخلاقی و امنیتی آن نیز پیشتاز باشند.

این عضو هیئت علمی دانشگاه تهران در ادامه به کاربردهای هوش مصنوعی در فضای حقوقی پرداخت و طی آن اظهار کرد: یکی از حوزه‌های کاربردی هوش مصنوعی در علوم جنائی از طریق پیش‌بینی جرم، پیشگیری و دستگیری مظنونین تا صلاحیت‌سنجی جهت اعمال و اجرای نهادهای ارفاقی و مراقبت‌های پس از خروج از زندان است که در این موضوع بررسی می‌شود.

هوش مصنوعی می‌تواند در شناسایی و حذف زمینه‌های جرم و شناسایی علت‌های بزهکاری کمک کند. داده‌کاوی و تحلیل داده‌ها، عملکرد شبکه عصبی، یادگیری ماشین، سامانه‌های خبره، پردازش زبان طبیعی و ... می‌توانند در تصمیمات مربوط به پیشگیری از جرم مؤثر باشند.

وظیفه قوای عمومی در قبال بزهکاری فقط مجازات کردن نیست

وی تأکید کرد: وظیفه دولت و قوای عمومی در قبال مسأله بزهکاری و ناامنی، صرفاً مجازات کردن مجرمان نیست؛ بلکه دولت‌ها موظفند در چارچوب اصل حاکمیت قانون و اصول ناظر بر منصفانه بودن رسیدگی‌ها و صیانت از شهروندان، اقدامات به موقع جلوگیری از ورود صدمه و آسیب به افراد انجام دهند. و دیگر نمی‌توان با این تصور ساده که ترس از مجازات مانع از ورود صدمات به جامعه می‌شود، به مقابله با آنها پرداخت، بلکه مقابله با آنها مستلزم اتخاذ روش‌هایی است که نه تنها ارتکاب جرایم قریب‌الوقوع توسط مجرمین احتمالی را غیرممکن سازد، بلکه در صورت وقوع، مانع ادامه ضرر بیشتر شود.

این عضو هیئت علمی دانشگاه تهران تأکید کرد: البته لازم است به طور قانونمند و عادلانه از وقوع و استمرار جرایم جلوگیری کرده و از ایراد خسارات غیرقابل جبران به اعضای جامعه ممانعت آورد. داده‌هایی که از سیستم‌های نظارتی، دوربین‌های کنترلی یا امنیتی به دست می‌آید، همه قابلیت جمع‌آوری داشته و می‌توانند مورد تحلیل واقع شوند. از این دادها معنا استخراج شده و براساس آن برنامه‌ریزی انجام می‌شود. با استفاده از این فناوری می‌توان زمینه‌های خطر را شناسایی کرده و احتمال وقوع جرم را پیش‌بینی کرد.

کارآمدی استفاده از الگوریتم‌های پیش‌بینی رفتار در تصمیم‌گیری‌های قضائی

ابوذری در ادامه به تأثیر هوش مصنوعی در داده‌کاوی تحقیقات جنایی و تجزیه ‌و تحلیل هوشمند جرم پرداخت و گفت: جرم در تحلیل‌ها و تحقیقات جنایی براساس سه متغیر فضا و زمان جرم، داده‌های بزهکاری و سوابق پیاده‌سازی شده است.

هر یک از داده‌های مشخصات طبیعی رفتار، ویژگی‌های صحنه جرم، الگوی رفتاری جرم، مشخصات مجرم از حیث سن، جنس، نژاد و ... و ایجاد ارتباط بین داده‌ها می‌تواند منجر به ارتباط و همبستگی آنها با هم شده و در نهایت منجر به شکل‌گیری نرم‌افزارها و سیستم‌های تحقیق جغرافیایی شود که احتمال وقوع جرم و یا مکانی که بزه‌دیده بعدی در یک جرم سریالی وجود خواهد داشت را پیش‌بینی کند.

این امر در عملکرد پلیس و تصمیم‌گیری در برنامه‌های تأمین امنیت مهم خواهد بود. البته پیش‌بینی از جرایم احتمالی و رفتارهای آینده مجرمین پرخطر، صرفاً به‌منظور پیشگیری از وقوع جرم خواهد بود و دستگیری افراد و مجازات آنها، پیش از آنکه جرمی واقع شود، براساس قواعد حقوق کیفری مورد منع جدی قرار گرفته است.

وی ادامه داد: همچنین استفاده از الگوریتم‌های پیش‌بینی رفتار افراد می‌تواند در تصمیم‌گیری مقام قضائی کارآمد باشد که بر اساس الگوهای ارزیابی ریسک و خطر عمل می‌کنند و درجه خطرناکی فرد را وزن‌دهی و ارزیابی می‌کند. هوش مصنوعی با پیش‌بینی رفتار مرتکبین جهت اعمال نهادهای ارفاقی مانند آزادی مشروط، تعلیق و غیره می‌تواند بسیار کارآمد باشد. همچنین در قرارهای تأمین کیفری که بر اساس درجه خطرناکی متهم و تضمین حضور وی در دادرسی است، کاربرد خواهد داشت.

چالش‌های استفاده از هوش مصنوعی

وی در ادامه به چالش‌ها و نگرانی‌های موجود در زمینه استفاده از هوش مصنوعی اشاره کرد و گفت: دو چالش اصلی، مربوط به نقض حریم خصوصی و نقض داده‌های شخصی افراد است که مبادا استفاده از این حجم کلان داده‌ها، منجر به نقض حریم شهروندان و اعمال‌نفوذ بر آنها شود.

گرچه روزبه‌روز هوش مصنوعی پیشرفته‌تر می‌شود و می‌تواند از یادگیری ماشین و یادگیری عمیق بیشتر بهره ببرد، حتی خودش تصمیم بگیرد چطور تحلیل کرده و رفتار کند، اما کماکان از داده‌های انسانی و جامعه تأثیر می‌گیرد و این نگرانی وجود دارد که تحت تأثیر سوءگیری‌ها و تعصبات انسان‌ها در مورد مسائل مختلف قرار نگیرد.

ابوذری گفت: مهم است که از کاربردهای هوش مصنوعی در عملیات نظامی و تروریستی استفاده نشده و منجر به ظهور ربات‌های تروریست و ربات‌های سربازی نشود که بدون ملاحظات اخلاقی و انسانی دست به هر عمل خطرناکی می‌زنند. همچنین این یک نگرانی کلی است که هوش مصنوعی منجر به بیکاری و حذف انسان‌ها و مشاغل انسانی نشود. در استفاده از این فناوری باید اخلاقیات رعایت شود.

استفاده از هوش مصنوعی باید همراه با رعایت حقوق اساسی مردم، امنیت، معیشت و صیانت از شهروندان باشد. سیستم‌های کنترلی و نظارتی نباید منجر به کنترل و سلطه‌گری بر شهروندان شوند. استفاده از این فناوری برای دولت‌های نیازمند چارچوبی است که در جهت افزایش اعتماد عمومی، بهبود سطح زندگی مردم، افزایش، تسهیل و بهبود خدمات دولت‌ها بر مردم تعریف می‌شود. لذا استفاده از آن نباید منجر به نقض حریم خصوصی و یا حقوق اساسی و بنیادین انسان شود.

تصویب قوانین مربوط به هوش مصنوعی

ابوذری در ادامه به روند مقرره‌گذاری در باب هوش مصنوعی طی چند سال اخیر اشاره کرد و گفت: با توجه به این نگرانی‌ها، کشورهای پیشرو در این زمینه به ایجاد قوانین و وضع قوانین حداقلی در تبیین رویکرد خود و چارچوب استفاده از این فناوری کرده‌اند که آغاز این تلاش‌ها را از سال 2016 در اتحادیه اروپا و ایالات متحده آمریکا می‌توان ملاحظه کرد. در نهایت تبلور این مقرره‌گذاری به سال 2021 در قانون هوش مصنوعی توسط اتحادیه اروپا بازمی‌گردد.

این مقرره در دوازده عنوان و 85 ماده و با رویکردی ریسک‌بنیان تنظیم شده است که تلاش کرده با تفکیک کاربردهای هوش مصنوعی در قالب موارد با خطر غیرقابل پذیرش مانند استفاده در سیستم‌های شناسایی بیومتریک از راه دور، ایجاد سیستم رتبه‌بندی اجتماعی شهروندان (ممنوعیت این موارد)، پرخطر (رعایت قواعد تعیین‌شده با ضمانت اجرا) و کم خطر قواعدی در این زمینه ایجاد کند.

وی افزود: به‌کارگیری هوش مصنوعی در علوم مختلف که منجر به تصمیم‌گیری در مورد آزادی‌ها و حریم شهروندان می‌شود، باید تعادلی میان منافع استفاده از این فناوری و حمایت از ارزش‌های بنیادین بشری ایجاد شود؛ یعنی مرکزیت و محور انسان قرار گیرد. لازم هست دو اصل در استفاده از هوش مصنوعی مورد توجه قرار بگیرد، نخست؛ این اصل نباید منجر به ایجاد سلطه و حاکمیت دولت‌ها بر مردم و ایجاد دولت‌های خودمحور شود و دوم؛ استفاده از هوش مصنوعی نباید باعث حاکمیت خود هوش مصنوعی بر انسان به‌ویژه در گونه‌های تکامل‌یافته‌تر آن در دهه‌های بعدی شود.

برای رعایت حقوق شهروندی در حوزه هوش مصنوعی نیازمند انصاف و شفافیت هستیم

در ادامه دکتر بهزاد لک، ناقد اول کرسی در سخنانی پس از اشاره به تاریخچه مفهوم هوش مصنوعی بیان کرد: اصل هوش مصنوعی، کار با داده است. مشکلی که در بحث داده وجود دارد، این است که داده‌کاوها معتقد هستند که 70 درصد کار داده‌کاوی و استفاده از الگوریتم‌های شبکه عصبی، 70 درصد زمان یک داده‌کاو را می‌گیرد. یادگیری ماشین، یادگیری شبکه عصبی، شبکه عصبی مصنوعی، پردازش زبان طبیعی و ... از مفاهیمی هستند که در بحث هوش مصنوعی می‌توانیم به آنها بپردازیم.

بحث حریم خصوصی یا بحث اخلاق در استفاده از هوش مصنوعی بسیار مهم است و ما برای این‌که بتوانیم حقوق اساسی شهروندان را در این حوزه رعایت کنیم، باید مؤلفه‌هایی همچون انصاف، پاسخ‌گویی و شفافیت را در نظر بگیریم. این بحث نباید حق برخورداری از فرآیند قانونی، فرض بی‌گناهی و آزادی بیان را نقض کند. در بحث پاسخ‌گویی نیز باید فرهنگ پاسخ‌گویی در سطح یک سازمان ایجاد شود. بحث شفافیت یا داشتن داشبورد مدیریتی نیز باید به‌درستی و هدفمند مدیریت شود.

لک در ادامه بیان کرد: اولین قدم برای استفاده درست دستگاه‌های مجری قانون از این ابزارها این است که فاصله تصمیم‌گیری تا اقدام به صفر نزدیک شود. استفاده کردن از این شبکه عصبی بعد از وقوع جرم هیچ فایده‌ای ندارد. واکنش بلادرنگ و عوامل تأثیرگذار محیطی عامل دومی است که می‌تواند در بحث هوشمندسازی خیلی مؤثر باشد. عامل سوم، یکپارچگی و هماهنگی بین سامانه‌های اطلاعاتی و مرتبط با پایگاه داده‌های توزیع ‌شده است.

وی ادامه داد: برای اینکه بتوانید یک اشراف اطلاعاتی برای پشتیبانی مکان‌های دارای ریسک داشته باشید، باید یک داشبورد مدیریتی مبتنی بر تحلیل‌های برخط داشته باشید. امروزه تحلیل‌ها براساس داده‌هایی که قبلاً در پایگاه داده‌های مختلف تولید شده است، ارائه می‌شود. در نتیجه، با اینکه این ابزارها و فناوری‌ها می‌توانند کمک کنند، اما خروجی آنها برای تصمیم‌گیری مناسب نخواهد بود.

لک بیان کرد: امروزه بحث انتقال از جرایم سنتی به سمت جرایم نوظهور مطرح است. پیش‌بینی و پیشگیری از این جرایم مستلزم سرمایه‌گذاری هر چه بیشتر روی بحث مدیریت ریسک است که دارای دو فاکتور اساسی، یعنی احتمال وقوع جرم و تأثیر جرم است. معمولاً در کارهای شبکه‌های عصبی و دیگر الگوریتم‌ها مفهومی به نام "دقت" داریم.

تمامی فناوری‌های مبتنی بر هوش مصنوعی حکم قطعی ندارند و دقت و قابلیت اطمینان آنها 100 درصد نیست. باید یک ساختار و طبقه‌بندی از جرایم داشته باشیم که وقتی می‌خواهیم تصمیم‌گیری کنیم یا از این ابزارها استفاده کنیم، از الگوریتمی استفاده کنیم که دقت آن از سایر الگوریتم‌ها بیشتر باشد. ما برای اینکه بتوانیم برنامه‌ای برای استفاده از فناوری‌های هوش مصنوعی جهت پیشگیری از جرم تنظیم کنیم، باید هر سال این برنامه را اصلاح کنیم. باید انواع جرایم سنتی، سایبری و ترکیبی را به‌روزرسانی و دسته‌بندی کنیم و برای دسته‌بندی این جرایم از الگوریتم‌هایی با دقت بالا استفاده کنیم.

وی در ادامه تأکید کرد: نقش پلیس، نهادها، سازمان‌ها و مردم باید مشخص شود. درست است که کاربرد هوش مصنوعی شاید بیشتر به بحث مأموریت‌های پلیس، پیش‌بینی و پیشگیری و ردیابی جرایم و ... بازگردد، اما سازمان‌های دیگر هم می‌توانند نقش ایفا کنند. همچنین، همواره باید بین امنیت و حریم خصوصی تعادل ایجاد شود؛ نیازهای پلیس برای هوش مصنوعی شناسایی و به‌صورت ساختارمند طبقه‌بندی شود؛ ابتکارات جدید یا در حال اجرای هوش مصنوعی با آگاهی نهادهای مجری قانون شناسایی شود؛ متن‌های قانونی اخلاقی قابل‌قبول برای جمع‌آوری و تجزیه‌وتحلیل داده‌ها برای اجرای قانون تدوین شود؛ مطالعه در مورد جرایم نوظهور که شامل استفاده مخرب از هوش مصنوعی و رباتیک است، صورت بگیرد؛ آگاهی بیشتر از مسائل هوش مصنوعی و رباتیک از طریق بهبود آموزش و تبادل اطلاعات در پلیس توسعه پیدا کند و ... .
اعتبار علمی لازم برای پیش‌بینی وقوع جرم از طریق زیرساخت اطلاعاتی را نداریم.

سپس محمد فرجی‌ها، ناقد دوم کرسی به ارائه دیدگاه‌های خود پرداخت و طی آن گفت: همیشه وقتی بحث انتقال ساختارها، نهادها و ابزارها به بسترهای حقوقی ـ سیاسی جامعه مطرح می‌شود، این نگرانی وجود دارد که اگر این انتقال صورت بگیرد، آیا ما هم از آنها همان استفاده‌ای را که الان در آلمان و آمریکا می‌شود، می‌کنیم؟ اگر قرار است در قالب کرسی نظریه‌پردازی چنین بحث‌هایی مطرح شود، پژوهشگر باید توصیفی از وضعیت حقوقی ـ سیاسی جامعه ما ارائه دهد و این چالش‌ها را در بستر نظام حقوقی ـ سیاسی ما مورد بحث قرار دهد.

فرجی‌ها در ادامه گفت: یکی از مهم‌ترین چالش‌ها در حوزه هوش مصنوعی در کنترل یا پیش‌بینی جرم، اعتبار داده‌هایی است که قرار است از طریق هوش مصنوعی آنها را تحلیل کنیم. در حال حاضر، این زیرساخت آماری و اطلاعاتی که در سازمان پلیس و دستگاه قضائی داریم، اعتبار علمی لازم را برای اینکه بتوانیم از طریق آنها جرم را پیش‌بینی کنیم یا از وقوع جرم پیشگیری کنیم و آن را ارزیابی کنیم، ندارد. مجموع داده‌هایی که در ساختار پلیس و دستگاه قضائی در قالب عناوین مجرمانه و تعداد جرایم یا پرونده‌ها شکل گرفته است، محصول عملکرد اداری و سازمانی این نهادهاست، نه واقعیت‌های مجرمانه.

وی افزود: نقد دیگری که به زیرساخت‌های آماری و اطلاعاتی وارد است، این است که نظام آمار و اطلاعات جنایی براساس جرم‌هایی است که گزارش شده و متهم در آنها شناسایی، دستگیر و محاکمه شده است. جنس بزهکاری‌هایی که ما به آن دسترسی نداریم، به لحاظ نوع جرم ارتکابی و نیز، شخصیت مرتکبان کاملاً متفاوت از آن بخشی است که در نوک کوه یخ هستند.

بررسی‌ها نشان می‌دهد به دلیل سخت‌گیری‌ها و رفتارهای تبعیض‌آمیز پلیس نسبت به جوانان و گروه‌های حاشیه‌نشین، اصطکاک و تماس بخشی از جامعه با پلیس خیلی بیشتر از سایر بخش‌هاست؛ بدون اینکه این افراد لزوماً آدم‌های خطرناکی باشند. تبعیض‌آمیز بودن رفتار نظام عدالت کیفری و نظارت و کنترل شدید بر گروه‌های مختلف جامعه، وقتی وارد هوش مصنوعی بشود، به شکل تصنعی و غیرواقعی گروه‌هایی از افراد جامعه را خطرناک و گروه‌های دیگر را بسیار کم‌خطر نشان می‌دهد.

فرجی‌ها در ادامه گفت: در بحث پیشگیری، صرف وجود و تحلیل داده منجر به پیشگیری نمی‌شود. ما برای پیشگیری از جرم باید یک مبنای تئوریک داشته باشیم. تعریفی که در ادبیات پلیسی از پیشگیری وجود دارد با آن تعریفی که ما از پیشگیری در جرم‌شناسی داریم، بسیار متفاوت است. بخش عمده‌ای از اقدامات پلیس برای کنترل جرم فاقد مبنای نظری است و پلیس در راستای خواست عمومی و انتظارات مردم معمولاً اقداماتی را انجام می‌دهد. این اقدامات نه‌تنها منجر به پیشگیری از جرم نمی‌شود، بلکه منجر به ایجاد طبقه‌ای از مجرمان می‌شود.

قوه قضائیه با فرد و مجرم مواجه است و نه با ساختارها و زیرساخت‌ها

در ادامه این نشست علمی بهرام بیات، ناقد سوم کرسی به ماهیت جرم از منظر جامعه‌شناسی اشاره کرد و گفت: جرم ذاتاً از منظر جامعه‌شناسی یک معلول است. ما هر استراتژی و راهبردی که در مورد جرم اجرا کنیم، حتی اگر بتوانیم به‌‌‌‌‌‌طور 100 درصدی موفق باشیم، یک کار اورژانسی انجام داده‌ایم، نه یک کار بیمارستانی که بیماری‌محور بوده و در بحث پیشگیری، سلامت‌محور ‌باشد.

وی افزود: براساس اصل 156 قانون اساسی پیشگیری از جرم برعهده قوه قضائیه است. قوه قضائیه با فرد و مجرم مواجه است و نه با ساختارها و زیرساخت‌ها و اصلاً چیزی به نام پیشگیری با محوریت فرد امکان‌پذیر نیست؛ بنابراین، پیشگیری باید یک مرحله عقب‌تر در حوزه آن ساختارها و زیرساخت‌ها انجام شود. در نتیجه، ما به یکسری الزامات احتیاج داریم که این الزامات شامل امکانات و زیرساخت‌های سخت‌افزاری، ملاحظات نرم‌افزاری، الزامات مغزافزاری و بحث سازمان‌افزار است.

بیات تأکید کرد: در هوشمندسازی با خطر شکل‌گیری جامعه انضباطی مواجه هستیم. اگر شما با تکنولوژی‌های کنترلی و انضباطی نگذارید فردی مرتکب سرقت شود، ممکن است به جای سرقت که در حالت عادی یک جرم سبک‌تری است، یک جرم دیگری انجام دهد؛ حتی به‌رغم وجود این فکر در ذهن مجرم که احتمال دستگیری‌اش بالاست؛ یعنی بازدارندگی را کاهش می‌دهد. علاوه ‌بر این، هوش مصنوعی به همان میزان که می‌تواند در دستگاه‌های نظارتی و کنترلی دقت ایجاد کند، می‌تواند در مجرمین هم یک ظرفیت ایجاد کند.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.