«پیشگیری هوشمند» در چارچوب قوانین ایران

اینفوگرافیک: پیشگیری هوشمند از جرم در ایران

تحلیل کاربردی «پیشگیری هوشمند»

چالش‌های کلیدی فناوری در چارچوب قوانین ایران

جمع‌آوری داده و تعارض با حق حریم خصوصی

پیشگیری هوشمند برای آموزش الگوریتم‌ها به حجم عظیمی از داده‌ها (Big Data) نیاز دارد که این فرایند با اصول حمایت از حریم خصوصی در ایران در تعارض است.

حمایت قانون اساسی

اصل ۲۲: مصونیت حیثیت، جان، مال، حقوق، مسکن و شغل اشخاص از هرگونه تعرض.

اصل ۲۵: ممنوعیت هرگونه تجسس، بازرسی و استراق سمع جز به حکم قانون.

تحلیل: جمع‌آوری انبوه داده‌های شهروندان، مصداق بارز تجسس و نقض حریم خصوصی است و بدون قانون مشخص، وجاهت ندارد.

محدودیت‌های قانون جرائم رایانه‌ای

ماده ۷۲۹: جرم‌انگاری دسترسی غیرمجاز به داده‌ها یا سامانه‌های رایانه‌ای.

ماده ۷۳۰: جرم بودن «شنود غیرمجاز» محتوای ارتباطات غیرعمومی.

تحلیل: هرگونه دسترسی به داده‌های شهروندان، حتی برای اهداف پیشگیرانه، نیازمند مجوز صریح قانونی است که در حال حاضر وجود ندارد.

سوگیری الگوریتمی و تعارض با اصل برابری

الگوریتم‌های AI، تبعیض‌های موجود در داده‌های آموزشی را تکرار و تقویت می‌کنند. این «سوگیری الگوریتمی» با اصل برابری در تضاد است.

داده‌های سوگیرانه

آموزش AI

هدف‌گیری گروه‌های خاص

تمرکز بیشتر پلیس

تشدید سوگیری

ایجاد «چرخه بازخورد» تبعیض‌آمیز

اصل برابری در قانون اساسی

اصل ۱۹: برخورداری مردم از حقوق مساوی بدون توجه به قومیت، نژاد، زبان و…

اصل ۲۰: برخورداری همه افراد ملت از حمایت یکسان قانون.

تحلیل: تبعیض سیستماتیک ناشی از سوگیری الگوریتمی، نقض صریح اصول برابری است.

چالش اعتبار داده‌ها در ایران

کارشناسان تأکید می‌کنند داده‌های جنایی موجود، محصول عملکرد اداری است نه واقعیت‌های مجرمانه. اصطکاک و تماس بخشی از جامعه با پلیس بسیار بیشتر است.

تحلیل: استفاده از چنین داده‌هایی، به‌طور قطع گروه‌های خاصی را به شکل غیرواقعی «خطرناک» نشان می‌دهد و عدالت را قربانی امنیت می‌کند.

عدالت پیش‌بینانه در تقابل با اصول بنیادین دادرسی

اصل قانونی بودن جرم و مجازات

ماده ۲ ق.م.ا: افراد تنها برای «اعمال ارتکابی» مجازات می‌شوند، نه برای «افکار» یا «احتمال ارتکاب جرم در آینده».

تحلیل: هرگونه اقدام علیه یک فرد خاص بر مبنای پیش‌بینی AI، مصداق «مجازات پیش‌دستانه» و خلاف این اصل است.

اصل برائت

اصل ۳۷ قانون اساسی: هر فردی بی‌گناه فرض می‌شود مگر جرم او در دادگاه صالح ثابت شود.

تحلیل: سیستم‌های پیش‌بینی، این فرض را معکوس کرده و بر پایه «ظن الگوریتمی» عمل می‌کنند و افراد را «متهم بالقوه» می‌دانند.

جایگاه پیش‌بینی‌های AI به عنوان دلیل اثباتی

ادله اثبات در ماده ۱۶۰ ق.م.ا احصاء شده‌اند. خروجی یک الگوریتم که صرفاً یک «احتمال» است، در این دسته‌بندی‌ها جای نمی‌گیرد.

ماده ۲۱۱ ق.م.ا علم قاضی را به «یقین حاصل از مستندات بیّن» منوط کرده و «مجرد علم استنباطی» را کافی نمی‌داند. ماهیت احتمالی پیش‌بینی‌های AI با معیار «یقین» فاصله زیادی دارد.

مسئولیت‌پذیری و معضل «جعبه سیاه»

ابهام در پاسخگویی

در بسیاری از موارد، حتی طراحان سیستم نیز نمی‌توانند توضیح دهند که الگوریتم بر اساس چه منطقی به یک نتیجه خاص رسیده است (پدیده جعبه سیاه). این عدم شفافیت، مسئله «مسئولیت‌پذیری» را با چالش جدی مواجه می‌کند.

اگر سیستم به اشتباه فردی را «پرخطر» شناسایی کند و حقوق او نقض شود، چه کسی پاسخگوست؟ برنامه‌نویس، کاربر سیستم (پلیس) یا مقام قضایی؟

ماده ۵۷۰ ق.م.ا (تعزیرات)، مقامات و مأموران دولتی را که آزادی شخصی افراد را سلب یا از حقوق اساسی محروم کنند، مسئول می‌داند. بدون شفافیت الگوریتم، اثبات تقصیر و احقاق حق تقریباً غیرممکن است.

جعبه سیاه

(منطق تصمیم‌گیری نامشخص)

برنامه‌نویس؟

پلیس؟

قاضی؟

ابهام در مسئولیت

نتیجه‌گیری

ارتقای امنیت (هدف ظاهری)

تضاد با اصول حقوقی ایران

تضاد جدی با اصول بنیادین حقوقی

«پیشگیری هوشمند»، با وجود جذابیت‌های ظاهری، در تضاد جدی با اصول بنیادین نظام حقوقی ایران قرار دارد. چالش‌هایی مانند نقض حریم خصوصی، تقویت تبعیض سیستماتیک، تضعیف اصل برائت، و ابهام در مسئولیت‌پذیری، موانع بزرگی هستند.

قوانین فعلی ایران نه تنها بستری برای اجرای این رویکرد فراهم نمی‌کنند، بلکه در اصول متعدد، آن را محدود و حتی ممنوع می‌سازند.

پیش از هرگونه حرکت در این مسیر، ضروری است که قانونگذار ایرانی چارچوب‌های قانونی شفاف، دقیق و مبتنی بر حقوق شهروندی را تدوین نماید تا از تبدیل شدن ابزارهای امنیت به تهدیدی علیه عدالت جلوگیری شود.

آیا پیش‌بینی جرم با AI نقض حقوق بشر است؟

استفاده از هوش مصنوعی برای پیش‌بینی جرم، که در مقاله علمی به آن «پیشگیری هوشمند» گفته می‌شود، یکی از پیچیده‌ترین و بحث‌برانگیزترین موضوعات حقوقی در عصر فناوری است. این رویکرد که بر تحلیل داده‌های کلان برای پیش‌بینی زمان، مکان و حتی عاملان احتمالی جرائم آینده استوار است، نویدبخش ارتقای امنیت عمومی است؛ اما در عین حال، ناقوس خطر را برای حقوق بنیادین بشر به صدا در می‌آورد. در این تحلیل، چالش‌های کلیدی این فناوری را با تکیه بر اصول و مواد قانونی ایران بررسی می‌کنیم.

مبحث اول: جمع‌آوری داده و تعارض با حق حریم خصوصی

پیشگیری هوشمند برای آموزش الگوریتم‌های خود به حجم عظیمی از داده‌ها (Big Data) نیاز دارد که از منابع مختلف جمع‌آوری می‌شوند. این فرایند، اولین و جدی‌ترین نقطه تقابل این فناوری با نظام حقوقی ایران است.

  • حمایت قانون اساسی از حریم خصوصی: قانون اساسی جمهوری اسلامی ایران در اصول متعددی از حریم خصوصی شهروندان حمایت کرده است. اصل ۲۲، حیثیت، جان، مال، حقوق، مسکن و شغل اشخاص را از هرگونه تعرض مصون می‌داند و اصل ۲۵، هرگونه تجسس، بازرسی و استراق سمع را جز به حکم قانون ممنوع کرده است. جمع‌آوری انبوه داده‌های شهروندان برای تحلیل و پیش‌بینی رفتار آن‌ها، مصداق بارز تجسس و نقض حریم خصوصی است و بدون وجود یک قانون مشخص که چارچوب، حدود و شرایط آن را معین کند، فاقد وجاهت قانونی است. کارشناسان حقوقی در ایران نیز این نگرانی را تأیید کرده و معتقدند استفاده از این حجم کلان داده‌ها می‌تواند منجر به نقض حریم شهروندان و اعمال نفوذ بر آن‌ها شود.
  • محدودیت‌های قانونی در دسترسی به داده‌ها: قانون جرائم رایانه‌ای ایران، دسترسی غیرمجاز به داده‌ها یا سامانه‌های رایانه‌ای و مخابراتی را جرم‌انگاری کرده است (ماده ۷۲۹ قانون جرایم رایانه ای). همچنین «شنود غیرمجاز» محتوای ارتباطات غیرعمومی نیز طبق ماده ۷۳۰ همین قانون، جرم محسوب می‌شود. این مواد قانونی به‌روشنی نشان می‌دهند که هرگونه دسترسی به داده‌های شهروندان، حتی برای اهداف پیشگیرانه، نیازمند مجوز صریح قانونی است. در حال حاضر، هیچ قانونی در ایران وجود ندارد که به نهادهای انتظامی اجازه دهد داده‌های شخصی، ارتباطی و اجتماعی شهروندان را برای ساختن یک مدل پیش‌بینی جرم، به‌صورت گسترده جمع‌آوری و تحلیل کنند.

مبحث دوم: سوگیری الگوریتمی و تعارض با اصل برابری

یکی از بزرگ‌ترین خطرات پیشگیری هوشمند «سوگیری الگوریتمی» (Algorithmic Bias) است. الگوریتم‌های هوش مصنوعی، جهان را از دریچه داده‌هایی می‌بینند که با آن آموزش دیده‌اند. اگر این داده‌ها بازتاب‌دهنده تبعیض‌ها و پیش‌داوری‌های موجود در جامعه باشند، سیستم هوشمند نیز همان تبعیض‌ها را نه تنها تکرار، بلکه تقویت و «علمی» جلوه می‌دهد.

  • اصل برابری در قانون اساسی: اصل ۱۹ قانون اساسی مقرر می‌دارد: «مردم ایران از هر قوم و قبیله که باشند از حقوق مساوی برخوردارند و رنگ، نژاد، زبان و مانند اینها سبب امتیاز نخواهد بود». همچنین طبق اصل ۲۰، همه افراد ملت در حمایت یکسان قانون قرار دارند. پیشگیری هوشمند بر اساس داده‌های سوگیرانه، به‌ناچار مناطق یا گروه‌های اجتماعی خاصی را (مانند جوانان، مهاجران یا ساکنان مناطق حاشیه‌نشین) بیشتر به‌عنوان «پرخطر» شناسایی می‌کند. این امر منجر به تمرکز بیش از حد پلیس بر این گروه‌ها و ایجاد یک «چرخه بازخورد» معیوب می‌شود: پلیس بیشتر در این مناطق حضور می‌یابد، جرائم بیشتری را ثبت می‌کند، و این آمار جدید، سوگیری الگوریتم را تشدید می‌کند. این تبعیض سیستماتیک، نقض صریح اصول برابری در قانون اساسی است.
  • چالش اعتبار داده‌ها در ایران: کارشناسان تأکید می‌کنند که داده‌های جنایی موجود در کشور، محصول عملکرد اداری نهادها هستند، نه آینه‌ای تمام‌نما از واقعیت‌های مجرمانه. به گفته آنان، به دلیل سخت‌گیری‌ها و رفتارهای تبعیض‌آمیز، اصطکاک و تماس بخشی از جامعه با پلیس بسیار بیشتر از سایر بخش‌هاست. استفاده از چنین داده‌هایی برای آموزش یک سیستم هوشمند، به‌طور قطع گروه‌های خاصی را به شکل غیرواقعی «خطرناک» و گروه‌های دیگر را «کم‌خطر» نشان خواهد داد و عدالت را قربانی امنیت می‌کند.

مبحث سوم: عدالت پیش‌بینانه در تقابل با اصول بنیادین دادرسی

منطق پیشگیری هوشمند با اصول بنیادین حقوق کیفری که بر کرامت انسان و حمایت از شهروندان در برابر قدرت دولت استوار است، در تعارض قرار دارد.

  • اصل قانونی بودن جرم و مجازات: طبق ماده ۲ قانون مجازات اسلامی، هر رفتاری که در قانون برای آن مجازات تعیین شده، جرم محسوب می‌شود. این اصل، سنگ بنای حقوق کیفری است و به این معناست که افراد تنها برای «اعمال ارتکابی» خود مجازات می‌شوند، نه برای «افکار» یا «احتمال ارتکاب جرم در آینده». پیشگیری هوشمند با تمرکز بر ریسک و احتمال، افراد را پیش از ارتکاب هر جرمی، در مظان اتهام قرار می‌دهد. همان‌گونه که در مقاله نیز تأکید شده، دستگیری و مجازات افراد پیش از وقوع جرم، بر اساس قواعد حقوق کیفری به‌شدت ممنوع است. این پیش‌بینی‌ها در بهترین حالت می‌توانند برای تخصیص منابع پلیس و اقدامات پیشگیرانه عمومی (مانند افزایش گشت در یک منطقه) به کار روند، اما هرگونه اقدام علیه یک فرد خاص بر مبنای این پیش‌بینی‌ها، مصداق «مجازات پیش‌دستانه» و خلاف اصل قانونی بودن جرم است.
  • اصل برائت: اصل ۳۷ قانون اساسی، اصل برائت را به‌عنوان یک حق بنیادین به رسمیت شناخته است. این اصل ایجاب می‌کند که به هر فردی به چشم یک بی‌گناه نگریسته شود. سیستم‌های پیش‌بینی جرم، این فرض را معکوس می‌کنند و بر پایه «ظن الگوریتمی» عمل می‌کنند. این رویکرد، افراد را در جایگاه «متهم بالقوه» قرار می‌دهد و کرامت و حیثیت آنان را که در اصل ۲۲ قانون اساسی مصون دانسته شده، خدشه‌دار می‌کند.
  • جایگاه پیش‌بینی‌های AI به عنوان دلیل اثباتی: بر اساس ماده ۱۶۰ قانون مجازات اسلامی، ادله اثبات در امور کیفری شامل اقرار، شهادت، قسامه، سوگند و علم قاضی است. خروجی یک الگوریتم هوش مصنوعی که صرفاً یک «احتمال» را نشان می‌دهد و از قطعیت برخوردار نیست، در هیچ‌یک از این دسته‌بندی‌ها جای نمی‌گیرد. حتی اگر بخواهیم آن را از اماراتی بدانیم که به «علم قاضی» کمک می‌کند، ماده ۲۱۱ قانون مجازات اسلامی، این علم را به «یقین حاصل از مستندات بیّن» منوط کرده و تأکید می‌کند که «مجرد علم استنباطی» نمی‌تواند ملاک صدور حکم باشد. ماهیت احتمالی و غیرقطعی پیش‌بینی‌های هوش مصنوعی با معیار «یقین» مورد نظر قانون‌گذار ایرانی فاصله زیادی دارد.

مبحث چهارم: مسئولیت‌پذیری و معضل «جعبه سیاه»

یکی از مشکلات فنی و حقوقی هوش مصنوعی، پدیده «جعبه سیاه» (Black-Box) است. در بسیاری از موارد، حتی طراحان سیستم نیز نمی‌توانند توضیح دهند که الگوریتم بر اساس چه منطقی به یک نتیجه خاص رسیده است. این عدم شفافیت، مسئله «مسئولیت‌‌پذیری» را با چالش جدی مواجه می‌کند.

اگر سیستم هوش مصنوعی به اشتباه فردی را «پرخطر» شناسایی کند و این امر منجر به نقض حقوق او (مانند بازداشت غیرقانونی یا ورود به حریم خصوصی او) شود، چه کسی پاسخگوست؟ برنامه‌نویس، کاربر سیستم (پلیس) یا مقام قضایی؟ این ابهام، راه را برای فرار از مسئولیت باز می‌کند. این در حالی است که طبق ماده ۵۷۰ قانون مجازات اسلامی (تعزیرات)، هر یک از مقامات و مأموران دولتی که برخلاف قانون، آزادی شخصی افراد را سلب کنند یا آنان را از حقوق مقرر در قانون اساسی محروم نمایند، مستوجب مجازات و انفصال از خدمت هستند. بدون وجود شفافیت در عملکرد الگوریتم، اثبات تقصیر و احقاق حق شهروندان تقریباً غیرممکن خواهد بود.

نتیجه‌گیری

تحلیل مفاهیم مطرح‌شده با قوانین ایران نشان می‌دهد که پیشگیری هوشمند، با وجود جذابیت‌های ظاهری، در تضاد جدی با اصول بنیادین نظام حقوقی ایران قرار دارد. چالش‌هایی مانند نقض حریم خصوصی، تقویت تبعیض سیستماتیک، تضعیف اصل برائت، فقدان جایگاه قانونی برای ادله مبتنی بر هوش مصنوعی و ابهام در مسئولیت‌پذیری، موانع بزرگی بر سر راه پیاده‌سازی این فناوری هستند. قوانین فعلی ایران نه تنها بستری برای اجرای چنین رویکردی فراهم نمی‌کنند، بلکه در اصول متعدد، آن را محدود و حتی ممنوع می‌سازند. بنابراین، پیش از هرگونه حرکت به سمت استفاده از هوش مصنوعی در پیشگیری از جرم، ضروری است که قانون‌گذار ایرانی با در نظر گرفتن تمام ابعاد حقوقی و اخلاقی، چارچوب‌های قانونی شفاف، دقیق و مبتنی بر حقوق شهروندی را تدوین نماید تا از تبدیل شدن ابزارهای امنیت به تهدیدی علیه عدالت جلوگیری شود.

حسین قربانی
حسین قربانی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *