«پیشگیری هوشمند» در چارچوب قوانین ایران
تحلیل کاربردی «پیشگیری هوشمند»
چالشهای کلیدی فناوری در چارچوب قوانین ایران
جمعآوری داده و تعارض با حق حریم خصوصی
پیشگیری هوشمند برای آموزش الگوریتمها به حجم عظیمی از دادهها (Big Data) نیاز دارد که این فرایند با اصول حمایت از حریم خصوصی در ایران در تعارض است.
حمایت قانون اساسی
اصل ۲۲: مصونیت حیثیت، جان، مال، حقوق، مسکن و شغل اشخاص از هرگونه تعرض.
اصل ۲۵: ممنوعیت هرگونه تجسس، بازرسی و استراق سمع جز به حکم قانون.
تحلیل: جمعآوری انبوه دادههای شهروندان، مصداق بارز تجسس و نقض حریم خصوصی است و بدون قانون مشخص، وجاهت ندارد.
محدودیتهای قانون جرائم رایانهای
ماده ۷۲۹: جرمانگاری دسترسی غیرمجاز به دادهها یا سامانههای رایانهای.
ماده ۷۳۰: جرم بودن «شنود غیرمجاز» محتوای ارتباطات غیرعمومی.
تحلیل: هرگونه دسترسی به دادههای شهروندان، حتی برای اهداف پیشگیرانه، نیازمند مجوز صریح قانونی است که در حال حاضر وجود ندارد.
سوگیری الگوریتمی و تعارض با اصل برابری
الگوریتمهای AI، تبعیضهای موجود در دادههای آموزشی را تکرار و تقویت میکنند. این «سوگیری الگوریتمی» با اصل برابری در تضاد است.
دادههای سوگیرانه
آموزش AI
هدفگیری گروههای خاص
تمرکز بیشتر پلیس
تشدید سوگیری
ایجاد «چرخه بازخورد» تبعیضآمیز
اصل برابری در قانون اساسی
اصل ۱۹: برخورداری مردم از حقوق مساوی بدون توجه به قومیت، نژاد، زبان و…
اصل ۲۰: برخورداری همه افراد ملت از حمایت یکسان قانون.
تحلیل: تبعیض سیستماتیک ناشی از سوگیری الگوریتمی، نقض صریح اصول برابری است.
چالش اعتبار دادهها در ایران
کارشناسان تأکید میکنند دادههای جنایی موجود، محصول عملکرد اداری است نه واقعیتهای مجرمانه. اصطکاک و تماس بخشی از جامعه با پلیس بسیار بیشتر است.
تحلیل: استفاده از چنین دادههایی، بهطور قطع گروههای خاصی را به شکل غیرواقعی «خطرناک» نشان میدهد و عدالت را قربانی امنیت میکند.
عدالت پیشبینانه در تقابل با اصول بنیادین دادرسی
اصل قانونی بودن جرم و مجازات
ماده ۲ ق.م.ا: افراد تنها برای «اعمال ارتکابی» مجازات میشوند، نه برای «افکار» یا «احتمال ارتکاب جرم در آینده».
تحلیل: هرگونه اقدام علیه یک فرد خاص بر مبنای پیشبینی AI، مصداق «مجازات پیشدستانه» و خلاف این اصل است.
اصل برائت
اصل ۳۷ قانون اساسی: هر فردی بیگناه فرض میشود مگر جرم او در دادگاه صالح ثابت شود.
تحلیل: سیستمهای پیشبینی، این فرض را معکوس کرده و بر پایه «ظن الگوریتمی» عمل میکنند و افراد را «متهم بالقوه» میدانند.
جایگاه پیشبینیهای AI به عنوان دلیل اثباتی
ادله اثبات در ماده ۱۶۰ ق.م.ا احصاء شدهاند. خروجی یک الگوریتم که صرفاً یک «احتمال» است، در این دستهبندیها جای نمیگیرد.
ماده ۲۱۱ ق.م.ا علم قاضی را به «یقین حاصل از مستندات بیّن» منوط کرده و «مجرد علم استنباطی» را کافی نمیداند. ماهیت احتمالی پیشبینیهای AI با معیار «یقین» فاصله زیادی دارد.
مسئولیتپذیری و معضل «جعبه سیاه»
ابهام در پاسخگویی
در بسیاری از موارد، حتی طراحان سیستم نیز نمیتوانند توضیح دهند که الگوریتم بر اساس چه منطقی به یک نتیجه خاص رسیده است (پدیده جعبه سیاه). این عدم شفافیت، مسئله «مسئولیتپذیری» را با چالش جدی مواجه میکند.
اگر سیستم به اشتباه فردی را «پرخطر» شناسایی کند و حقوق او نقض شود، چه کسی پاسخگوست؟ برنامهنویس، کاربر سیستم (پلیس) یا مقام قضایی؟
ماده ۵۷۰ ق.م.ا (تعزیرات)، مقامات و مأموران دولتی را که آزادی شخصی افراد را سلب یا از حقوق اساسی محروم کنند، مسئول میداند. بدون شفافیت الگوریتم، اثبات تقصیر و احقاق حق تقریباً غیرممکن است.
جعبه سیاه
(منطق تصمیمگیری نامشخص)
برنامهنویس؟
پلیس؟
قاضی؟
ابهام در مسئولیت
نتیجهگیری
ارتقای امنیت (هدف ظاهری)
تضاد با اصول حقوقی ایران
تضاد جدی با اصول بنیادین حقوقی
«پیشگیری هوشمند»، با وجود جذابیتهای ظاهری، در تضاد جدی با اصول بنیادین نظام حقوقی ایران قرار دارد. چالشهایی مانند نقض حریم خصوصی، تقویت تبعیض سیستماتیک، تضعیف اصل برائت، و ابهام در مسئولیتپذیری، موانع بزرگی هستند.
قوانین فعلی ایران نه تنها بستری برای اجرای این رویکرد فراهم نمیکنند، بلکه در اصول متعدد، آن را محدود و حتی ممنوع میسازند.
پیش از هرگونه حرکت در این مسیر، ضروری است که قانونگذار ایرانی چارچوبهای قانونی شفاف، دقیق و مبتنی بر حقوق شهروندی را تدوین نماید تا از تبدیل شدن ابزارهای امنیت به تهدیدی علیه عدالت جلوگیری شود.
آیا پیشبینی جرم با AI نقض حقوق بشر است؟
استفاده از هوش مصنوعی برای پیشبینی جرم، که در مقاله علمی به آن «پیشگیری هوشمند» گفته میشود، یکی از پیچیدهترین و بحثبرانگیزترین موضوعات حقوقی در عصر فناوری است. این رویکرد که بر تحلیل دادههای کلان برای پیشبینی زمان، مکان و حتی عاملان احتمالی جرائم آینده استوار است، نویدبخش ارتقای امنیت عمومی است؛ اما در عین حال، ناقوس خطر را برای حقوق بنیادین بشر به صدا در میآورد. در این تحلیل، چالشهای کلیدی این فناوری را با تکیه بر اصول و مواد قانونی ایران بررسی میکنیم.
مبحث اول: جمعآوری داده و تعارض با حق حریم خصوصی
پیشگیری هوشمند برای آموزش الگوریتمهای خود به حجم عظیمی از دادهها (Big Data) نیاز دارد که از منابع مختلف جمعآوری میشوند. این فرایند، اولین و جدیترین نقطه تقابل این فناوری با نظام حقوقی ایران است.
- حمایت قانون اساسی از حریم خصوصی: قانون اساسی جمهوری اسلامی ایران در اصول متعددی از حریم خصوصی شهروندان حمایت کرده است. اصل ۲۲، حیثیت، جان، مال، حقوق، مسکن و شغل اشخاص را از هرگونه تعرض مصون میداند و اصل ۲۵، هرگونه تجسس، بازرسی و استراق سمع را جز به حکم قانون ممنوع کرده است. جمعآوری انبوه دادههای شهروندان برای تحلیل و پیشبینی رفتار آنها، مصداق بارز تجسس و نقض حریم خصوصی است و بدون وجود یک قانون مشخص که چارچوب، حدود و شرایط آن را معین کند، فاقد وجاهت قانونی است. کارشناسان حقوقی در ایران نیز این نگرانی را تأیید کرده و معتقدند استفاده از این حجم کلان دادهها میتواند منجر به نقض حریم شهروندان و اعمال نفوذ بر آنها شود.
- محدودیتهای قانونی در دسترسی به دادهها: قانون جرائم رایانهای ایران، دسترسی غیرمجاز به دادهها یا سامانههای رایانهای و مخابراتی را جرمانگاری کرده است (ماده ۷۲۹ قانون جرایم رایانه ای). همچنین «شنود غیرمجاز» محتوای ارتباطات غیرعمومی نیز طبق ماده ۷۳۰ همین قانون، جرم محسوب میشود. این مواد قانونی بهروشنی نشان میدهند که هرگونه دسترسی به دادههای شهروندان، حتی برای اهداف پیشگیرانه، نیازمند مجوز صریح قانونی است. در حال حاضر، هیچ قانونی در ایران وجود ندارد که به نهادهای انتظامی اجازه دهد دادههای شخصی، ارتباطی و اجتماعی شهروندان را برای ساختن یک مدل پیشبینی جرم، بهصورت گسترده جمعآوری و تحلیل کنند.
مبحث دوم: سوگیری الگوریتمی و تعارض با اصل برابری
یکی از بزرگترین خطرات پیشگیری هوشمند «سوگیری الگوریتمی» (Algorithmic Bias) است. الگوریتمهای هوش مصنوعی، جهان را از دریچه دادههایی میبینند که با آن آموزش دیدهاند. اگر این دادهها بازتابدهنده تبعیضها و پیشداوریهای موجود در جامعه باشند، سیستم هوشمند نیز همان تبعیضها را نه تنها تکرار، بلکه تقویت و «علمی» جلوه میدهد.
- اصل برابری در قانون اساسی: اصل ۱۹ قانون اساسی مقرر میدارد: «مردم ایران از هر قوم و قبیله که باشند از حقوق مساوی برخوردارند و رنگ، نژاد، زبان و مانند اینها سبب امتیاز نخواهد بود». همچنین طبق اصل ۲۰، همه افراد ملت در حمایت یکسان قانون قرار دارند. پیشگیری هوشمند بر اساس دادههای سوگیرانه، بهناچار مناطق یا گروههای اجتماعی خاصی را (مانند جوانان، مهاجران یا ساکنان مناطق حاشیهنشین) بیشتر بهعنوان «پرخطر» شناسایی میکند. این امر منجر به تمرکز بیش از حد پلیس بر این گروهها و ایجاد یک «چرخه بازخورد» معیوب میشود: پلیس بیشتر در این مناطق حضور مییابد، جرائم بیشتری را ثبت میکند، و این آمار جدید، سوگیری الگوریتم را تشدید میکند. این تبعیض سیستماتیک، نقض صریح اصول برابری در قانون اساسی است.
- چالش اعتبار دادهها در ایران: کارشناسان تأکید میکنند که دادههای جنایی موجود در کشور، محصول عملکرد اداری نهادها هستند، نه آینهای تمامنما از واقعیتهای مجرمانه. به گفته آنان، به دلیل سختگیریها و رفتارهای تبعیضآمیز، اصطکاک و تماس بخشی از جامعه با پلیس بسیار بیشتر از سایر بخشهاست. استفاده از چنین دادههایی برای آموزش یک سیستم هوشمند، بهطور قطع گروههای خاصی را به شکل غیرواقعی «خطرناک» و گروههای دیگر را «کمخطر» نشان خواهد داد و عدالت را قربانی امنیت میکند.
مبحث سوم: عدالت پیشبینانه در تقابل با اصول بنیادین دادرسی
منطق پیشگیری هوشمند با اصول بنیادین حقوق کیفری که بر کرامت انسان و حمایت از شهروندان در برابر قدرت دولت استوار است، در تعارض قرار دارد.
- اصل قانونی بودن جرم و مجازات: طبق ماده ۲ قانون مجازات اسلامی، هر رفتاری که در قانون برای آن مجازات تعیین شده، جرم محسوب میشود. این اصل، سنگ بنای حقوق کیفری است و به این معناست که افراد تنها برای «اعمال ارتکابی» خود مجازات میشوند، نه برای «افکار» یا «احتمال ارتکاب جرم در آینده». پیشگیری هوشمند با تمرکز بر ریسک و احتمال، افراد را پیش از ارتکاب هر جرمی، در مظان اتهام قرار میدهد. همانگونه که در مقاله نیز تأکید شده، دستگیری و مجازات افراد پیش از وقوع جرم، بر اساس قواعد حقوق کیفری بهشدت ممنوع است. این پیشبینیها در بهترین حالت میتوانند برای تخصیص منابع پلیس و اقدامات پیشگیرانه عمومی (مانند افزایش گشت در یک منطقه) به کار روند، اما هرگونه اقدام علیه یک فرد خاص بر مبنای این پیشبینیها، مصداق «مجازات پیشدستانه» و خلاف اصل قانونی بودن جرم است.
- اصل برائت: اصل ۳۷ قانون اساسی، اصل برائت را بهعنوان یک حق بنیادین به رسمیت شناخته است. این اصل ایجاب میکند که به هر فردی به چشم یک بیگناه نگریسته شود. سیستمهای پیشبینی جرم، این فرض را معکوس میکنند و بر پایه «ظن الگوریتمی» عمل میکنند. این رویکرد، افراد را در جایگاه «متهم بالقوه» قرار میدهد و کرامت و حیثیت آنان را که در اصل ۲۲ قانون اساسی مصون دانسته شده، خدشهدار میکند.
- جایگاه پیشبینیهای AI به عنوان دلیل اثباتی: بر اساس ماده ۱۶۰ قانون مجازات اسلامی، ادله اثبات در امور کیفری شامل اقرار، شهادت، قسامه، سوگند و علم قاضی است. خروجی یک الگوریتم هوش مصنوعی که صرفاً یک «احتمال» را نشان میدهد و از قطعیت برخوردار نیست، در هیچیک از این دستهبندیها جای نمیگیرد. حتی اگر بخواهیم آن را از اماراتی بدانیم که به «علم قاضی» کمک میکند، ماده ۲۱۱ قانون مجازات اسلامی، این علم را به «یقین حاصل از مستندات بیّن» منوط کرده و تأکید میکند که «مجرد علم استنباطی» نمیتواند ملاک صدور حکم باشد. ماهیت احتمالی و غیرقطعی پیشبینیهای هوش مصنوعی با معیار «یقین» مورد نظر قانونگذار ایرانی فاصله زیادی دارد.
مبحث چهارم: مسئولیتپذیری و معضل «جعبه سیاه»
یکی از مشکلات فنی و حقوقی هوش مصنوعی، پدیده «جعبه سیاه» (Black-Box) است. در بسیاری از موارد، حتی طراحان سیستم نیز نمیتوانند توضیح دهند که الگوریتم بر اساس چه منطقی به یک نتیجه خاص رسیده است. این عدم شفافیت، مسئله «مسئولیتپذیری» را با چالش جدی مواجه میکند.
اگر سیستم هوش مصنوعی به اشتباه فردی را «پرخطر» شناسایی کند و این امر منجر به نقض حقوق او (مانند بازداشت غیرقانونی یا ورود به حریم خصوصی او) شود، چه کسی پاسخگوست؟ برنامهنویس، کاربر سیستم (پلیس) یا مقام قضایی؟ این ابهام، راه را برای فرار از مسئولیت باز میکند. این در حالی است که طبق ماده ۵۷۰ قانون مجازات اسلامی (تعزیرات)، هر یک از مقامات و مأموران دولتی که برخلاف قانون، آزادی شخصی افراد را سلب کنند یا آنان را از حقوق مقرر در قانون اساسی محروم نمایند، مستوجب مجازات و انفصال از خدمت هستند. بدون وجود شفافیت در عملکرد الگوریتم، اثبات تقصیر و احقاق حق شهروندان تقریباً غیرممکن خواهد بود.
نتیجهگیری
تحلیل مفاهیم مطرحشده با قوانین ایران نشان میدهد که پیشگیری هوشمند، با وجود جذابیتهای ظاهری، در تضاد جدی با اصول بنیادین نظام حقوقی ایران قرار دارد. چالشهایی مانند نقض حریم خصوصی، تقویت تبعیض سیستماتیک، تضعیف اصل برائت، فقدان جایگاه قانونی برای ادله مبتنی بر هوش مصنوعی و ابهام در مسئولیتپذیری، موانع بزرگی بر سر راه پیادهسازی این فناوری هستند. قوانین فعلی ایران نه تنها بستری برای اجرای چنین رویکردی فراهم نمیکنند، بلکه در اصول متعدد، آن را محدود و حتی ممنوع میسازند. بنابراین، پیش از هرگونه حرکت به سمت استفاده از هوش مصنوعی در پیشگیری از جرم، ضروری است که قانونگذار ایرانی با در نظر گرفتن تمام ابعاد حقوقی و اخلاقی، چارچوبهای قانونی شفاف، دقیق و مبتنی بر حقوق شهروندی را تدوین نماید تا از تبدیل شدن ابزارهای امنیت به تهدیدی علیه عدالت جلوگیری شود.