هوش مصنوعی و حقوق بشر: چالشهای تبعیض، حریم خصوصی و نظارت
چکیده
هوش مصنوعی به سرعت در حال تغییر جنبههای مختلف زندگی ماست و این تحول، پیامدهای عمیقی برای حقوق بنیادین انسانها دارد. این مقاله به بررسی چگونگی تأثیرگذاری سیستمهای هوش مصنوعی بر حقوقی میپردازد که اساس کرامت انسانی و آزادیهای اساسی را تشکیل میدهند. حقوق بشر، مجموعه قواعدی جهانی است که فارغ از ملیت، نژاد، عقیده یا جنسیت به همه انسانها تعلق دارند و عمدتاً در اسناد مهمی مانند اعلامیه جهانی حقوق بشر (UDHR) و میثاقهای بینالمللی حقوق مدنی و سیاسی (ICCPR) و حقوق اقتصادی، اجتماعی و فرهنگی (ICESCR) تدوین شدهاند.
امروزه نگرانی اصلی این است که هوش مصنوعی میتواند به ابزاری برای نقض حقوق بشر تبدیل شود، خواه از طریق تبعیض الگوریتمی و سوگیریهای پنهان در سیستمها، خواه از طریق نقض حریم خصوصی با فناوریهای نظارتی مانند تشخیص چهره، یا حتی از طریق توسعه سلاحهای خودمختار کشنده (رباتهای قاتل). این مقاله توضیح میدهد که چگونه تصمیمگیریهای مبتنی بر هوش مصنوعی میتواند منجر به توزیع ناعادلانه فرصتها و آسیبها شود و گروههای آسیبپذیر جامعه را بیشتر در معرض خطر قرار دهد. همچنین به بررسی تلاشهای سازمان ملل، نهادهای حقوق بشری و دادگاهها برای مقابله با این چالشها و ارائه راهکارهایی برای تضمین همسویی توسعه هوش مصنوعی با اصول حقوق بشر میپردازد. هدف نهایی، ارائه درکی کاربردی از این موضوع پیچیده برای حقوقدانان است تا بتوانند در فعالیتهای حرفهای خود، ملاحظات حقوق بشری مرتبط با هوش مصنوعی را بهتر درک و مدیریت کنند.
مقدمه: چرا هوش مصنوعی برای حقوقدانان اهمیت دارد؟
در دنیای امروز، هوش مصنوعی (AI) واقعیتی است که به سرعت در حال نفوذ به تار و پود جامعه و حرفههای مختلف، از جمله حقوق، است. از سیستمهای تحلیل قرارداد گرفته تا نرمافزارهای پیشبینی نتایج پروندههای قضایی، هوش مصنوعی ابزارهای جدیدی را در اختیار حقوقدانان قرار میدهد. اما فراتر از کاربردهای مستقیم در حرفه وکالت یا قضاوت، هوش مصنوعی تأثیرات گستردهتری بر جامعه و بهویژه بر حقوق بنیادین افراد دارد که هر حقوقدانی باید نسبت به آنها آگاه باشد. درک این تأثیرات صرفاً یک کنجکاوی فکری نیست، بلکه یک ضرورت حرفهای است، زیرا قوانین و مقررات در حال شکلگیری برای مدیریت این فناوری هستند و دعاوی حقوقی مرتبط با آن نیز روز به روز در حال افزایش است.
موضوع اصلی این مقاله، بررسی ارتباط میان هوش مصنوعی و “حقوق بشر” است. حقوق بشر، آن دسته از حقوق اساسی هستند که هر انسانی صرفاً به دلیل انسان بودن از آنها برخوردار است. این حقوق جهانی، غیرقابل سلب و برای همه یکسان هستند و در اسناد بینالمللی مهمی مانند “اعلامیه جهانی حقوق بشر” و دو میثاق اصلی سازمان ملل (میثاق بینالمللی حقوق مدنی و سیاسی و میثاق بینالمللی حقوق اقتصادی، اجتماعی و فرهنگی) به تفصیل بیان شدهاند. این اسناد که مجموعاً “منشور بینالمللی حقوق بشر” نامیده میشوند، چارچوبی را فراهم میکنند که بر اساس آن، دولتها موظف به رعایت و حمایت از حقوقی مانند حق حیات، آزادی، برابری در برابر قانون، منع تبعیض، حق حریم خصوصی، آزادی بیان، حق کار و بسیاری حقوق دیگر هستند.
هدف این مقاله، روشن کردن این مسئله است که چگونه فناوریهای هوش مصنوعی میتوانند این حقوق اساسی را هم به صورت مثبت و هم منفی تحت تأثیر قرار دهند. هوش مصنوعی از یک سو میتواند ابزاری قدرتمند برای پیشبرد حقوق بشر باشد، مثلاً از طریق بهبود دسترسی به عدالت یا کمک به شناسایی نقض حقوق بشر. اما از سوی دیگر، نگرانیهای جدی وجود دارد که استفاده نادرست یا طراحی نامناسب سیستمهای هوش مصنوعی میتواند منجر به نقض گسترده حقوق بشر شود. این مقاله تلاش میکند تا با زبانی ساده و کاربردی، این چالشها و فرصتها را برای حقوقدانانی که ممکن است با جزئیات فنی هوش مصنوعی یا مباحث نظری حقوق بشر آشنایی کامل نداشته باشند، توضیح دهد تا بتوانند درک بهتری از پیامدهای حقوقی این فناوری در دنیای واقعی پیدا کنند و برای مواجهه با مسائل مرتبط با آن آماده شوند.
۲. مبانی حقوق بشر و ارتباط آن با هوش مصنوعی
برای درک تأثیر هوش مصنوعی بر حقوق بشر، ابتدا باید مروری کوتاه بر خود مفهوم حقوق بشر و اسناد کلیدی آن داشته باشیم. همانطور که پیشتر اشاره شد، حقوق بشر حقوقی ذاتی و جهانی هستند. سه سند اصلی که ستونهای حقوق بشر مدرن را تشکیل میدهند عبارتند از: اعلامیه جهانی حقوق بشر (UDHR)، میثاق بینالمللی حقوق مدنی و سیاسی (ICCPR) و میثاق بینالمللی حقوق اقتصادی، اجتماعی و فرهنگی (ICESCR). اعلامیه جهانی حقوق بشر که در سال ۱۹۴۸ توسط مجمع عمومی سازمان ملل تصویب شد، اگرچه به خودی خود یک معاهده الزامآور نیست، اما به عنوان یک استاندارد مشترک جهانی برای همه ملتها شناخته میشود و بسیاری از مفاد آن به عنوان حقوق بینالملل عرفی پذیرفته شدهاند. این اعلامیه طیف وسیعی از حقوق، از جمله حق حیات، آزادی، امنیت شخصی، برابری در برابر قانون، منع شکنجه، حق حریم خصوصی، آزادی فکر و بیان، حق کار و حق آموزش را در بر میگیرد.
دو میثاق دیگر، یعنی ICCPR و ICESCR، معاهدات بینالمللی الزامآوری هستند که کشورهایی که آنها را تصویب کردهاند، متعهد به اجرای مفاد آنها در قوانین داخلی خود هستند. ICCPR بیشتر بر حقوق مدنی و سیاسی تمرکز دارد، مانند حق زندگی، منع شکنجه، حق آزادی و امنیت شخصی، حق دادرسی عادلانه، حق حریم خصوصی، آزادی بیان، آزادی اجتماعات و حق شرکت در امور عمومی. در مقابل، ICESCR به حقوق اقتصادی، اجتماعی و فرهنگی میپردازد، از جمله حق کار، حق برخورداری از شرایط کار منصفانه، حق تشکیل اتحادیه، حق تأمین اجتماعی، حق برخورداری از سطح زندگی کافی (شامل غذا، پوشاک و مسکن)، حق آموزش و حق شرکت در حیات فرهنگی. علاوه بر این سه سند اصلی، معاهدات و اسناد دیگری نیز وجود دارند که به حقوق گروههای خاص (مانند کنوانسیون رفع کلیه اشکال تبعیض علیه زنان، کنوانسیون حقوق کودک، کنوانسیون حقوق افراد دارای معلولیت) یا موضوعات خاص (مانند کنوانسیون رفع تبعیض نژادی) میپردازند.
حال سوال این است که هوش مصنوعی چگونه با این چارچوب گسترده حقوق بشر ارتباط پیدا میکند؟ پاسخ این است که هوش مصنوعی تقریباً بر تمام جنبههای زندگی که این حقوق پوشش میدهند، تأثیر میگذارد. برای مثال، سیستمهای تصمیمگیری الگوریتمی که در استخدام، اعطای وام، تعیین صلاحیت برای خدمات اجتماعی یا حتی در سیستم قضایی استفاده میشوند، میتوانند به طور مستقیم بر حق برابری و منع تبعیض را به چالش بکشند. حتی حق حیات نیز با توسعه سلاحهای خودمختار که قادر به تصمیمگیری برای کشتن بدون دخالت انسان هستند، در معرض تهدید قرار میگیرد. بنابراین، درک تعامل میان هوش مصنوعی و این حقوق بنیادین، برای هر حقوقدانی که با پیامدهای اجتماعی و قانونی این فناوری سروکار دارد، ضروری است.
نقض حقوق بشر توسط هوش مصنوعی: چالشها و نگرانیها
همانطور که اشاره شد، ظرفیت بالقوه هوش مصنوعی برای نقض حقوق بشر قابل توجه است. این نقض میتواند به اشکال مختلفی رخ دهد، از تبعیضهای ظریف و پنهان گرفته تا تهدیدهای آشکار برای آزادی و امنیت. درک این چالشها اولین قدم برای یافتن راهحلهای حقوقی و فنی مناسب است.
الف) تعصب و تبعیض الگوریتمی:
یکی از مهمترین و شایعترین نگرانیها در مورد هوش مصنوعی، پتانسیل آن برای ایجاد یا تشدید تبعیض است. سیستمهای هوش مصنوعی، بهویژه آنهایی که از یادگیری ماشین استفاده میکنند، بر اساس دادههایی که با آنها “آموزش” داده میشوند، الگوها را یاد میگیرند و تصمیمگیری میکنند. اگر این دادههای آموزشی منعکسکننده تعصبات و نابرابریهای موجود در جامعه باشند (مثلاً اگر دادههای تاریخی نشاندهنده تبعیض علیه زنان یا اقلیتهای نژادی در استخدام یا اعطای وام باشد)، سیستم هوش مصنوعی نیز این تعصبات را یاد گرفته و در تصمیمگیریهای خود بازتولید یا حتی تقویت خواهد کرد. این مشکل به عنوان “تعصب الگوریتمی” (Algorithmic Bias) شناخته میشود. نتیجه این تعصب میتواند “تأثیر نامتناسب” (Disparate Impact) بر گروههای خاصی باشد، حتی اگر قصد تبعیضآمیزی در طراحی سیستم وجود نداشته باشد. برای مثال، مطالعات نشان دادهاند که برخی الگوریتمهای مورد استفاده در تبلیغات شغلی آنلاین، آگهیهای مربوط به مشاغل با درآمد بالاتر را کمتر به زنان نشان میدهند، یا اینکه الگوریتمهای تشخیص چهره در شناسایی چهره افراد رنگینپوست یا زنان دقت کمتری دارند که میتواند منجر به شناسایی اشتباه و عواقب جدی در مسائل انتظامی شود.
این تبعیض میتواند تقریباً در هر حوزهای که هوش مصنوعی به کار گرفته میشود، رخ دهد: در استخدام (تبعیض جنسیتی، نژادی)، اعتبار سنجی مالی (عدم دسترسی برابر به خدمات مالی برای اقلیتها)، سیستم قضایی (پیشبینی احتمال تکرار جرم که میتواند تحت تأثیر تعصبات نژادی باشد)، تخصیص منابع بهداشتی، و حتی در ارائه خدمات آموزشی. تعریف تبعیض در حقوق بینالملل گسترده است و هرگونه تمایز، محرومیت، محدودیت یا ترجیحی را که بر اساس نژاد، رنگ، جنسیت، زبان، مذهب، عقیده سیاسی یا غیر آن، منشأ ملی یا اجتماعی، دارایی، تولد یا هر وضعیت دیگری باشد و هدف یا اثر آن، از بین بردن یا تضعیف شناسایی، بهرهمندی یا اعمال حقوق و آزادیهای اساسی همه افراد بر مبنای برابر باشد، در بر میگیرد. مقابله با این چالش نیازمند تلاشهای جدی برای اطمینان از کیفیت و بیطرفی دادههای ورودی، شفافیت در نحوه کار الگوریتمها، و ایجاد سازوکارهای پاسخگویی و جبران خسارت برای قربانیان تبعیض الگوریتمی است.
ب) حریم خصوصی و نظارت:
رشد هوش مصنوعی با جمعآوری و تحلیل حجم عظیمی از دادههای شخصی همراه است. این امر نگرانیهای جدی را در مورد حق حریم خصوصی ایجاد میکند. فناوریهای نظارتی مبتنی بر هوش مصنوعی، مانند سیستمهای تشخیص چهره در فضاهای عمومی، دوربینهای مداربسته هوشمند، و ابزارهای تحلیل دادههای آنلاین، امکان نظارت گسترده و بیسابقهای را بر زندگی افراد فراهم میکنند. این نظارت میتواند به طور مستقیم ماده ۱۲ اعلامیه جهانی حقوق بشر و ماده ۱۷ میثاق بینالمللی حقوق مدنی و سیاسی را که حق افراد برای محافظت در برابر مداخلات خودسرانه یا غیرقانونی در زندگی خصوصی، خانواده، خانه یا مکاتباتشان را تضمین میکنند، نقض کند.
نگرانی ویژه در مورد استفاده از این فناوریها توسط دولتها برای کنترل اجتماعی یا سرکوب مخالفان وجود دارد. جمعآوری انبوه دادهها (Bulk Data Collection) و تحلیل آنها با استفاده از هوش مصنوعی میتواند به شناسایی الگوهای رفتاری، پیشبینی اقدامات افراد، و ایجاد پروفایلهای دقیق از شهروندان منجر شود. این امر نه تنها حریم خصوصی را نقض میکند، بلکه میتواند اثر بازدارندهای بر آزادی بیان و آزادی اجتماعات داشته باشد، زیرا افراد ممکن است از ترس نظارت، از ابراز عقاید خود یا شرکت در فعالیتهای اعتراضی خودداری کنند. مقرراتی مانند “مقررات عمومی حفاظت از داده اتحادیه اروپا” (GDPR) تلاش کردهاند تا با الزام به اقداماتی مانند “ارزیابی تأثیر حفاظت از داده” (DPIA) برای فعالیتهای پردازشی پرخطر و اصل “حفاظت از داده از طریق طراحی و به طور پیشفرض” (Data Protection by Design and by Default)، به این نگرانیها پاسخ دهند. با این حال، چالشهای مربوط به نظارت دولتی و استفاده از هوش مصنوعی در این زمینه همچنان باقی است و نیازمند چارچوبهای قانونی قویتر و نظارت مستقل مؤثرتر است.
ج) تصمیمگیری ناعادلانه و پیامدهای آن:
هوش مصنوعی به طور فزایندهای در فرآیندهای تصمیمگیری که تأثیر مستقیمی بر زندگی افراد دارند، به کار گرفته میشود. این تصمیمات میتواند شامل موارد مثبتی مانند تشخیص پزشکی دقیقتر یا بهینهسازی خدمات عمومی باشد، اما میتواند منجر به نتایج منفی و ناعادلانه نیز بشود. اگر الگوریتمهایی که برای تصمیمگیری در مورد اعطای وام، استخدام، پذیرش دانشگاه، تعیین صلاحیت دریافت مزایای اجتماعی، یا حتی تصمیمات مربوط به آزادی مشروط زندانیان استفاده میشوند، دارای تعصب باشند یا به درستی طراحی نشده باشند، میتوانند منجر به توزیع ناعادلانه فرصتها و منابع شوند.
برای مثال، الگوریتمی که برای پیشبینی احتمال موفقیت تحصیلی دانشجویان استفاده میشود، ممکن است به طور ناخواسته دانشجویان متعلق به گروههای اجتماعی-اقتصادی پایینتر را به دلیل همبستگیهای آماری موجود در دادههای آموزشی، کمتر شایسته تشخیص دهد. یا الگوریتمی که برای ارزیابی ریسک اعتباری افراد به کار میرود، ممکن است به دلیل کمبود دادههای تاریخی یا الگوهای تبعیضآمیز پنهان، دسترسی افراد ساکن در مناطق خاص یا متعلق به گروههای اقلیت را به خدمات مالی محدود کند. این “توزیع نابرابر نتایج مثبت و منفی” میتواند به طور مستقیم حقوق اقتصادی و اجتماعی افراد را تحت تأثیر قرار دهد و نابرابریهای موجود را تشدید کند. اطمینان از اینکه تصمیمگیریهای الگوریتمی منصفانه، شفاف، قابل توضیح و قابل اعتراض هستند، یک چالش حقوقی و فنی مهم است که نیازمند توجه جدی است.
د) سلاحهای خودمختار کشنده (رباتهای قاتل)
یکی از نگرانکنندهترین کاربردهای بالقوه هوش مصنوعی، توسعه “سلاحهای خودمختار کشنده” (Lethal Autonomous Weapons Systems – LAWS) است که اغلب با عنوان “رباتهای قاتل” از آنها یاد میشود. این سیستمها قادرند اهداف را بدون دخالت مستقیم انسان شناسایی، انتخاب و مورد حمله قرار دهند. توسعه این سلاحها چالشهای اخلاقی و حقوقی عمیقی را ایجاد میکند، بهویژه در رابطه با رعایت قوانین بینالمللی بشردوستانه (حقوق جنگ) و حقوق بشر، بهخصوص حق حیات.
نگرانی اصلی این است که آیا یک ماشین میتواند تصمیمات پیچیدهای را که در میدان نبرد مورد نیاز است، به درستی اتخاذ کند؟ آیا میتواند بین نظامیان و غیرنظامیان تمایز قائل شود (اصل تفکیک)؟ آیا میتواند اطمینان حاصل کند که حمله، آسیبهای جانبی نامتناسب به غیرنظامیان وارد نمیکند؟ (اصل تناسب) آیا میتوان یک ماشین را برای جنایات جنگی پاسخگو دانست؟ بسیاری از کارشناسان حقوقی، سازمانهای حقوق بشری و حتی برخی دولتها معتقدند که واگذاری تصمیم مرگ و زندگی به ماشینها، خط قرمز اخلاقی و حقوقی را رد میکند و خواستار ممنوعیت پیشگیرانه توسعه و استفاده از این نوع سلاحها هستند. آنها بر لزوم حفظ “کنترل معنادار انسانی (Meaningful Human Control) بر استفاده از زور تأکید دارند. این بحث همچنان در مجامع بینالمللی ادامه دارد و یکی از جدیترین چالشهای حقوق بشری مرتبط با هوش مصنوعی محسوب میشود.
۴. چارچوبهای حقوقی و نظارتی موجود
در مواجهه با چالشهای حقوق بشری ناشی از هوش مصنوعی، جامعه بینالمللی و نهادهای ملی و منطقهای در تلاش برای ایجاد یا تطبیق چارچوبهای حقوقی و نظارتی هستند. این چارچوبها شامل قوانین الزامآور، رهنمودهای غیرالزامآور، اصول اخلاقی و رویههای قضایی میشوند.
الف) نقش قوانین بینالمللی حقوق بشر:
همانطور که پیشتر بحث شد، چارچوب اصلی حقوق بشر که در اسناد کلیدی مانند UDHR، ICCPR و ICESCR تدوین شده، نقطه شروع مهمی برای ارزیابی و مدیریت تأثیرات هوش مصنوعی است. این چارچوب، زبانی مشترک و مجموعهای از هنجارهای مورد توافق بینالمللی را فراهم میکند که میتوان از آن برای تحلیل چالشهای ناشی از هوش مصنوعی و مطالبه پاسخگویی از دولتها و حتی بازیگران خصوصی استفاده کرد. جهانی بودن این چارچوب، آن را به ابزاری مناسب برای مقابله با چالشهای یک فناوری جهانی مانند هوش مصنوعی تبدیل میکند. سازمان ملل متحد و نهادهای وابسته به آن، مانند شورای حقوق بشر (HRC) و دفتر کمیساریای عالی حقوق بشر (OHCHR)، به طور فزایندهای به بررسی پیامدهای هوش مصنوعی برای حقوق بشر پرداختهاند. گزارشهای متعددی در این زمینه منتشر شده که به مسائلی مانند تبعیض الگوریتمی، تأثیر هوش مصنوعی بر حقوق زنان، سالمندان، و حریم خصوصی پرداختهاند. این گزارشها اغلب شامل توصیههایی به دولتها برای اتخاذ تدابیر لازم جهت پیشگیری از نقض حقوق بشر و تضمین پاسخگویی هستند. برای مثال، کمیته حقوق بشر سازمان ملل که بر اجرای ICCPR نظارت دارد، تأکید کرده که تعهد دولتها به منع تبعیض ماده ۲۶ ICCPR شامل تبعیضهایی که از طریق سیستمهای هوش مصنوعی رخ میدهد نیز میشود و دولتها موظفند اطمینان حاصل کنند که مقامات و نهادهای عمومی مطابق با این تعهد عمل میکنند.
ب) قوانین و مقررات منطقهای و ملی:
قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) بهعنوان اولین چارچوب قانونی جامع برای تنظیم استفاده از هوش مصنوعی (AI) در جهان، بر حقوق بشر و اصول اخلاقی تأکید دارد و هدف آن حفاظت از حقوق اساسی افراد در برابر خطرات احتمالی ناشی از فناوریهای هوش مصنوعی است. این قانون با هدف موازنه میان نوآوری و حفاظت از حقوق بشر تدوین شده و در آن سیستمهای هوش مصنوعی بر اساس میزان خطرشان دستهبندی میشوند.
دستهبندی ریسکها در قانون هوش مصنوعی
- سیستمهای ریسک غیرقابل قبول (Unacceptable Risk): شامل سیستمهایی که بهشدت حقوق بشر را تهدید میکنند، مانند نظارت زیستی در مکانهای عمومی و سیستمهای امتیازدهی اجتماعی که نقض حریم خصوصی و آزادیهای فردی را به همراه دارند، ممنوع شدهاند.
- سیستمهای ریسک بالا (High Risk): شامل کاربردهایی مانند هوش مصنوعی در سیستمهای قضائی، استخدام، خدمات مالی و دولتی هستند که بر حقوق اساسی تأثیر میگذارند و نیاز به نظارت دقیق و شفافیت دارند.
- سیستمهای ریسک محدود (Limited Risk): شامل ابزارهایی مانند چتباتها و الگوریتمهای پیشنهاد محتوا که نیاز به شفافسازی دارند، بهطوری که کاربران از ماهیت هوش مصنوعی بودن آنها مطلع شوند.
- سیستمهای ریسک کم (Minimal Risk): این سیستمها تحت کمترین نظارت قرار دارند و برای آنها مقررات خاصی اعمال نمیشود.
تأثیر قانون هوش مصنوعی اروپا بر حقوق بشر
- حفاظت از حریم خصوصی: قانون محدودیتهایی را برای نظارت زیستی و شناسایی چهره در مکانهای عمومی وضع کرده و از دادههای شخصی محافظت میکند.
- مقابله با تبعیض الگوریتمی: سیستمهای هوش مصنوعی باید از تبعیض بر اساس ویژگیهای شخصی مانند جنسیت، نژاد یا گرایشهای سیاسی جلوگیری کنند.
- حفظ آزادی بیان و اطلاعات: شفافیت در الگوریتمها و سیستمهای پیشنهاد محتوا از سوءاستفاده و سانسور جلوگیری میکند.
- حفاظت از کرامت انسانی: قانون بهطور خاص هوش مصنوعیهای خطرناک را که ممکن است باعث محدود کردن آزادیهای فردی شوند، ممنوع کرده است.
“مقررات عمومی حفاظت از داده” (GDPR) که در سال ۲۰۱۸ لازمالاجرا شد، اگرچه به طور خاص برای هوش مصنوعی طراحی نشده، اما حاوی مفاد مهمی است که بر توسعه و استفاده از آن تأثیر میگذارد. اصولی مانند محدودیت هدف، به حداقل رساندن دادهها، شفافیت، و نیاز به مبنای قانونی برای پردازش دادههای شخصی، همگی برای سیستمهای هوش مصنوعی کاربرد دارند. به طور خاص، ماده ۲۲ GDPR به افراد حق میدهد که تحت تأثیر تصمیمی قرار نگیرند که صرفاً بر اساس پردازش خودکار (از جمله پروفایلسازی) اتخاذ شده و اثرات حقوقی یا مشابه قابل توجهی بر آنها دارد، مگر در شرایط استثنایی. همچنین، همانطور که قبلاً ذکر شد، الزام به ارزیابی تأثیر حفاظت از داده (DPIA) و حفاظت از داده از طریق طراحی، ابزارهای مهمی برای مدیریت ریسکهای حریم خصوصی مرتبط با هوش مصنوعی هستند. اتحادیه اروپا همچنین در حال تدوین مقررات جامعتری تحت عنوان “قانون هوش مصنوعی” (AI Act) است که هدف آن ایجاد یک چارچوب قانونی هماهنگ برای هوش مصنوعی بر اساس سطح ریسک آن است و الزامات سختگیرانهای را برای سیستمهای پرخطر (مانند سیستمهای مورد استفاده در استخدام، اجرای قانون یا زیرساختهای حیاتی) در نظر میگیرد و برخی کاربردهای هوش مصنوعی (مانند سیستمهای امتیازدهی اجتماعی توسط دولتها) را ممنوع میکند. در سطح ملی نیز کشورها در حال بررسی یا تصویب قوانینی برای مقابله با چالشهای خاص هوش مصنوعی، مانند تبعیض الگوریتمی یا شفافیت در تصمیمگیریهای خودکار هستند.
ج) نقش دادگاههای حقوق بشر و اعلامیهها:
دادگاههای حقوق بشر، چه در سطح منطقهای (مانند دادگاه اروپایی حقوق بشر – ECtHR، دادگاه بینالمللی حقوق بشر قاره آمریکا، دادگاه آفریقایی حقوق بشر و مردم) و چه در سطح ملی، نقش مهمی در تفسیر و اعمال اصول حقوق بشر در قبال فناوریهای جدید مانند هوش مصنوعی دارند. رویههای قضایی این دادگاهها میتواند به روشن شدن تعهدات دولتها و تعیین استانداردهای حفاظت از حقوق بشر در عصر دیجیتال کمک کند. برای مثال، دادگاه اروپایی حقوق بشر در پروندههایی مانند “Big Brother Watch علیه بریتانیا” و “Catt علیه بریتانیا” به بررسی قانونی بودن برنامههای نظارت انبوه و جمعآوری دادههای شخصی توسط دولتها پرداخته و بر لزوم وجود تضمینهای کافی برای جلوگیری از سوء استفاده و حمایت از حق حریم خصوصی (ماده ۸ کنوانسیون اروپایی حقوق بشر) تأکید کرده است. اگرچه این پروندهها مستقیماً در مورد هوش مصنوعی نبودهاند، اما اصول مطرح شده در آنها (مانند ضرورت، تناسب، و وجود نظارت مؤثر) برای ارزیابی استفاده از هوش مصنوعی در نظارت و جمعآوری دادهها کاملاً مرتبط است.
علاوه بر رویه قضایی، اعلامیهها و اصول راهنمای غیرالزامآور نیز نقش مهمی در شکلدهی به هنجارها و استانداردهای مربوط به هوش مصنوعی و حقوق بشر ایفا میکنند. “اعلامیه تورنتو: حمایت از حق برابری و عدم تبعیض در سیستمهای یادگیری ماشین” نمونهای از این تلاشهاست که توسط ائتلافی از سازمانهای جامعه مدنی و دانشگاهیان تهیه شده و بر خطرات تبعیض ناشی از یادگیری ماشین تمرکز دارد و خواستار توسعه مکانیسمهای جبران خسارت مؤثر برای قربانیان است. “اصول هوش مصنوعی اسیلومار” (Asilomar AI Principles) که توسط مؤسسه “آینده زندگی” (Future of Life Institute) و با مشارکت جمعی از دانشمندان و کارشناسان تدوین شده، مجموعهای از اصول اخلاقی و راهبردی برای توسعه هوش مصنوعی ایمن و مفید را ارائه میدهد که شامل تأکید بر همسویی با ارزشهای انسانی، شفافیت، مسئولیتپذیری و حفاظت از حریم خصوصی است. این اصول و اعلامیهها، اگرچه فاقد قدرت اجرایی قوانین هستند، اما میتوانند به عنوان راهنما برای توسعهدهندگان، سیاستگذاران و عموم مردم عمل کنند و به ایجاد اجماع در مورد نحوه مدیریت مسئولانه هوش مصنوعی کمک نمایند.
هوش مصنوعی در عمل حقوقی و قضایی: مطالعه موردی
برای درک بهتر چالشهای عملی هوش مصنوعی در حوزه حقوق، بررسی چند نمونه از پروندههای قضایی که در آنها از الگوریتمها و سیستمهای هوش مصنوعی استفاده شده یا به چالش کشیده شدهاند، مفید است. این پروندهها نشان میدهند که چگونه این فناوریها میتوانند با اصول بنیادین حقوقی مانند دادرسی عادلانه، برابری و منع تبعیض تلاقی پیدا کنند.
الف) پروندههای ایالات متحده:
در ایالات متحده، استفاده از الگوریتمها در جنبههای مختلف سیستم حقوقی، از تحقیقات مقدماتی گرفته تا صدور حکم، منجر به بروز دعاوی مهمی شده است. یکی از حوزههایی که الگوریتمها به طور گسترده پذیرفته شدهاند، “کشف الکترونیکی” (e-discovery) در دعاوی مدنی است. روشی به نام “کدگذاری پیشبینیکننده” (Predictive Coding) که از یادگیری ماشین برای شناسایی اسناد مرتبط در میان حجم عظیمی از دادههای الکترونیکی استفاده میکند، در پروندههایی مانند “Da Silva Moore v. Publicis Groupe” و “Rio Tinto PLC v. Vale S.A.” توسط دادگاهها به عنوان روشی قابل قبول و کارآمد به رسمیت شناخته شده است. این نشان میدهد که دادگاهها در برخی زمینهها آماده پذیرش هوش مصنوعی برای بهبود کارایی فرآیندهای حقوقی هستند.
با این حال، استفاده از الگوریتمها در تصمیمگیریهای حساستر، مانند صدور حکم کیفری، بسیار بحثبرانگیزتر بوده است. پرونده “Loomis v. Wisconsin” نمونه بارز این چالش است. در این پرونده، دادگاه بدوی برای تعیین میزان محکومیت آقای لومیس، از ارزیابی ریسک تکرار جرمی که توسط یک نرمافزار ارزیابی ریسک به نام COMPAS محاسبه شده بود، استفاده کرد. الگوریتم COMPAS یک نرمافزار تجاری با کد منبع بسته (proprietary) است و نحوه دقیق عملکرد آن و عواملی که در محاسبه نمره ریسک در نظر میگیرد، برای متهم و وکلایش فاش نشده بود. آقای لومیس استدلال کرد که استفاده از این “جعبه سیاه” الگوریتمی در صدور حکم، حق او برای دادرسی عادلانه (Due Process) را نقض میکند، زیرا او امکان به چالش کشیدن اعتبار علمی و دقت الگوریتم یا بررسی اینکه آیا عواملی مانند نژاد یا جنسیت (که COMPAS ادعا میکند در نظر نمیگیرد، اما ممکن است به طور غیرمستقیم تأثیرگذار باشند) در نتیجهگیری نقش داشتهاند یا خیر، را نداشته است. دیوان عالی ویسکانسین در نهایت حکم داد که استفاده از نمره COMPAS به عنوان یکی از عوامل در صدور حکم، به خودی خود ناقض دادرسی عادلانه نیست، اما تأکید کرد که دادگاهها باید با احتیاط از این ابزارها استفاده کنند و هشدارها و محدودیتهای مربوط به آنها را در نظر بگیرند. این پرونده بحثهای جدی را در مورد شفافیت، پاسخگویی و عدالت الگوریتمی در سیستم قضایی برانگیخته است.
پرونده دیگری که به تبعیض الگوریتمی در محیط کار میپردازد، “Munoz v. Orr” است. در این دعوای دستهجمعی، شاکیان (کارمندان مرد اسپانیاییتبار) ادعا کردند که سیستم ارتقای شغلی کارفرمایشان که تا حدی بر اساس یک سیستم خودکار مبتنی بر الگوریتم به نام “سیستم ارجاع و جایابی پرسنل” (PPRS) عمل میکرد، علیه آنها تبعیض قائل شده است. سیستم PPRS مانند یک قیف عمل میکرد و با اعمال معیارهای فزاینده، تعداد نامزدهای واجد شرایط برای ارتقا را کاهش میداد. شاکیان خواستار دسترسی به جزئیات الگوریتم PPRS برای اثبات ادعای تبعیض خود بودند، اما دادگاه پس از بررسی محرمانه الگوریتم، این درخواست را رد کرد و در نهایت حکم داد که شاکیان شواهد کافی برای اثبات تبعیض عامدانه (Disparate Treatment) یا تأثیر نامتناسب (Disparate Impact) ارائه نکردهاند. این پرونده نشاندهنده دشواری اثبات تبعیض الگوریتمی است، بهویژه زمانی که الگوریتمها با تصمیمات ذهنی انسانی ترکیب میشوند و دسترسی به جزئیات عملکرد الگوریتم محدود است.
ب) پروندههای اروپایی با تمرکز بر دادگاه اروپایی حقوق بشر:
در اروپا، بسیاری از پروندههای مربوط به نقض حقوق بشر ناشی از فناوری، به دادگاه اروپایی حقوق بشر (ECtHR) ارجاع داده میشوند. اگرچه پروندههای مستقیمی که منحصراً به هوش مصنوعی پرداخته باشند هنوز نادر هستند، اما پروندههای مربوط به نظارت دولتی و حفاظت از دادهها، اصول مهمی را برای ارزیابی قانونی بودن استفاده از هوش مصنوعی در این زمینهها ارائه میدهند. پرونده “Big Brother Watch and Others v. the United Kingdom” به بررسی قانونی بودن سه برنامه نظارتی بریتانیا، از جمله جمعآوری انبوه دادههای ارتباطی و اشتراکگذاری اطلاعات با سرویسهای اطلاعاتی خارجی پرداخت. دادگاه اروپایی حقوق بشر حکم داد که رژیم جمعآوری انبوه دادههای ارتباطی، به دلیل فقدان تضمینهای کافی برای محدود کردن دامنه نظارت و محافظت در برابر سوء استفاده، ناقض حق حریم خصوصی (ماده ۸ کنوانسیون) و همچنین آزادی بیان (ماده ۱۰) است. دادگاه تأکید کرد که هرگونه نظارتی باید بر اساس قانون، برای یک هدف مشروع، و ضروری در یک جامعه دموکراتیک باشد و باید شامل سازوکارهای نظارتی مستقل و مؤثر باشد. این اصول به وضوح برای ارزیابی استفاده از هوش مصنوعی در تحلیل دادههای جمعآوری شده انبوه یا نظارت پیشبینیکننده کاربرد دارد.
پرونده “Catt v. United Kingdom” نیز به موضوع جمعآوری و نگهداری دادههای شخصی توسط پلیس مربوط میشد. آقای کت، یک فعال صلحطلب سالخورده بدون سابقه کیفری، متوجه شد که پلیس اطلاعات مربوط به شرکت او در تظاهرات مسالمتآمیز را در پایگاه دادهای به نام “پایگاه داده افراطگرایی” (Extremism Database) نگهداری میکند. دادگاه اروپایی حقوق بشر دریافت که نگهداری این اطلاعات، حتی اگر به صورت عمومی جمعآوری شده باشند، مداخله در حق حریم خصوصی آقای کت محسوب میشود. دادگاه با اشاره به ابهام در تعریف “افراطگرایی داخلی” و عدم اثبات ضرورت نگهداری اطلاعات مربوط به اعتراضات مسالمتآمیز برای اهداف پلیسی، حکم داد که این مداخله توجیهپذیر نبوده و بریتانیا ماده ۸ کنوانسیون را نقض کرده است (اگرچه این رای بعداً توسط دیوان عالی بریتانیا در سطح ملی نقض شد، اما استدلال دادگاه اروپایی همچنان پابرجاست). این پرونده نشان میدهد که حتی جمعآوری اطلاعات ظاهراً عمومی درباره افراد و تحلیل آنها (که هوش مصنوعی میتواند آن را تسهیل کند) میتواند به عنوان نقض حریم خصوصی تلقی شود، مگر اینکه ضرورت و تناسب آن به وضوح اثبات شود و با تضمینهای قانونی کافی همراه باشد. این پروندهها اهمیت چارچوب حقوق بشر را در تعیین مرزهای قابل قبول برای استفاده از فناوریهای نظارتی، از جمله هوش مصنوعی، برجسته میکنند.
۶. نقش شرکتها و جامعه مدنی
علاوه بر دولتها و نهادهای قانونی، بازیگران دیگری نیز در شکلدهی به آینده هوش مصنوعی و تأثیر آن بر حقوق بشر نقش دارند. شرکتهای فناوری که پیشرو توسعه هوش مصنوعی هستند و سازمانهای جامعه مدنی که بر رعایت حقوق بشر نظارت میکنند، هر دو نقش حیاتی در این زمینه ایفا میکنند.
الف) مسئولیتپذیری شرکتهای فناوری:
بسیاری از پیشرفتهای کلیدی در هوش مصنوعی توسط شرکتهای بزرگ فناوری مانند گوگل، مایکروسافت، آمازون، فیسبوک و آیبیام هدایت میشود. این شرکتها نه تنها فناوریها را توسعه میدهند، بلکه اغلب دادههای عظیمی را که برای آموزش این سیستمها لازم است، در اختیار دارند و پلتفرمهایی را کنترل میکنند که این فناوریها از طریق آنها به کار گرفته میشوند. در نتیجه، اقدامات و تصمیمات آنها تأثیر مستقیمی بر حقوق بشر دارد. در سالهای اخیر، با افزایش آگاهی عمومی و فشار از سوی جامعه مدنی و تنظیمگران، بسیاری از این شرکتها اعلام کردهاند که به توسعه “اخلاقی” و “مسئولانه” هوش مصنوعی متعهد هستند. برای مثال، IBM “اصول روزمره اخلاق برای هوش مصنوعی” خود را منتشر کرده و مایکروسافت در گزارشی به نام “آینده محاسبهشده” (The Future Computed)، اصولی مانند عدالت، قابلیت اطمینان و ایمنی، حریم خصوصی و امنیت، فراگیری، شفافیت و پاسخگویی را به عنوان راهنمای کار خود در زمینه هوش مصنوعی معرفی کرده است.
با این حال، صرف اعلام تعهد به اصول اخلاقی کافی نیست. چالش اصلی در تبدیل این اصول به اقدامات عملی و سازوکارهای پاسخگویی مؤثر نهفته است. منتقدان استدلال میکنند که تمرکز بر “اخلاق” به جای “حقوق بشر” میتواند راهی برای فرار از تعهدات قانونی الزامآور باشد. حقوق بشر چارچوبی مشخصتر و مبتنی بر قانون را ارائه میدهد که شامل تعهدات دولتها برای حمایت از حقوق افراد در برابر نقض توسط بازیگران خصوصی (از جمله شرکتها) است. علاوه بر این، انگیزههای تجاری شرکتها ممکن است با اصول اخلاقی یا حقوق بشری در تضاد باشد (مثلاً در مورد جمعآوری حداکثری دادهها برای اهداف تبلیغاتی). بنابراین، علاوه بر تلاشهای خودتنظیمی شرکتها، وجود مقررات دولتی قوی و نظارت مستقل برای اطمینان از اینکه توسعه و استقرار هوش مصنوعی توسط بخش خصوصی با حقوق بشر سازگار است، ضروری به نظر میرسد.
ب) نقش سازمانهای جامعه مدنی و نهادهای حرفهای:
سازمانهای جامعه مدنی، از جمله سازمانهای غیردولتی (NGOs) حقوق بشری، گروههای مدافع حقوق دیجیتال، و سازمانهای دانشگاهی، نقش حیاتی در نظارت بر تأثیرات هوش مصنوعی بر حقوق بشر، افزایش آگاهی عمومی، انجام تحقیقات مستقل، و حمایت از قربانیان نقض حقوق بشر ایفا میکنند. سازمانهای بینالمللی بزرگی مانند عفو بینالملل (Amnesty International) و دیدهبان حقوق بشر (Human Rights Watch) برنامههای ویژهای را برای تمرکز بر چالشهای هوش مصنوعی و حقوق بشر آغاز کردهاند. آنها به بررسی مسائلی مانند تبعیض الگوریتمی در سیستم قضایی و پلیسی، توسعه سلاحهای خودمختار، تأثیر اتوماسیون بر حق کار، و تأثیر هوش مصنوعی بر حریم خصوصی و آزادی بیان میپردازند و از طریق گزارشها، کمپینها و دعاوی حقوقی، دولتها و شرکتها را برای رعایت استانداردها تحت فشار قرار میدهند.
علاوه بر سازمانهای حقوق بشری، نهادهای حرفهای و استانداردگذاری نیز در تلاش برای ایجاد راهنماها و استانداردهای فنی برای توسعه مسئولانه هوش مصنوعی هستند. برای مثال، “مؤسسه مهندسان برق و الکترونیک” (IEEE) که یک سازمان حرفهای جهانی است، ابتکاری به نام “طراحی اخلاقی همسو” (Ethically Aligned Design) را راهاندازی کرده است. این ابتکار مجموعهای جامع از اصول و توصیهها را برای اولویت دادن به رفاه انسان در طراحی سیستمهای خودمختار و هوشمند ارائه میدهد و تأکید میکند که “کارکرد کامل این فناوریها تنها در صورتی به دست خواهد آمد که با ارزشهای تعریفشده و اصول اخلاقی شناخته شده همسو باشند”. این تلاشها نشان میدهد که علاوه بر چارچوبهای قانونی، ایجاد هنجارها و استانداردهای فنی و حرفهای نیز برای هدایت توسعه هوش مصنوعی در مسیری که به حقوق بشر احترام بگذارد، اهمیت دارد. همکاری میان حقوقدانان، فناوران، فعالان جامعه مدنی و سیاستگذاران برای دستیابی به این هدف ضروری است.
نتیجهگیری و جمعبندی کلی
گسترش هوش مصنوعی در جامعه مدرن، فرصتها و چالشهای بیسابقهای را به همراه دارد. این فناوری پتانسیل آن را دارد که نیرویی عظیم برای رشد و توسعه باشد، به شرطی که با دقت طراحی شود تا به حقوق بشر احترام بگذارد، با ارزشهای انسانی همسو باشد، رفاه را افزایش دهد و تا حد امکان افراد بیشتری را توانمند سازد. با این حال، همانطور که در این مقاله به تفصیل بررسی شد، خطرات قابل توجهی نیز وجود دارد که هوش مصنوعی میتواند به ابزاری برای نقض حقوق بنیادین، تشدید نابرابریها و ایجاد اشکال جدیدی از سرکوب تبدیل شود. از دیدگاه حقوق بشر، پیشرفتهای هوش مصنوعی باید در خدمت همه مردم باشد، نه اینکه صرفاً به نفع گروههای کوچک، یک ملت خاص یا یک شرکت بزرگ تمام شود.
برای حقوقدانان، درک پیامدهای حقوق بشری هوش مصنوعی یک ضرورت فزاینده است. چه در مقام وکیل مدافع حقوق افرادی که توسط الگوریتمها مورد تبعیض قرار گرفتهاند، چه در مقام مشاور شرکتهایی که در حال توسعه یا استفاده از سیستمهای هوش مصنوعی هستند، و چه در مقام قاضی یا سیاستگذاری که با چالشهای قانونی ناشی از این فناوری روبرو است، آگاهی از چارچوب حقوق بشر و نحوه تلاقی آن با هوش مصنوعی امری حیاتی است. چارچوب حقوق بشر، با جهانی بودن و تأکید بر کرامت ذاتی و حقوق برابر همه انسانها، ابزاری قدرتمند برای ارزیابی و هدایت توسعه و استفاده از هوش مصنوعی فراهم میکند. این چارچوب زبانی مشترک و مجموعهای از هنجارهای الزامآور را ارائه میدهد که میتوان بر اساس آن، پاسخگویی را مطالبه کرد و از حقوق افراد در برابر قدرت فزاینده فناوری محافظت نمود.
در نهایت، تضمین آیندهای که در آن هوش مصنوعی در خدمت بشریت باشد، نیازمند تلاش جمعی است. توسعهدهندگان سیستمهای یادگیری ماشین باید مسئولیتپذیر باشند و اقداماتی را برای شناسایی و اصلاح تعصبات، چه در طراحی مدل و چه در انتخاب دادههای آموزشی، انجام دهند و تنوع و فراگیری را در تیمهای توسعه خود ترویج کنند. دولتها باید اطمینان حاصل کنند که استفاده از هوش مصنوعی در بخش عمومی با استانداردهای دادرسی عادلانه و حقوق بشر مطابقت دارد، خطوط روشنی برای پاسخگویی ایجاد کنند، و مقررات مؤثری را برای نظارت بر استفاده از هوش مصنوعی توسط بخش خصوصی، بهویژه در زمینههای پرخطر، وضع نمایند. جامعه مدنی باید به نظارت، تحقیق، حمایتگری و آگاهیبخشی ادامه دهد. و حقوقدانان باید دانش و مهارتهای خود را برای پیمایش در این چشمانداز قانونی پیچیده و دفاع از حقوق بنیادین در عصر هوش مصنوعی بهروز کنند. تنها از طریق چنین تلاش هماهنگی میتوان اطمینان حاصل کرد که هوش مصنوعی به جای تضعیف، به تقویت کرامت و حقوق همه انسانها کمک خواهد کرد.
اهمیت درک ملاحظات حقوق بشری هوش مصنوعی برای یک حقوقدان فراتر از یک دانش نظری صرف است؛ این موضوع پیامدهای عملی مستقیمی برای حرفه حقوق دارد. اولاً، حقوقدانان به طور فزایندهای با پروندهها و مسائلی روبرو خواهند شد که در آنها هوش مصنوعی نقش دارد. این میتواند شامل دعاوی مربوط به تبعیض شغلی ناشی از الگوریتمهای استخدام، چالشهای مربوط به استفاده از نرمافزارهای ارزیابی ریسک در پروندههای کیفری، مسائل مربوط به مسئولیت مدنی ناشی از خطاهای سیستمهای خودران، یا اختلافات مربوط به نقض حریم خصوصی توسط فناوریهای نظارتی باشد. داشتن درک پایهای از نحوه عملکرد این سیستمها و پتانسیل آنها برای نقض حقوق بشر، به حقوقدانان کمک میکند تا استدلالهای قویتری ارائه دهند، شواهد را به درستی ارزیابی کنند و از حقوق موکلان خود به طور مؤثرتری دفاع نمایند.
ثانیاً، حقوقدانانی که به شرکتها یا نهادهای دولتی مشاوره میدهند، باید بتوانند ریسکهای حقوقی و حقوق بشری مرتبط با توسعه و استقرار سیستمهای هوش مصنوعی را شناسایی کرده و راهکارهای کاهش این ریسکها را ارائه دهند. این شامل مشاوره در مورد رعایت مقررات حفاظت از دادهها مانند GDPR، اطمینان از عدم تبعیضآمیز بودن الگوریتمها، تدوین سیاستهای شفافیت و پاسخگویی، و انجام ارزیابیهای تأثیر حقوق بشری است. درک چارچوبهای حقوقی ملی و بینالمللی مرتبط با هوش مصنوعی و حقوق بشر برای ارائه مشاورههای دقیق و کاربردی ضروری است. ناآگاهی از این ملاحظات میتواند منجر به مسئولیتهای قانونی سنگین و آسیب به اعتبار سازمان شود.
ثالثاً، حقوقدانان به عنوان بخشی از جامعه مدنی و متولیان حاکمیت قانون، نقشی در شکلدهی به قوانین و سیاستهای مربوط به هوش مصنوعی دارند. درک عمیق چالشهای حقوق بشری این فناوری به آنها امکان میدهد تا در بحثهای عمومی و فرآیندهای قانونگذاری مشارکت فعال و آگاهانهای داشته باشند و به ایجاد چارچوبهایی کمک کنند که نوآوری را تشویق کرده و در عین حال از حقوق بنیادین محافظت نمایند. نقاط قوت اصلی رویکرد حقوق بشری، اتکای آن به اصول جهانی پذیرفتهشده و تمرکز بر حمایت از افراد، بهویژه گروههای آسیبپذیر است. با این حال، چالشهایی مانند سرعت بالای تحولات فناورانه، دشواری نظارت و اجرا، و مقاومت احتمالی از سوی بازیگران قدرتمند دولتی و خصوصی نیز وجود دارد. حقوقدانان با تجهیز خود به دانش لازم در این حوزه، میتوانند نقش مؤثری در غلبه بر این چالشها و هدایت هوش مصنوعی به سمتی ایفا کنند که به نفع کل بشریت باشد.