هوش مصنوعی و حقوق مسولیت مدنی
هوش مصنوعی و چالشهای مسئولیت مدنی
نگاهی به آینده حقوق ایران
مقدمه: وقتی هوش مصنوعی خسارت میزند
دگرگونی صنایع و چالش حقوقی
هوش مصنوعی (AI) با جایگزینی وظایف انسانی، چالشهای حقوقی جدیدی در حوزه مسئولیت مدنی (جبران خسارت) ایجاد میکند. اگر یک سیستم هوش مصنوعی خودکار باعث خسارت شود، چه کسی مسئول است؟ آیا قوانین فعلی ما پاسخگو هستند؟
هوش مصنوعی: ابزار یا شخص؟
هوش مصنوعی «شخص» با اراده قانونی نیست، بلکه بیشتر شبیه «ابزار» است. این تفاوت، استفاده از قواعد سنتی مسئولیت را دشوار کرده و ممکن است به «خلاء مسئولیت» منجر شود. اصل «بیطرفی فناورانه» ایجاب میکند که قربانیان صرفاً به دلیل نوین بودن فناوری، از حقوق خود محروم نشوند. این مقاله به بررسی این چالشها و چشمانداز تطبیق آن با نظام حقوقی ایران میپردازد.
تطبیق با حقوق ایران: قواعد جبران خسارت و هوش مصنوعی
مبانی مسئولیت مدنی در ایران
ماده ۱ قانون مسئولیت مدنی (۱۳۳۹) سنگ بنای مسئولیت مدنی در ایران است و بر «فعل زیانبار» و «رابطه سببیت» (معمولاً با اثبات تقصیر) استوار است. اما اگر یک سیستم هوش مصنوعی خسارت وارد کند، چگونه این ماده اعمال میشود؟ هوش مصنوعی «شخص» نیست تا مرتکب «بیاحتیاطی» شود.
بررسی مواد قانونی و چالشهای نوظهور
ماده ۱۲ ق.م.م (مسئولیت کارفرما)
این ماده به مسئولیت کارفرما در قبال کارکنان میپردازد. اما آیا AI «کارگر» یا «کارمند» است؟ پاسخ منفی است و استفاده مستقیم از این ماده برای «کارفرمای» AI با چالش جدی روبروست.
اثبات تقصیر و “جعبه سیاه” AI
اثبات تقصیر شخص دخیل (طراح، برنامهنویس، کاربر) در عملکرد سیستمهای پیچیده AI که گاهی مانند «جعبه سیاه» عمل میکنند، بسیار دشوار است. استاندارد مراقبت متعارف نیز نیاز به بازتعریف دارد.
مسئولیت تولیدکننده و محصول معیوب
آیا AI «کالای معیوب» است؟ قوانین فعلی ممکن است خسارات ناشی از نرمافزارهای هوشمندی که پس از فروش و در اثر یادگیری دچار «عیب» میشوند را کامل پوشش ندهند. دفاع «وضعیت دانش در زمان تولید» نیز چالشزاست.
ماده ۷ ق.م.م (مسئولیت سرپرستان)
این ماده به مسئولیت سرپرستان قانونی اشخاص فاقد اهلیت اشاره دارد. منطق آن (مسئولیت کنترلکننده) میتواند مبنای فکری برای مسئولیت در قبال AI باشد. آیا کاربر یا مالک AI «سرپرست» آن است؟
خطر “خلاء مسئولیت”
اگر راهحلهای موجود نتوانند خسارات ناشی از AI را پوشش دهند، «خلاء مسئولیت» به واقعیتی تلخ برای زیاندیدگان تبدیل شده و با اهداف عدالتمحور نظام مسئولیت مدنی در تعارض خواهد بود.
ماده ۱ ق.م.م (تقصیر و سببیت)
چالش اصلی در اعمال این ماده به AI، عدم امکان انتساب «تقصیر» به یک موجود غیرانسانی و دشواری در احراز «رابطه سببیت» مستقیم با عملکرد یک شخص خاص است.
نتیجهگیری و راهکارهای پیشنهادی
ناکارآمدی قواعد سنتی و نیاز به راهحل
قواعد سنتی مسئولیت، برای اعمال انسانی طراحی شدهاند و در مواجهه با خسارات ناشی از سیستمهای خودکار AI کارایی لازم را ندارند. AI «شخص» حقوقی نیست و نمیتواند مستقلاً مرتکب تقصیر شود. پیچیدگی فنی و ماهیت «جعبه سیاه» برخی سیستمها، اثبات تقصیر و سببیت را سخت میکند و خطر «خلاء مسئولیت» را افزایش میدهد که با اصل «بیطرفی فناورانه» در تضاد است.
پیشنهاد: مسئولیت قانونی نیابتی خاص
برای پر کردن خلاء، میتوان نوعی «مسئولیت قانونی نیابتی خاص» برای استفادهکنندگان تجاری از هوش مصنوعی ایجاد کرد. عملکرد سیستم AI به «کارفرما» یا مالک آن منتسب شده و او مسئول جبران خسارت شناخته میشود، گویی خود او فعل را از طریق عامل انسانی انجام داده است. استاندارد مراقبت نیز باید مشابه انسان متخصص باشد. نظام حقوقی ایران باید با در نظر گرفتن مبانی خود (مواد ۱ و ۱۲ ق.م.م و اصول کلی) به دنبال راهحلهای کارآمد و عادلانه باشد تا هم از حقوق شهروندان صیانت شود و هم مسیر توسعه مسئولانه فناوری هموار گردد.
هوش مصنوعی و چالشهای مسئولیت مدنی: نگاهی به آینده حقوق ایران
هوش مصنوعی (AI) به سرعت در حال دگرگون کردن صنایع و مشاغل گوناگون است. از خودروهای خودران گرفته تا سیستمهای تشخیص پزشکی و دستیاران مجازی، هوش مصنوعی جایگزین وظایفی میشود که پیش از این توسط انسانها انجام میشد. این تحول عظیم، در کنار مزایای بیشمار، چالشهای حقوقی جدیدی را به ویژه در حوزه مسئولیت مدنی مطرح میکند. مسئولیت مدنی به زبان ساده یعنی چه کسی باید خسارت وارد شده به دیگری را جبران کند؟ وقتی یک انسان در حین کار به دیگری آسیب میزند، قوانین مشخصی برای مسئول دانستن او یا کارفرمایش وجود دارد. اما اگر یک سیستم هوش مصنوعی خودکار باعث خسارت شود، چه کسی مسئول است؟ آیا قوانین فعلی ما برای پاسخ به این پرسش آمادهاند؟
موضوع اصلی این است که هوش مصنوعی، برخلاف کارمند انسان، یک «شخص» با اراده و حقوق قانونی محسوب نمیشود؛ بلکه بیشتر شبیه یک «ابزار» یا «دارایی» است. این تفاوت بنیادین، استفاده از قواعد سنتی مسئولیت، مانند مسئولیت کارفرما در قبال اعمال کارمند، را دشوار میسازد. در نتیجه، ممکن است «خلاء مسئولیت» ایجاد شود؛ یعنی وضعیتی که در آن زیاندیده نمیتواند به راحتی شخص مسئول را پیدا کرده و خسارت خود را مطالبه کند. علاوه بر این، مفهوم «بیطرفی فناورانه» مطرح میشود. این اصل میگوید که قانون نباید صرفاً به دلیل جدید بودن یک فناوری، استفاده از آن را تشویق یا منع کند، به شرطی که سطح ایمنی آن با روشهای قدیمی یکسان باشد. همچنین، قربانیان نباید صرفاً به این دلیل که خسارت توسط یک فناوری نوین به جای یک انسان وارد شده، از حقوق قانونی خود محروم شوند. اینها پرسشهای اساسی هستند که حقوقدانان در مواجهه با پیشرفت روزافزون هوش مصنوعی باید به آنها پاسخ دهند تا عدالت و کارآمدی نظام حقوقی حفظ شود.
این مقاله تلاش دارد تا با الهام از مباحث روز حقوقی در سطح بینالمللی، این چالشها را بررسی کرده و چشماندازی برای تطبیق آن با نظام حقوقی ایران ارائه دهد. هدف، ارائه تصویری روشن و کاربردی است تا با ابعاد این موضوع نوظهور و اهمیت آن بیشتر آشنا شوید.
تطبیق با حقوق ایران: وقتی هوش مصنوعی خسارت میزند
نظام حقوقی ایران، مانند بسیاری از کشورها، قواعد مشخصی برای جبران خسارت دارد. ماده ۱ قانون مسئولیت مدنی مصوب ۱۳۳۹ به عنوان یک اصل کلی بیان میکند: «هر کس بدون مجوز قانونی عمداً یا در نتیجه بیاحتیاطی به جان یا سلامتی یا مال یا آزادی یا حیثیت یا شهرت تجارتی یا به هر حق دیگر که به موجب قانون برای افراد ایجاد گردیده لطمهای وارد نماید که موجب ضرر مادی یا معنوی دیگری شود، مسئول جبران خسارت ناشی از عمل خود میباشد.» این ماده، سنگ بنای مسئولیت مدنی در ایران است و بر دو پایه اصلی «فعل زیانبار» و «رابطه سببیت» بین فعل و ضرر استوار است که معمولاً نیازمند اثبات تقصیر (عمد یا بیاحتیاطی) از سوی عامل زیان است.
حال این سوال مطرح میشود که اگر یک سیستم هوش مصنوعی، مثلاً یک ربات جراح یا یک نرمافزار تحلیلگر مالی خودکار، باعث ورود خسارت شود، چگونه میتوان این ماده را اعمال کرد؟ هوش مصنوعی به خودی خود «شخص» نیست تا بتواند مرتکب «بیاحتیاطی» شود. بنابراین، تمرکز به سمت اشخاص دخیل در ساخت، برنامهنویسی، مالکیت یا استفاده از آن سیستم معطوف میشود. در اینجاست که ماده ۱۲ قانون مسئولیت مدنی ایران، که به مسئولیت کارفرمایان در قبال اعمال کارکنانشان میپردازد، میتواند مورد توجه قرار گیرد. این ماده مقرر میدارد: «کارفرمایانی که مشمول قانون کار هستند مسئول جبران خساراتی میباشند که از طرف کارکنان اداری و یا کارگران آنان در حین انجام کار یا به مناسبت آن وارد شده است مگر اینکه محرز شود تمام احتیاطهایی که اوضاع و احوال قضیه ایجاب مینموده به عمل آورده یا اینکه اگر احتیاطهای مزبور را به عمل میآوردند باز هم جلوگیری از ورود زیان مقدور نمیبود…». این نوع مسئولیت، که گاهی «مسئولیت نیابتی» نامیده میشود، به زیاندیده کمک میکند تا از کارفرما که معمولاً توانایی مالی بیشتری دارد، خسارت خود را دریافت کند. اما آیا یک سیستم هوش مصنوعی میتواند «کارگر» یا «کارمند اداری» تلقی شود؟ پاسخ منفی است، زیرا این عناوین بر رابطه استخدامی انسانی دلالت دارند. در نتیجه، استفاده مستقیم از ماده ۱۲ برای مسئول دانستن «کارفرمای» یک هوش مصنوعی با چالش جدی روبروست.
مشکل دیگر، اثبات تقصیر در عملکرد هوش مصنوعی است. اگر یک سیستم هوش مصنوعی پیچیده که با استفاده از یادگیری ماشین (Machine Learning) به طور خودکار تصمیم میگیرد، دچار خطا شود و خسارتی به بار آورد، اثبات اینکه کدام شخص (طراح، برنامهنویس، تولیدکننده، یا کاربر) مرتکب بیاحتیاطی شده، بسیار دشوار خواهد بود. عملکرد داخلی این سیستمها گاهی مانند یک «جعبه سیاه» است که حتی برای متخصصان نیز به طور کامل قابل فهم نیست. به عنوان مثال، اگر یک خودروی خودران به دلیل نقص فنی غیرمنتظره در سیستم تصمیمگیری خود تصادف کند، آیا تقصیر متوجه برنامهنویس الگوریتم است، تولیدکنندهای که حسگرها را نصب کرده، یا کاربری که به سیستم اعتماد کرده است؟ این عدم شفافیت، اثبات عناصر لازم برای مسئولیت بر اساس تقصیر (موضوع ماده ۱) را پیچیده میکند. همچنین، مفاهیمی مانند «استاندارد مراقبت متعارف» که در برخی نظام های حقوقی در احراز بیاحتیاطی به کار میرود، در مورد هوش مصنوعی نیاز به بازتعریف دارد. آیا استاندارد مراقبت یک ربات جراح باید با یک جراح انسان مقایسه شود یا استاندارد بالاتری از آن انتظار میرود؟
در زمینه مسئولیت تولیدکننده نیز چالشهایی وجود دارد. اگر هوش مصنوعی به عنوان یک «کالا» یا «محصول معیوب» در نظر گرفته شود، آیا میتوان از قواعد مربوط به عیب تولید استفاده کرد؟ قوانین فعلی حمایت از مصرفکننده یا قواعد عمومی مسئولیت مدنی ممکن است پوشش کاملی برای خسارات ناشی از نرمافزارهای هوشمند یا سیستمهایی که پس از فروش و در اثر یادگیری دچار «عیب» میشوند، ارائه ندهند. برای مثال، اگر یک نرمافزار مشاوره سرمایهگذاری که در ابتدا عملکرد خوبی داشته، پس از مدتی یادگیری از دادههای جدید، توصیههای زیانباری ارائه دهد، آیا این یک «عیب» اولیه محصول محسوب میشود؟ همچنین، دفاع «وضعیت دانش و فن در زمان تولید» (State-of-the-art defense) که به تولیدکننده اجازه میدهد بگوید در زمان ساخت محصول، امکان پیشبینی یا رفع آن عیب وجود نداشته، میتواند در مورد فناوریهای نوظهوری مانند هوش مصنوعی به طور مکرر مطرح شود و دسترسی قربانیان به جبران خسارت را محدود کند.
در حقوق ایران، ماده ۷ قانون مسئولیت مدنی به مسئولیت سرپرستان قانونی یا قراردادی اشخاص صغیر یا مجنون اشاره دارد. این ماده بیان میکند: «کسی که نگاهداری یا مواظبت مجنون یا صغیر قانوناً یا بر حسب قرارداد به عهده او میباشد در صورت تقصیر در نگاهداری یا مواظبت مسئول جبران زیان وارده از ناحیه مجنون و یا صغیر میباشد…». هرچند این ماده مستقیماً به هوش مصنوعی قابل تسری نیست، اما منطق زیربنایی آن – یعنی مسئولیت شخصی که کنترل و مراقبت از یک موجود فاقد اهلیت کامل را بر عهده دارد – میتواند به عنوان یک مبنای فکری برای توسعه نظریههای مسئولیت در قبال هوش مصنوعی مورد توجه قرار گیرد. آیا میتوان کاربر یا مالک یک سیستم هوش مصنوعی پیشرفته را به نوعی «سرپرست» آن تلقی کرد که در صورت نقص در نظارت یا استفاده صحیح، مسئول خسارات وارده باشد؟ اینها سوالاتی است که نیازمند تحلیل و بررسی عمیقتر در پرتو اصول حقوقی ایران است. در نهایت، اگر راهحلهای موجود نتوانند به طور کارآمد خسارات ناشی از هوش مصنوعی را پوشش دهند، «خلاء مسئولیت» به یک واقعیت تلخ برای زیاندیدگان تبدیل خواهد شد و این امر با اهداف عدالتمحور نظام مسئولیت مدنی در تعارض است.
نتیجهگیری کلی و جمعبندی
پیشرفت سریع هوش مصنوعی و جایگزینی آن با نیروی انسانی در بسیاری از فعالیتها، نظام حقوق مسئولیت مدنی را با چالشهای بیسابقهای مواجه کرده است. همانطور که در این مقاله بررسی شد، قواعد سنتی مسئولیت که عمدتاً برای اعمال انسانی طراحی شدهاند، در مواجهه با خسارات ناشی از سیستمهای خودکار هوش مصنوعی، کارایی لازم را ندارند. مشکل اصلی این است که هوش مصنوعی، به عنوان یک «برنامهی رایانهای» و نه یک «شخص» حقوقی، نمیتواند مستقلاً مرتکب تقصیر یا جرم شود. این امر، اعمال مستقیم قواعدی مانند مسئولیت کارفرما در قبال کارمند (موضوع ماده ۱۲ قانون مسئولیت مدنی ایران) را برای جبران خسارت ناشی از عملکرد یک سیستم هوش مصنوعی، دشوار یا غیرممکن میسازد.
علاوه بر این، پیچیدگی فنی و ماهیت «جعبه سیاه» برخی از سیستمهای هوش مصنوعی، اثبات تقصیر اشخاص دخیل (مانند طراحان، برنامهنویسان یا کاربران) و همچنین احراز رابطه سببیت بین فعل آنها و ضرر وارده را بسیار سخت میکند. این موانع میتوانند منجر به یک «خلاء مسئولیت» شوند، جایی که زیاندیده نمیتواند به سادگی عامل جبران خسارت را شناسایی و مسئول بداند. چنین وضعیتی نه تنها با اصل «بیطرفی فناورانه» که بر لزوم عدم تضییع حقوق قربانیان صرفاً به دلیل استفاده از فناوری نوین تأکید دارد، در تضاد است، بلکه میتواند اعتماد عمومی به این فناوریها را نیز کاهش دهد.
به نظر میرسد برای پر کردن خلاء انتساب مسولیت مدنی، نوعی «مسئولیت قانونی نیابتی خاص» برای استفادهکنندگان تجاری از هوش مصنوعی ایجاد شود. بر اساس این الگو، عملکرد سیستم هوش مصنوعی به «کارفرما» یا مالک آن منتسب شده و او مسئول جبران خسارت شناخته میشود، گویی خود او آن فعل را از طریق یک عامل انسانی انجام داده است. استاندارد مراقبت نیز باید مشابه استاندارد یک انسان متخصص در همان حوزه باشد. این رویکرد میتواند بدون نیاز به اثبات تقصیر پیچیده در مورد خود سیستم یا طراحان آن، راهی برای جبران خسارت زیاندیدگان فراهم کند و در عین حال، استفادهکنندگان از هوش مصنوعی را به انتخاب و نظارت دقیقتر بر این سیستمها ترغیب نماید. برای نظام حقوقی ایران نیز ضروری است که با در نظر گرفتن مبانی فقهی و قانونی خود، به ویژه مواد ۱ و ۱۲ قانون مسئولیت مدنی و اصول کلی جبران خسارت، به دنبال راهحلهای کارآمد و عادلانه برای مواجهه با این پدیده نوظهور باشد تا هم از حقوق شهروندان صیانت شود و هم مسیر توسعه مسئولانه فناوریهای نوین هموار گردد.