هوش مصنوعی و حقوق مسولیت مدنی

اینفوگرافیک: هوش مصنوعی و چالش‌های مسئولیت مدنی در ایران

هوش مصنوعی و چالش‌های مسئولیت مدنی

نگاهی به آینده حقوق ایران

مقدمه: وقتی هوش مصنوعی خسارت می‌زند

دگرگونی صنایع و چالش حقوقی

هوش مصنوعی (AI) با جایگزینی وظایف انسانی، چالش‌های حقوقی جدیدی در حوزه مسئولیت مدنی (جبران خسارت) ایجاد می‌کند. اگر یک سیستم هوش مصنوعی خودکار باعث خسارت شود، چه کسی مسئول است؟ آیا قوانین فعلی ما پاسخگو هستند؟

هوش مصنوعی: ابزار یا شخص؟

هوش مصنوعی «شخص» با اراده قانونی نیست، بلکه بیشتر شبیه «ابزار» است. این تفاوت، استفاده از قواعد سنتی مسئولیت را دشوار کرده و ممکن است به «خلاء مسئولیت» منجر شود. اصل «بی‌طرفی فناورانه» ایجاب می‌کند که قربانیان صرفاً به دلیل نوین بودن فناوری، از حقوق خود محروم نشوند. این مقاله به بررسی این چالش‌ها و چشم‌انداز تطبیق آن با نظام حقوقی ایران می‌پردازد.

تطبیق با حقوق ایران: قواعد جبران خسارت و هوش مصنوعی

مبانی مسئولیت مدنی در ایران

ماده ۱ قانون مسئولیت مدنی (۱۳۳۹) سنگ بنای مسئولیت مدنی در ایران است و بر «فعل زیان‌بار» و «رابطه سببیت» (معمولاً با اثبات تقصیر) استوار است. اما اگر یک سیستم هوش مصنوعی خسارت وارد کند، چگونه این ماده اعمال می‌شود؟ هوش مصنوعی «شخص» نیست تا مرتکب «بی‌احتیاطی» شود.

بررسی مواد قانونی و چالش‌های نوظهور

ماده ۱۲ ق.م.م (مسئولیت کارفرما)

این ماده به مسئولیت کارفرما در قبال کارکنان می‌پردازد. اما آیا AI «کارگر» یا «کارمند» است؟ پاسخ منفی است و استفاده مستقیم از این ماده برای «کارفرمای» AI با چالش جدی روبروست.

اثبات تقصیر و “جعبه سیاه” AI

اثبات تقصیر شخص دخیل (طراح، برنامه‌نویس، کاربر) در عملکرد سیستم‌های پیچیده AI که گاهی مانند «جعبه سیاه» عمل می‌کنند، بسیار دشوار است. استاندارد مراقبت متعارف نیز نیاز به بازتعریف دارد.

مسئولیت تولیدکننده و محصول معیوب

آیا AI «کالای معیوب» است؟ قوانین فعلی ممکن است خسارات ناشی از نرم‌افزارهای هوشمندی که پس از فروش و در اثر یادگیری دچار «عیب» می‌شوند را کامل پوشش ندهند. دفاع «وضعیت دانش در زمان تولید» نیز چالش‌زاست.

ماده ۷ ق.م.م (مسئولیت سرپرستان)

این ماده به مسئولیت سرپرستان قانونی اشخاص فاقد اهلیت اشاره دارد. منطق آن (مسئولیت کنترل‌کننده) می‌تواند مبنای فکری برای مسئولیت در قبال AI باشد. آیا کاربر یا مالک AI «سرپرست» آن است؟

خطر “خلاء مسئولیت”

اگر راه‌حل‌های موجود نتوانند خسارات ناشی از AI را پوشش دهند، «خلاء مسئولیت» به واقعیتی تلخ برای زیان‌دیدگان تبدیل شده و با اهداف عدالت‌محور نظام مسئولیت مدنی در تعارض خواهد بود.

ماده ۱ ق.م.م (تقصیر و سببیت)

چالش اصلی در اعمال این ماده به AI، عدم امکان انتساب «تقصیر» به یک موجود غیرانسانی و دشواری در احراز «رابطه سببیت» مستقیم با عملکرد یک شخص خاص است.

نتیجه‌گیری و راهکارهای پیشنهادی

ناکارآمدی قواعد سنتی و نیاز به راه‌حل

قواعد سنتی مسئولیت، برای اعمال انسانی طراحی شده‌اند و در مواجهه با خسارات ناشی از سیستم‌های خودکار AI کارایی لازم را ندارند. AI «شخص» حقوقی نیست و نمی‌تواند مستقلاً مرتکب تقصیر شود. پیچیدگی فنی و ماهیت «جعبه سیاه» برخی سیستم‌ها، اثبات تقصیر و سببیت را سخت می‌کند و خطر «خلاء مسئولیت» را افزایش می‌دهد که با اصل «بی‌طرفی فناورانه» در تضاد است.

پیشنهاد: مسئولیت قانونی نیابتی خاص

برای پر کردن خلاء، می‌توان نوعی «مسئولیت قانونی نیابتی خاص» برای استفاده‌کنندگان تجاری از هوش مصنوعی ایجاد کرد. عملکرد سیستم AI به «کارفرما» یا مالک آن منتسب شده و او مسئول جبران خسارت شناخته می‌شود، گویی خود او فعل را از طریق عامل انسانی انجام داده است. استاندارد مراقبت نیز باید مشابه انسان متخصص باشد. نظام حقوقی ایران باید با در نظر گرفتن مبانی خود (مواد ۱ و ۱۲ ق.م.م و اصول کلی) به دنبال راه‌حل‌های کارآمد و عادلانه باشد تا هم از حقوق شهروندان صیانت شود و هم مسیر توسعه مسئولانه فناوری هموار گردد.

هوش مصنوعی و چالش‌های مسئولیت مدنی: نگاهی به آینده حقوق ایران

هوش مصنوعی (AI) به سرعت در حال دگرگون کردن صنایع و مشاغل گوناگون است. از خودروهای خودران گرفته تا سیستم‌های تشخیص پزشکی و دستیاران مجازی، هوش مصنوعی جایگزین وظایفی می‌شود که پیش از این توسط انسان‌ها انجام می‌شد. این تحول عظیم، در کنار مزایای بی‌شمار، چالش‌های حقوقی جدیدی را به ویژه در حوزه مسئولیت مدنی مطرح می‌کند. مسئولیت مدنی به زبان ساده یعنی چه کسی باید خسارت وارد شده به دیگری را جبران کند؟ وقتی یک انسان در حین کار به دیگری آسیب می‌زند، قوانین مشخصی برای مسئول دانستن او یا کارفرمایش وجود دارد. اما اگر یک سیستم هوش مصنوعی خودکار باعث خسارت شود، چه کسی مسئول است؟ آیا قوانین فعلی ما برای پاسخ به این پرسش آماده‌اند؟

موضوع اصلی این است که هوش مصنوعی، برخلاف کارمند انسان، یک «شخص» با اراده و حقوق قانونی محسوب نمی‌شود؛ بلکه بیشتر شبیه یک «ابزار» یا «دارایی» است. این تفاوت بنیادین، استفاده از قواعد سنتی مسئولیت، مانند مسئولیت کارفرما در قبال اعمال کارمند، را دشوار می‌سازد. در نتیجه، ممکن است «خلاء مسئولیت» ایجاد شود؛ یعنی وضعیتی که در آن زیان‌دیده نمی‌تواند به راحتی شخص مسئول را پیدا کرده و خسارت خود را مطالبه کند. علاوه بر این، مفهوم «بی‌طرفی فناورانه» مطرح می‌شود. این اصل می‌گوید که قانون نباید صرفاً به دلیل جدید بودن یک فناوری، استفاده از آن را تشویق یا منع کند، به شرطی که سطح ایمنی آن با روش‌های قدیمی یکسان باشد. همچنین، قربانیان نباید صرفاً به این دلیل که خسارت توسط یک فناوری نوین به جای یک انسان وارد شده، از حقوق قانونی خود محروم شوند. این‌ها پرسش‌های اساسی هستند که حقوق‌دانان در مواجهه با پیشرفت روزافزون هوش مصنوعی باید به آن‌ها پاسخ دهند تا عدالت و کارآمدی نظام حقوقی حفظ شود.

این مقاله تلاش دارد تا با الهام از مباحث روز حقوقی در سطح بین‌المللی، این چالش‌ها را بررسی کرده و چشم‌اندازی برای تطبیق آن با نظام حقوقی ایران ارائه دهد. هدف، ارائه تصویری روشن و کاربردی است تا با ابعاد این موضوع نوظهور و اهمیت آن بیشتر آشنا شوید.

تطبیق با حقوق ایران: وقتی هوش مصنوعی خسارت می‌زند

نظام حقوقی ایران، مانند بسیاری از کشورها، قواعد مشخصی برای جبران خسارت دارد. ماده ۱ قانون مسئولیت مدنی مصوب ۱۳۳۹ به عنوان یک اصل کلی بیان می‌کند: «هر کس بدون مجوز قانونی عمداً یا در نتیجه بی‌احتیاطی به جان یا سلامتی یا مال یا آزادی یا حیثیت یا شهرت تجارتی یا به هر حق دیگر که به موجب قانون برای افراد ایجاد گردیده لطمه‌ای وارد نماید که موجب ضرر مادی یا معنوی دیگری شود، مسئول جبران خسارت ناشی از عمل خود می‌باشد.» این ماده، سنگ بنای مسئولیت مدنی در ایران است و بر دو پایه اصلی «فعل زیان‌بار» و «رابطه سببیت» بین فعل و ضرر استوار است که معمولاً نیازمند اثبات تقصیر (عمد یا بی‌احتیاطی) از سوی عامل زیان است.

حال این سوال مطرح می‌شود که اگر یک سیستم هوش مصنوعی، مثلاً یک ربات جراح یا یک نرم‌افزار تحلیلگر مالی خودکار، باعث ورود خسارت شود، چگونه می‌توان این ماده را اعمال کرد؟ هوش مصنوعی به خودی خود «شخص» نیست تا بتواند مرتکب «بی‌احتیاطی» شود. بنابراین، تمرکز به سمت اشخاص دخیل در ساخت، برنامه‌نویسی، مالکیت یا استفاده از آن سیستم معطوف می‌شود. در اینجاست که ماده ۱۲ قانون مسئولیت مدنی ایران، که به مسئولیت کارفرمایان در قبال اعمال کارکنانشان می‌پردازد، می‌تواند مورد توجه قرار گیرد. این ماده مقرر می‌دارد: «کارفرمایانی که مشمول قانون کار هستند مسئول جبران خساراتی می‌باشند که از طرف کارکنان اداری و یا کارگران آنان در حین انجام کار یا به مناسبت آن وارد شده است مگر اینکه محرز شود تمام احتیاط‌هایی که اوضاع و احوال قضیه ایجاب می‌نموده به عمل آورده یا اینکه اگر احتیاط‌های مزبور را به عمل می‌آوردند باز هم جلوگیری از ورود زیان مقدور نمی‌بود…». این نوع مسئولیت، که گاهی «مسئولیت نیابتی» نامیده می‌شود، به زیان‌دیده کمک می‌کند تا از کارفرما که معمولاً توانایی مالی بیشتری دارد، خسارت خود را دریافت کند. اما آیا یک سیستم هوش مصنوعی می‌تواند «کارگر» یا «کارمند اداری» تلقی شود؟ پاسخ منفی است، زیرا این عناوین بر رابطه استخدامی انسانی دلالت دارند. در نتیجه، استفاده مستقیم از ماده ۱۲ برای مسئول دانستن «کارفرمای» یک هوش مصنوعی با چالش جدی روبروست.

مشکل دیگر، اثبات تقصیر در عملکرد هوش مصنوعی است. اگر یک سیستم هوش مصنوعی پیچیده که با استفاده از یادگیری ماشین (Machine Learning) به طور خودکار تصمیم می‌گیرد، دچار خطا شود و خسارتی به بار آورد، اثبات اینکه کدام شخص (طراح، برنامه‌نویس، تولیدکننده، یا کاربر) مرتکب بی‌احتیاطی شده، بسیار دشوار خواهد بود. عملکرد داخلی این سیستم‌ها گاهی مانند یک «جعبه سیاه» است که حتی برای متخصصان نیز به طور کامل قابل فهم نیست. به عنوان مثال، اگر یک خودروی خودران به دلیل نقص فنی غیرمنتظره در سیستم تصمیم‌گیری خود تصادف کند، آیا تقصیر متوجه برنامه‌نویس الگوریتم است، تولیدکننده‌ای که حسگرها را نصب کرده، یا کاربری که به سیستم اعتماد کرده است؟ این عدم شفافیت، اثبات عناصر لازم برای مسئولیت بر اساس تقصیر (موضوع ماده ۱) را پیچیده می‌کند. همچنین، مفاهیمی مانند «استاندارد مراقبت متعارف» که در برخی نظام های حقوقی در احراز بی‌احتیاطی به کار می‌رود، در مورد هوش مصنوعی نیاز به بازتعریف دارد. آیا استاندارد مراقبت یک ربات جراح باید با یک جراح انسان مقایسه شود یا استاندارد بالاتری از آن انتظار می‌رود؟

در زمینه مسئولیت تولیدکننده نیز چالش‌هایی وجود دارد. اگر هوش مصنوعی به عنوان یک «کالا» یا «محصول معیوب» در نظر گرفته شود، آیا می‌توان از قواعد مربوط به عیب تولید استفاده کرد؟ قوانین فعلی حمایت از مصرف‌کننده یا قواعد عمومی مسئولیت مدنی ممکن است پوشش کاملی برای خسارات ناشی از نرم‌افزارهای هوشمند یا سیستم‌هایی که پس از فروش و در اثر یادگیری دچار «عیب» می‌شوند، ارائه ندهند. برای مثال، اگر یک نرم‌افزار مشاوره سرمایه‌گذاری که در ابتدا عملکرد خوبی داشته، پس از مدتی یادگیری از داده‌های جدید، توصیه‌های زیان‌باری ارائه دهد، آیا این یک «عیب» اولیه محصول محسوب می‌شود؟ همچنین، دفاع «وضعیت دانش و فن در زمان تولید» (State-of-the-art defense) که به تولیدکننده اجازه می‌دهد بگوید در زمان ساخت محصول، امکان پیش‌بینی یا رفع آن عیب وجود نداشته، می‌تواند در مورد فناوری‌های نوظهوری مانند هوش مصنوعی به طور مکرر مطرح شود و دسترسی قربانیان به جبران خسارت را محدود کند.

در حقوق ایران، ماده ۷ قانون مسئولیت مدنی به مسئولیت سرپرستان قانونی یا قراردادی اشخاص صغیر یا مجنون اشاره دارد. این ماده بیان می‌کند: «کسی که نگاهداری یا مواظبت مجنون یا صغیر قانوناً یا بر حسب قرارداد به عهده او می‌باشد در صورت تقصیر در نگاهداری یا مواظبت مسئول جبران زیان وارده از ناحیه مجنون و یا صغیر می‌باشد…». هرچند این ماده مستقیماً به هوش مصنوعی قابل تسری نیست، اما منطق زیربنایی آن – یعنی مسئولیت شخصی که کنترل و مراقبت از یک موجود فاقد اهلیت کامل را بر عهده دارد – می‌تواند به عنوان یک مبنای فکری برای توسعه نظریه‌های مسئولیت در قبال هوش مصنوعی مورد توجه قرار گیرد. آیا می‌توان کاربر یا مالک یک سیستم هوش مصنوعی پیشرفته را به نوعی «سرپرست» آن تلقی کرد که در صورت نقص در نظارت یا استفاده صحیح، مسئول خسارات وارده باشد؟ این‌ها سوالاتی است که نیازمند تحلیل و بررسی عمیق‌تر در پرتو اصول حقوقی ایران است. در نهایت، اگر راه‌حل‌های موجود نتوانند به طور کارآمد خسارات ناشی از هوش مصنوعی را پوشش دهند، «خلاء مسئولیت» به یک واقعیت تلخ برای زیان‌دیدگان تبدیل خواهد شد و این امر با اهداف عدالت‌محور نظام مسئولیت مدنی در تعارض است.

نتیجه‌گیری کلی و جمع‌بندی

پیشرفت سریع هوش مصنوعی و جایگزینی آن با نیروی انسانی در بسیاری از فعالیت‌ها، نظام حقوق مسئولیت مدنی را با چالش‌های بی‌سابقه‌ای مواجه کرده است. همانطور که در این مقاله بررسی شد، قواعد سنتی مسئولیت که عمدتاً برای اعمال انسانی طراحی شده‌اند، در مواجهه با خسارات ناشی از سیستم‌های خودکار هوش مصنوعی، کارایی لازم را ندارند. مشکل اصلی این است که هوش مصنوعی، به عنوان یک «برنامه‌ی رایانه‌ای» و نه یک «شخص» حقوقی، نمی‌تواند مستقلاً مرتکب تقصیر یا جرم شود. این امر، اعمال مستقیم قواعدی مانند مسئولیت کارفرما در قبال کارمند (موضوع ماده ۱۲ قانون مسئولیت مدنی ایران) را برای جبران خسارت ناشی از عملکرد یک سیستم هوش مصنوعی، دشوار یا غیرممکن می‌سازد.

علاوه بر این، پیچیدگی فنی و ماهیت «جعبه سیاه» برخی از سیستم‌های هوش مصنوعی، اثبات تقصیر اشخاص دخیل (مانند طراحان، برنامه‌نویسان یا کاربران) و همچنین احراز رابطه سببیت بین فعل آنها و ضرر وارده را بسیار سخت می‌کند. این موانع می‌توانند منجر به یک «خلاء مسئولیت» شوند، جایی که زیان‌دیده نمی‌تواند به سادگی عامل جبران خسارت را شناسایی و مسئول بداند. چنین وضعیتی نه تنها با اصل «بی‌طرفی فناورانه» که بر لزوم عدم تضییع حقوق قربانیان صرفاً به دلیل استفاده از فناوری نوین تأکید دارد، در تضاد است، بلکه می‌تواند اعتماد عمومی به این فناوری‌ها را نیز کاهش دهد.

به نظر می‌رسد برای پر کردن خلاء انتساب مسولیت مدنی، نوعی «مسئولیت قانونی نیابتی خاص» برای استفاده‌کنندگان تجاری از هوش مصنوعی ایجاد شود. بر اساس این الگو، عملکرد سیستم هوش مصنوعی به «کارفرما» یا مالک آن منتسب شده و او مسئول جبران خسارت شناخته می‌شود، گویی خود او آن فعل را از طریق یک عامل انسانی انجام داده است. استاندارد مراقبت نیز باید مشابه استاندارد یک انسان متخصص در همان حوزه باشد. این رویکرد می‌تواند بدون نیاز به اثبات تقصیر پیچیده در مورد خود سیستم یا طراحان آن، راهی برای جبران خسارت زیان‌دیدگان فراهم کند و در عین حال، استفاده‌کنندگان از هوش مصنوعی را به انتخاب و نظارت دقیق‌تر بر این سیستم‌ها ترغیب نماید. برای نظام حقوقی ایران نیز ضروری است که با در نظر گرفتن مبانی فقهی و قانونی خود، به ویژه مواد ۱ و ۱۲ قانون مسئولیت مدنی و اصول کلی جبران خسارت، به دنبال راه‌حل‌های کارآمد و عادلانه برای مواجهه با این پدیده نوظهور باشد تا هم از حقوق شهروندان صیانت شود و هم مسیر توسعه مسئولانه فناوری‌های نوین هموار گردد.

Avatar
احسان چهره وب‌سایت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *