حبیبه فرج زاده -دانشجوی دکترای حقوق بین الملل عمومی علامه طباطبائی
۱۴۰۳/۰۴/۱۹
هوش مصنوعی(AI)، یکی از برجسته ترین فناوری های نوظهور عصر حاضر، دارای پتانسیل قابل توجهی برای تغییر و تحول ابعاد مختلف زندگی بشری است. این فناوری نوین، در حالی که فرصت های جدیدی را در زمینه های مختلف مانند مراقبت های بهداشتی، حمل و نقل، آموزش و... ارائه می دهد، چالش های جدیدی را نیز در قبال حقوق بشر ایجاد می کند. اتحادیه اروپا، در راستای پیشگامی در تنظیم هوش مصنوعی، در سال ۲۰۲۱ نخستین پیش نویس قانون هوش مصنوعی را تدوین کرد. هدف از تدوین این قانون، ایجاد چارچوبی برای توسعه و استفاده مسئولانه از هوش مصنوعی در حوزه اتحادیه اروپا بوده است. پس از حدود دو سال مذاکره، در تاریخ ۸ دسامبر ۲۰۲۳ مذاکره کنندگان در پارلمان اروپا و شورای اروپا به توافق موقت در مورد قانون هوش مصنوعی دست یافتند و در نهایت در ۲ فوریه ۲۰۲۴، کمیته نمایندگان دائم به تأیید توافق سیاسی حاصل شده در دسامبر ۲۰۲۳ رأی داد(اینجا). مقررات قانون هوش مصنوعی به منظور حفاظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری زیست محیطی در برابر هوش مصنوعی پرخطر تدوین شده است. در عین حال، قانون مزبور به دنبال تقویت نوآوری و تبدیل اروپا به رهبر و پیشگام در زمینه هوش مصنوعی است(اینجا). با وجود این، منتقدان زیادی معتقدند که قانون هوش مصنوعی اتحادیه اروپا در حمایت از حقوق بشر ناکام مانده و اصول اولیه حقوق بشر را در نظر نگرفته است(اینجا).
در وهله اول، این قانون، هوش مصنوعی را سامانه هایی مبتنی بر ماشین تعریف می کند که برای عملکرد با سطوح مختلفی از استقلال طراحی شده اند (به طور کامل مستقل یا تا میزانی با دخالت انسانی)؛ پس از استقرار با گذشت زمان و با دریافت داده ها و اطلاعات جدید، توسعه و بهبود می یابند؛ قادرند از ورودی هایی که دریافت می کنند استنباط و استنتاج داشته باشند و برای استخراج نتایج مختلف مانند پیش بینی های آینده، تولید محتوا، ارائه توصیه ها یا اتخاذ تصمیمات استفاده شوند(اینجا). قانون هوش مصنوعی رویکردی مبتنی بر ریسک را برای محصولات و خدمات هوش مصنوعی اتخاذ میکند و تنها سامانه هایی را با سطوحی از خطرهای خاص، زیر چتر نظارتی خود قرار میدهد. سامانه های زیادی از جمله سامانه های توصیه محتوا و فیلترهای هرزنامه، اکثریت کم خطر را تشکیل می دهند. در مقابل، استفاده های پرخطر مانند دستگاه های پزشکی و زیرساخت¬های حیاتی با الزامات سختگیرانه تری مواجه شده اند. علاوه بر این، برخی از کاربردهای هوش مصنوعی مانند سیستم های امتیازدهی اجتماعی، پلیس پیشگیری و سیستم های تشخیص احساسات به دلیل مخاطرات غیرموجه، به طور کامل ممنوع شده اند(اینجا).
بدین ترتیب، قانون جدید هوش مصنوعی اتحادیه اروپا الزامات متفاوتی را برای سیستمهای کم خطر و پرخطر در نظر گرفته است. سیستمهای کم خطر با الزامات کمتری نسبت به سیستمهای پرخطر مواجه هستند. به عنوان مثال، سامانه های کم خطر نیازی به ارزیابی دقیق توسط نهادهای ناظر ندارند. ظاهراً، دلیل کم خطر شناخته شدن برخی سامانه ها دسترسی نداشتن آنها به داده های شخصی حساس، مانند اطلاعات پزشکی یا مالی، نداشتن تأثیر چندان سوء و مستقیم بر زندگی افراد و قابلیت پایین آنها در سوءاستفاده برای نقض حقوق بشر است. در مقابل، سامانه های پرخطر (مانند سیستمهای تشخیص چهره، سیستمهای امتیازدهی اجتماعی، سیستمهای تشخیص احساسات، سیستمهای هوش مصنوعی در حوزه های استخدام و مراقبت بهداشتی که آن دسته از سیستمهایی هستند که می توانند خطرات قابل توجهی برای حقوق بشر و ایمنی افراد ایجاد کنند؛ مشمول الزاماتی همچون ارزیابی دقیق ریسک، مدیریت قوی داده، نظارت مستمر، شفافیت و پاسخگویی واقع شده اند(اینجا و اینجا). بنابراین، تعهدات روشنی برای سامانه های هوش مصنوعی که به دلیل امکان ورود آسیبهای چشمگیر به سلامت، ایمنی، حقوق اساسی، محیطزیست، دموکراسی و حاکمیت قانون، پرخطر تلقی میشوند، تعیین شده است. پیش از اینکه یک سیستم هوش مصنوعی پرخطر به کار گرفته شود، باید مورد ارزیابی قرار گیرد تا مشخص شود که آیا این سیستم به حقوق اساسی افراد، مانند حق حریم خصوصی، آزادی بیان یا برابری، آسیب میرساند یا خیر. همچنین، سامانه های هوش مصنوعی که برای تأثیرگذاری بر نتیجه انتخابات و رفتار رأیدهندگان طراحی میشوند، در زمره سیستمهای پرخطر قرار گرفته اند. شهروندان حق خواهند داشت که در مورد سامانه های هوش مصنوعی شکایت کنند و درباره تصمیمات مبتنی بر سامانه های هوش مصنوعی پرخطر که بر حقوق آنها تأثیر می گذارد توضیحات لازم را دریافت کنند(اینجا).
همچنین، قانونگذاران اتحادیه اروپا در خصوص تهدیدات بالقوه هوش مصنوعی برای حقوق بشر، کاربردهای خاصی از هوش مصنوعی را ممنوع کرده اند. برای مثال استفاده از سیستم¬های طبقهبندی بیومتریک که از ویژگی¬های حساس مانند عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد برای شناسایی یا دسته بندی افراد استفاده می کنند به دلیل نقض حریم خصوصی و تبعیض بالقوه علیه افراد بر اساس ویژگی های ذاتی آنها ممنوع است. همچنین، جمع آوری و ذخیره سازی تصاویر صورت افراد از اینترنت یا فیلم های دوربین مدار بسته بدون هدف مشخص، مانند ایجاد پایگاههای اطلاعاتی تشخیص چهره، به دلیل نقض حریم خصوصی و سوءاستفاده احتمالی از اطلاعات جمع آوری شده، ممنوع شناخته شده است. استفاده از سیستمهای تشخیص احساسات در محیطهای کاری و مؤسسات آموزشی به دلیل نگرانی هایی که در خصوص نقض حریم خصوصی، سوءاستفاده از اطلاعات و تبعیض علیه افراد بر اساس حالات عاطفی آنها به دنبال دارد، کاربرد دیگری است که مشمول ممنوعیت این قانون واقع شده است.
گام مثبت دیگر در این قانون، ممنوعیت به کارگیری سامانههای رتبه بندی یا دسته بندی افراد بر پایه رفتار اجتماعی یا ویژگیهای شخصی ایشان است که به دلیل نقض حریم خصوصی، ایجاد تبعیض و سوق دادن جامعه به سمت نظارت همگانی، مخاطره آمیز تلقی شده اند. ممنوعیت به کارگیری سامانه های هوش مصنوعی که با هدف دور زدن اراده آزاد و دستکاری رفتار انسان طراحی شده اند، به دلیل نقض استقلال و آزادی انسان از موارد مهم دیگری است که باید بدان اشاره نمود. قانونگذاران همچنین استفاده از هوش مصنوعی برای سوءاستفاده از آسیب پذیریهای افراد، اعم از سن، معلولیت، موقعیت اجتماعی یا اقتصادی را به دلیل نقض حقوق افراد و تشدید نابرابریهای اجتماعی، ممنوع اعلام کرده اند(اینجا).
تمامی موارد پیش گفته، در راستای حفظ حقوق شهروندی و دموکراسی در عصر هوش مصنوعی ضروری تلقی می شوند. به بیان دیگر، ممنوعیت های هوش مصنوعی گامی مهم در جهت تضمین استفاده مسئولانه و اخلاقی از این فناوری نوظهور است. شایان ذکر است که بر برخی از این ممنوعیت ها استثنائات و معافیت هایی نیز وارد شده است، از جمله استفاده از سیستم های شناسایی بیومتریک (RBI) به منظور جستجوی هدفمند قربانیان (ربایش، قاچاق، بهره کشی جنسی)، جلوگیری از یک تهدید تروریستی خاص، یا شناسایی فردی مظنون به ارتکاب یکی از جرایم خاص ذکر شده در مقررات (مانند تروریسم، قاچاق، بهره کشی جنسی، قتل، آدم ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی، جنایت زیست محیطی)(اینجا).
علی رغم همه این موارد، نهادهای حقوق بشری از جمله عفو بینالملل، قانون جدید هوش مصنوعی اتحادیه اروپا را به دلیل اولویتدادن به منافع صنعت و نهادهای مجری قانون به جای حقوق بشر، به شدت مورد انتقاد قرار داده اند. در حقیقت، این قانون به دلیل امتیازات ناشی از لابی گری در صنعت، معافیت های استفاده های خطرناک هوش مصنوعی توسط مقامات و نهادهای مجری قانون و مهاجرتی و خلأهایی که برخی از خطرناک ترین فناوری های هوش مصنوعی ممنوع نشده است، مورد انتقاد قرار گرفته است(اینجا). به بیان واضح تر، منتقدان معتقدند که این قانون به نفع شرکتهای بزرگ فناوری است و به آنها اجازه می دهد تا در توسعه و استفاده از هوش مصنوعی نقش پررنگی داشته باشند. این امر می تواند منجر به تسلط این شرکتها بر بازار هوش مصنوعی و نادیده گرفته شدن حقوق و نیازهای مردم شود. اتحادیه اروپا، در این قانون، استفاده از هوش مصنوعی برای اهداف امنیتی و مهاجرتی را از برخی الزامات قانونی معاف می کند. این امر میتواند منجر به سوء استفاده از هوش مصنوعی از سوی مقامات دولتی و نقض حقوق بشر شود. این قانون همچنین، برخی از خطرناک ترین فناوریهای هوش مصنوعی مانند سیستمهای امتیازدهی اجتماعی و تشخیص احساسات را ممنوع نمی کند. منتقدان برآن اند که این کاستی می تواند منجر به استفاده از این فناوریها برای اهداف نادرست و نقض حقوق بشر شود.
در اوایل سال ۲۰۲۳، پارلمان اروپا طی اقدامی قابل توجه، ممنوعیت استفاده از تشخیص احساسات را در چهار زمینه تصویب کرد: آموزش، محل کار، اجرای قانون و مهاجرت. این مصوبه، گامی مهم در جهت حفاظت از حقوق بشر و حریم خصوصی افراد در برابر سوءاستفاده از این فناوری نوظهور به حساب می آمد. اما متأسفانه، تحت فشار برخی از کشورهای عضو اتحادیه اروپا، ممنوعیت استفاده از تشخیص احساسات در زمینه های اجرای قانون و مهاجرت از متن نهایی قانون هوش مصنوعی اتحادیه اروپا حذف شد. این امر، نشان دهنده رویکرد دوگانه و تبعیض آمیز این قانون در قبال حقوق اساسی افراد است. به طوری که افراد مهاجر و کسانی که در حاشیه جامعه قرار دارند، از حفاظت های قانونی کمتری برخوردار می شوند(اینجا). حذف ممنوعیت استفاده از تشخیص احساسات در زمینه های اجرای قانون و مهاجرت، نگرانی های جدی را در مورد تبعات منفی این فناوری بر حقوق و آزادی های افراد ایجاد کرده است. استفاده از این فناوری در این زمینهها، می تواند به نقض حریم خصوصی، تبعیض و سوءاستفاده از افراد منجر شود؛ چراکه هنوز ابهامات زیادی در مورد نحوه قاعده مندسازی استفاده مقامات مجری قانون و نهادهای مهاجرتی از سامانه های هوش مصنوعی به کمک قانون هوش مصنوعی اتحادیه اروپا وجود دارد.
علاوه بر این، در حالی که ممنوعیت تشخیص احساسات در قانون هوش مصنوعی اتحادیه اروپا گامی مثبت است، این قانون ظاهراً استثناهایی را برای اهداف پزشکی یا ایمنی مجاز می داند. این خلأ می تواند بسیار خطرناک باشد، زیرا شرکت ها در حال حاضر سامانه های به اصطلاح «تشخیص پرخاشگری» را می فروشند که تصاویر مردان سیاه پوست را تهاجمی تر از مردان سفیدپوست می شناسند. استقرار چنین سیستمهایی در مدارس یا محل های کار می تواند به نظارت نژادپرستانه از دانش آموزان یا کارگران سیاه پوست منجر شود(اینجا).
سیستم طبقه بندی پرخطر در قانون هوش مصنوعی اتحادیه اروپا، که مورد انتقاد Access Now (یک سازمان غیرانتفاعی که بر دفاع و گسترش حقوق دیجیتال کاربران در سراسر جهان تمرکز دارد) و دیگر سازمانها بود، با اضافه شدن یک «فیلتر» به آن، بسیار ضعیف تر شد. پیشنهاد اولیه کمیسیون اروپا در این مورد منطقی بود که همه موارد استفاده در فهرست برنامه های پرخطر، باید از تعهدات خاصی برای تضمین حقوق افراد پیروی می کردند. اما تحت فشار بخش صنعت و برخی دولتها، این سیستم طبقه بندی با افزودن فیلتری که معیارهای آن مبهم و موسع است، تغییر کرد. درواقع، با اضافه شدن این فیلتر، طراحان و توسعه دهندگان می توانند با اثبات اینکه سیستم هوش مصنوعی آنها در یکی از دسته بندی های خاص این فیلتر قرار می گیرد، از برخی یا تمام تعهدات خود شانه خالی کنند. در نتیجه، قانون هوش مصنوعی به طور واضح منافع صنعت را بر حقوق اساسی افراد در اولویت قرار می دهد(اینجا). این نقص در قانون هوش مصنوعی نگرانکننده است و می تواند به نقض حقوق افراد در هنگام استفاده از سیستمهای هوش مصنوعی پرخطر منجر شود.
یکی از موارد بسیار مهمی که در مورد نگرانی ها نسبت به قانون هوش مصنوعی اتحادیه اروپا باید به آن اشاره کرد، معافیت امنیت ملی است که به کشورهای عضو اجازه میدهد تا در موارد خاص، از مقررات مربوط به هوش مصنوعی مستثنی شوند. هدف از این معافیت حفظ توانایی کشورهای عضو در محافظت از امنیت ملی خود در برابر تهدیدات خارجی شناخته شده است و شامل استفاده از سیستمهای هوش مصنوعی برای اهداف نظامی، دفاعی و امنیت ملی از جمله استفاده از سامانه های هوش مصنوعی برای جمعآوری اطلاعات و عملیات سرّی می شود(اینجا). البته اعمال این معافیت منوط به رعایت شرایطی است از جمله، کشورهای عضو باید دلایل موجهی برای استفاده از معافیت امنیت ملی ارائه دهند. استفاده از سیستمهای هوش مصنوعی باید ضروری و متناسب با تهدید امنیتی باشد و با حقوق و آزادیهای اساسی افراد تناسب داشته باشد و جبران های موثر و لازم در نظر گرفته شود(اینجا و اینجا). اما به هر حال، برخی از منتقدان این معافیت را بسیار گسترده می دانند و معتقدند که می تواند به سوءاستفاده از قدرت توسط دولتها منجر شود و نگرانیهایی در مورد عدم شفافیت در مورد نحوه استفاده از این معافیت وجود دارد(اینجا و اینجا).
در مجموع می توان گفت که قانون هوش مصنوعی اتحادیه اروپا گامی مثبت در جهت قاعده مند ساختن استفاده از هوش مصنوعی و استفاده مسئولانه از این فناوری نوین است. با این حال، برای اطمینان از اینکه این قانون به طور کامل از حقوق بشر محافظت میکند، باید اصلاحاتی در آن انجام شود. با اقداماتی همچون، محدود کردن دامنه معافیت امنیت ملی، افزایش تعهدات شفاف ساز برای مقامات مجری قانون و نهادهای مهاجرتی و شفاف تر کردن لیست سامانه های پرخطر(اینجا)، قانون هوش مصنوعی اتحادیه اروپا می تواند به ابزاری قدرتمند برای محافظت از حقوق بشر در عصر هوش مصنوعی تبدیل شود.