حبیبه فرج زاده -دانشجوی دکترای حقوق بین الملل عمومی علامه طباطبائی

۱۴۰۳/۰۴/۱۹


 هوش مصنوعی(AI)، یکی از برجسته ترین فناوری های نوظهور عصر حاضر، دارای پتانسیل قابل توجهی برای تغییر و تحول ابعاد مختلف زندگی بشری است. این فناوری نوین، در حالی که فرصت های جدیدی را در زمینه های مختلف مانند مراقبت های بهداشتی، حمل و نقل، آموزش و... ارائه می دهد، چالش های جدیدی را نیز در قبال حقوق بشر ایجاد می کند. اتحادیه اروپا، در راستای پیشگامی در تنظیم هوش مصنوعی، در سال ۲۰۲۱ نخستین پیش نویس قانون هوش مصنوعی را تدوین کرد. هدف از تدوین این قانون، ایجاد چارچوبی برای توسعه و استفاده مسئولانه از هوش مصنوعی در حوزه اتحادیه اروپا بوده است. پس از حدود دو سال مذاکره، در تاریخ ۸ دسامبر ۲۰۲۳ مذاکره کنندگان در پارلمان اروپا و شورای اروپا به توافق موقت در مورد قانون هوش مصنوعی دست یافتند و در نهایت در ۲ فوریه ۲۰۲۴، کمیته نمایندگان دائم به تأیید توافق سیاسی حاصل شده در دسامبر ۲۰۲۳ رأی داد(اینجا). مقررات قانون هوش مصنوعی به منظور حفاظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری زیست محیطی در برابر هوش مصنوعی پرخطر تدوین شده است. در عین حال، قانون مزبور به دنبال تقویت نوآوری و تبدیل اروپا به رهبر و پیشگام در زمینه هوش مصنوعی است(اینجا). با وجود این، منتقدان زیادی معتقدند که قانون هوش مصنوعی اتحادیه اروپا در حمایت از حقوق بشر ناکام مانده و اصول اولیه حقوق بشر را در نظر نگرفته است(اینجا). 
در وهله اول، این قانون، هوش مصنوعی را سامانه هایی مبتنی بر ماشین تعریف می کند که برای عملکرد با سطوح مختلفی از استقلال طراحی شده اند (به طور کامل مستقل یا تا میزانی با دخالت انسانی)؛ پس از استقرار با گذشت زمان و با دریافت داده ها و اطلاعات جدید، توسعه و بهبود می یابند؛ قادرند از ورودی هایی که دریافت می کنند استنباط و استنتاج داشته باشند و برای استخراج نتایج مختلف مانند پیش بینی های آینده، تولید محتوا، ارائه توصیه ها یا اتخاذ تصمیمات استفاده شوند(اینجا). قانون هوش مصنوعی رویکردی مبتنی بر ریسک را برای محصولات و خدمات هوش مصنوعی اتخاذ می‌کند و تنها سامانه هایی را با سطوحی از خطرهای خاص، زیر چتر نظارتی خود قرار می‌دهد. سامانه های زیادی از جمله سامانه های توصیه محتوا و فیلترهای هرزنامه، اکثریت کم خطر را تشکیل می دهند. در مقابل، استفاده های پرخطر مانند دستگاه های پزشکی و زیرساخت¬های حیاتی با الزامات سختگیرانه تری مواجه شده اند. علاوه بر این، برخی از کاربردهای هوش مصنوعی مانند سیستم های امتیازدهی اجتماعی، پلیس پیشگیری و سیستم های تشخیص احساسات به دلیل مخاطرات غیرموجه، به طور کامل ممنوع شده اند(اینجا). 
بدین ترتیب، قانون جدید هوش مصنوعی اتحادیه اروپا الزامات متفاوتی را برای سیستم‌های کم خطر و پرخطر در نظر گرفته است. سیستم‌های کم خطر با الزامات کمتری نسبت به سیستم‌های پرخطر مواجه هستند. به عنوان مثال، سامانه های کم ‌خطر نیازی به ارزیابی دقیق توسط نهادهای ناظر ندارند. ظاهراً، دلیل کم خطر شناخته شدن برخی سامانه ها دسترسی نداشتن آنها به داده های شخصی حساس، مانند اطلاعات پزشکی یا مالی، نداشتن تأثیر چندان سوء و مستقیم بر زندگی افراد و قابلیت پایین آنها در سوءاستفاده برای نقض حقوق بشر است. در مقابل، سامانه های پرخطر (مانند سیستم‌های تشخیص چهره، سیستم‌های امتیازدهی اجتماعی، سیستم‌های تشخیص احساسات، سیستم‌های هوش مصنوعی در حوزه های استخدام و مراقبت بهداشتی که آن دسته از سیستم‌هایی هستند که می توانند خطرات قابل توجهی برای حقوق بشر و ایمنی افراد ایجاد کنند؛ مشمول الزاماتی همچون ارزیابی دقیق ریسک، مدیریت قوی داده، نظارت مستمر، شفافیت و پاسخگویی واقع شده اند(اینجا و اینجا). بنابراین، تعهدات روشنی برای سامانه های هوش مصنوعی که به دلیل امکان ورود آسیب‌های چشمگیر به سلامت، ایمنی، حقوق اساسی، محیط‌زیست، دموکراسی و حاکمیت قانون، پرخطر تلقی می‌شوند، تعیین شده است. پیش از اینکه یک سیستم هوش مصنوعی پرخطر به کار گرفته شود، باید مورد ارزیابی قرار گیرد تا مشخص شود که آیا این سیستم به حقوق اساسی افراد، مانند حق حریم خصوصی، آزادی بیان یا برابری، آسیب می‌رساند یا خیر. همچنین، سامانه های هوش مصنوعی که برای تأثیرگذاری بر نتیجه انتخابات و رفتار رأی‌دهندگان طراحی می‌شوند، در زمره سیستم‌های پرخطر قرار گرفته اند. شهروندان حق خواهند داشت که در مورد سامانه های هوش مصنوعی شکایت کنند و درباره تصمیمات مبتنی بر سامانه های هوش مصنوعی پرخطر که بر حقوق آنها تأثیر می گذارد توضیحات لازم را دریافت کنند(اینجا). 
همچنین، قانونگذاران اتحادیه اروپا در خصوص تهدیدات بالقوه هوش مصنوعی برای حقوق بشر، کاربردهای خاصی از هوش مصنوعی را ممنوع کرده اند. برای مثال استفاده از سیستم¬های طبقه‌بندی بیومتریک که از ویژگی¬های حساس مانند عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد برای شناسایی یا دسته بندی افراد استفاده می کنند به دلیل نقض حریم خصوصی و تبعیض بالقوه علیه افراد بر اساس ویژگی های ذاتی آنها ممنوع است. همچنین، جمع آوری و ذخیره سازی تصاویر صورت افراد از اینترنت یا فیلم های دوربین مدار بسته بدون هدف مشخص، مانند ایجاد پایگاه‌های اطلاعاتی تشخیص چهره، به دلیل نقض حریم خصوصی و سوءاستفاده احتمالی از اطلاعات جمع آوری شده، ممنوع شناخته شده است. استفاده از سیستم‌های تشخیص احساسات در محیط‌های کاری و مؤسسات آموزشی به دلیل نگرانی هایی که در خصوص نقض حریم خصوصی، سوءاستفاده از اطلاعات و تبعیض علیه افراد بر اساس حالات عاطفی آن‌ها به دنبال دارد، کاربرد دیگری است که مشمول ممنوعیت این قانون واقع شده است. 
گام مثبت دیگر در این قانون، ممنوعیت به کارگیری سامانه‌های رتبه بندی یا دسته بندی افراد بر پایه رفتار اجتماعی یا ویژگی‌های شخصی ایشان است که به دلیل نقض حریم خصوصی، ایجاد تبعیض و سوق دادن جامعه به سمت نظارت همگانی، مخاطره آمیز تلقی شده اند. ممنوعیت به کارگیری سامانه های هوش مصنوعی که با هدف دور زدن اراده آزاد و دستکاری رفتار انسان طراحی شده اند، به دلیل نقض استقلال و آزادی انسان از موارد مهم دیگری است که باید بدان اشاره نمود. قانونگذاران همچنین استفاده از هوش مصنوعی برای سوءاستفاده از آسیب پذیری‌های افراد، اعم از سن، معلولیت، موقعیت اجتماعی یا اقتصادی را به دلیل نقض حقوق افراد و تشدید نابرابری‌های اجتماعی، ممنوع اعلام کرده اند(اینجا). 
تمامی موارد پیش گفته، در راستای حفظ حقوق شهروندی و دموکراسی در عصر هوش مصنوعی ضروری تلقی می شوند. به بیان دیگر، ممنوعیت های هوش مصنوعی گامی مهم در جهت تضمین استفاده مسئولانه و اخلاقی از این فناوری نوظهور است. شایان ذکر است که بر برخی از این ممنوعیت ها استثنائات و معافیت هایی نیز وارد شده است، از جمله استفاده از سیستم های شناسایی بیومتریک (RBI) به منظور جستجوی هدفمند قربانیان (ربایش، قاچاق، بهره کشی جنسی)، جلوگیری از یک تهدید تروریستی خاص، یا شناسایی فردی مظنون به ارتکاب یکی از جرایم خاص ذکر شده در مقررات (مانند تروریسم، قاچاق، بهره کشی جنسی، قتل، آدم ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی، جنایت زیست محیطی)(اینجا).
علی رغم همه این موارد، نهادهای حقوق بشری از جمله عفو بین‌الملل، قانون جدید هوش مصنوعی اتحادیه اروپا را به دلیل اولویت‌دادن به منافع صنعت و نهادهای مجری قانون به جای حقوق بشر، به شدت مورد انتقاد قرار داده اند. در حقیقت، این قانون به دلیل امتیازات ناشی از لابی گری در صنعت، معافیت های استفاده های خطرناک هوش مصنوعی توسط مقامات و نهادهای مجری قانون و مهاجرتی و خلأهایی که برخی از خطرناک ترین فناوری های هوش مصنوعی ممنوع نشده است، مورد انتقاد قرار گرفته است(اینجا). به بیان واضح تر، منتقدان معتقدند که این قانون به نفع شرکت‌های بزرگ فناوری است و به آنها اجازه می دهد تا در توسعه و استفاده از هوش مصنوعی نقش پررنگی داشته باشند. این امر می تواند منجر به تسلط این شرکت‌ها بر بازار هوش مصنوعی و نادیده گرفته شدن حقوق و نیازهای مردم شود. اتحادیه اروپا، در این قانون، استفاده از هوش مصنوعی برای اهداف امنیتی و مهاجرتی را از برخی الزامات قانونی معاف می کند. این امر می‌تواند منجر به سوء استفاده از هوش مصنوعی از سوی مقامات دولتی و نقض حقوق بشر شود. این قانون همچنین، برخی از خطرناک ترین فناوری‌های هوش مصنوعی مانند سیستم‌های امتیازدهی اجتماعی و تشخیص احساسات را ممنوع نمی کند. منتقدان برآن اند که این کاستی می تواند منجر به استفاده از این فناوری‌ها برای اهداف نادرست و نقض حقوق بشر شود.
در اوایل سال ۲۰۲۳، پارلمان اروپا طی اقدامی قابل توجه، ممنوعیت استفاده از تشخیص احساسات را در چهار زمینه تصویب کرد: آموزش، محل کار، اجرای قانون و مهاجرت. این مصوبه، گامی مهم در جهت حفاظت از حقوق بشر و حریم خصوصی افراد در برابر سوءاستفاده از این فناوری نوظهور به حساب می آمد. اما متأسفانه، تحت فشار برخی از کشورهای عضو اتحادیه اروپا، ممنوعیت استفاده از تشخیص احساسات در زمینه های اجرای قانون و مهاجرت از متن نهایی قانون هوش مصنوعی اتحادیه اروپا حذف شد. این امر، نشان دهنده رویکرد دوگانه و تبعیض آمیز این قانون در قبال حقوق اساسی افراد است. به طوری که افراد مهاجر و کسانی که در حاشیه جامعه قرار دارند، از حفاظت های قانونی کمتری برخوردار می شوند(اینجا). حذف ممنوعیت استفاده از تشخیص احساسات در زمینه های اجرای قانون و مهاجرت، نگرانی های جدی را در مورد تبعات منفی این فناوری بر حقوق و آزادی های افراد ایجاد کرده است. استفاده از این فناوری در این زمینه‌ها، می تواند به نقض حریم خصوصی، تبعیض و سوءاستفاده از افراد منجر شود؛ چراکه هنوز ابهامات زیادی در مورد نحوه قاعده مندسازی استفاده مقامات مجری قانون و نهادهای مهاجرتی از سامانه های هوش مصنوعی به کمک قانون هوش مصنوعی اتحادیه اروپا وجود دارد.
علاوه بر این، در حالی که ممنوعیت تشخیص احساسات در قانون هوش مصنوعی اتحادیه اروپا گامی مثبت است، این قانون ظاهراً استثناهایی را برای اهداف پزشکی یا ایمنی مجاز می داند. این خلأ می تواند بسیار خطرناک باشد، زیرا شرکت ها در حال حاضر سامانه های به اصطلاح «تشخیص پرخاشگری» را می فروشند که تصاویر مردان سیاه پوست را تهاجمی تر از مردان سفیدپوست می شناسند. استقرار چنین سیستم‌هایی در مدارس یا محل های کار می تواند به نظارت نژادپرستانه از دانش آموزان یا کارگران سیاه پوست منجر شود(اینجا).
سیستم طبقه بندی پرخطر در قانون هوش مصنوعی اتحادیه اروپا، که مورد انتقاد Access Now (یک سازمان غیرانتفاعی که بر دفاع و گسترش حقوق دیجیتال کاربران در سراسر جهان تمرکز دارد) و دیگر سازمان‌ها بود، با اضافه شدن یک «فیلتر» به آن، بسیار ضعیف تر شد. پیشنهاد اولیه کمیسیون اروپا در این مورد منطقی بود که همه موارد استفاده در فهرست برنامه های پرخطر، باید از تعهدات خاصی برای تضمین حقوق افراد پیروی می کردند. اما تحت فشار بخش صنعت و برخی دولت‌ها، این سیستم طبقه بندی با افزودن فیلتری که معیارهای آن مبهم و موسع است، تغییر کرد. درواقع، با اضافه شدن این فیلتر، طراحان و توسعه دهندگان می توانند با اثبات اینکه سیستم هوش مصنوعی آنها در یکی از دسته بندی های خاص این فیلتر قرار می‌ گیرد، از برخی یا تمام تعهدات خود شانه خالی کنند. در نتیجه، قانون هوش مصنوعی به طور واضح منافع صنعت را بر حقوق اساسی افراد در اولویت قرار می دهد(اینجا). این نقص در قانون هوش مصنوعی نگران‌کننده است و می تواند به نقض حقوق افراد در هنگام استفاده از سیستم‌های هوش مصنوعی پرخطر منجر شود.
یکی از موارد بسیار مهمی که در مورد نگرانی ها نسبت به قانون هوش مصنوعی اتحادیه اروپا باید به آن اشاره کرد، معافیت امنیت ملی است که به کشورهای عضو اجازه می‌دهد تا در موارد خاص، از مقررات مربوط به هوش مصنوعی مستثنی شوند. هدف از این معافیت حفظ توانایی کشورهای عضو در محافظت از امنیت ملی خود در برابر تهدیدات خارجی شناخته شده است و شامل استفاده از سیستم‌های هوش مصنوعی برای اهداف نظامی، دفاعی و امنیت ملی از جمله استفاده از سامانه های هوش مصنوعی برای جمع‌آوری اطلاعات و عملیات سرّی می شود(اینجا). البته اعمال این معافیت منوط به رعایت شرایطی است از جمله، کشورهای عضو باید دلایل موجهی برای استفاده از معافیت امنیت ملی ارائه دهند. استفاده از سیستم‌های هوش مصنوعی باید ضروری و متناسب با تهدید امنیتی باشد و با حقوق و آزادی‌های اساسی افراد تناسب داشته باشد و جبران های موثر و لازم در نظر گرفته شود(اینجا و اینجا). اما به هر حال، برخی از منتقدان این معافیت را بسیار گسترده می دانند و معتقدند که می تواند به سوءاستفاده از قدرت توسط دولت‌ها منجر شود و نگرانی‌هایی در مورد عدم شفافیت در مورد نحوه استفاده از این معافیت وجود دارد(اینجا و اینجا).
در مجموع می توان گفت که قانون هوش مصنوعی اتحادیه اروپا گامی مثبت در جهت قاعده مند ساختن استفاده از هوش مصنوعی و استفاده مسئولانه از این فناوری نوین است. با این حال، برای اطمینان از اینکه این قانون به طور کامل از حقوق بشر محافظت می‌کند، باید اصلاحاتی در آن انجام شود. با اقداماتی همچون، محدود کردن دامنه معافیت امنیت ملی، افزایش تعهدات شفاف ساز برای مقامات مجری قانون و نهادهای مهاجرتی و شفاف‌ تر کردن لیست سامانه های پرخطر(اینجا)، قانون هوش مصنوعی اتحادیه اروپا می تواند به ابزاری قدرتمند برای محافظت از حقوق بشر در عصر هوش مصنوعی تبدیل شود.

 

آخرین مطالب تالار گفتگو

آیین نامه کمیته جوانان انجمن ایرانی مطالعات سازمان ملل متحد



اطلاعات بیشتر