مارال مانی-دانش آموخته کارشناسی ارشد حقوق بین الملل عمومی دانشگاه علامه طباطبایی
۱۴۰۰/۱۰/۱۱
هوش مصنوعی سردمدار انقلاب فناوری در قرن بیست و یکم است. نخستین تلاشها در مورد این حوزه تحقیقاتی به دهه ۱۹۴۰ بازمیگردد. اما تولد مفهوم «هوش مصنوعی» در سال ۱۹۵۶ رخداد. این تکنولوژی در کنار تمامی فراز و فرودهایی که در مسیر تکامل خود داشته است، پس از ظهور و گسترش فناوریهایی مانند اینترنت با روندی پرشتاب جایگاهی پررنگ در زندگی انسانها یافته است. در سالهای اخیر، به دلیل حضور پررنگ هوش مصنوعی در زندگی بشر و نقش غیرقابل انکار این فناوری در هر بخش از زندگی ما، توجه بسیاری از نهادهای بینالمللی و حقوق بشری به این تکنولوژی جلب شده است. بروز موارد متعددی از عملکردهایی که ناقض اصول بنیادین حقوق بشر هستند و کرامت انسانی را در معرض خطر قرار میدهند، بیش از پیش ایجاد مقررات و چارچوبهای اخلاقی و حقوقی در مورد هوش مصنوعی را ضروری جلوه میدهند.
به دلیل ماهیت و خصلت نو و متفاوت هوش مصنوعی از سایر تکنولوژیها، قانونگذاری در این حوزه بسیار چالشبرانگیز بوده است و این فناوری اغلب در قالبهای سنتی قانونگذاری نمیگنجد. در چند سال گذشته گامهایی مفید و ارزنده در سطوح ملی و فراملی و یا توسط مؤسسات خصوصی در این راستا برداشتهشده است که در مقام بیان نمونه میتوان به اصول پنجگانه کمیسیون اروپا در مورد «استفاده از هوش مصنوعی در سیستمهای قضایی و محیط آنها» در سال ۲۰۱۸، پیشنهاد تنظیم مقررات هارمونیزه شده و هماهنگ در مورد هوش مصنوعی (اقدامات هوش مصنوعی) و اصلاح اقدامات قانونی اتحادیه اروپا در سال 2021، اعلامیه تورنتو و مونترال اشاره نمود. در تازهترین اقدام صورت گرفته توسط سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) نخستین توافق جهانی در حوزه اخلاق هوش مصنوعی با امضای ۱۹۳ کشور به منصه ظهور رسید. در سال۲۰۱۸ مدیرکل یونسکو، یک پروژه ارزنده و چالشبرانگیز را راهاندازی کرد: ارائه چارچوبی اخلاقی برای استفاده از هوش مصنوعی به جهان. سه سال بعد، به لطف بسیج صدها متخصص از سراسر جهان و مذاکرات فشرده بینالمللی، ۱۹۳ دولت عضو یونسکو این چارچوب اخلاقی را بهطور رسمی پذیرفتند. این متن تاریخی ارزشها و اصول مشترکی را تعریف میکند که خلق و ایجاد زیرساختهای قانونی لازم را برای اطمینان از توسعه سالم هوش مصنوعی هدایت میکند.
این سند بینالمللی ارزنده، با در نظر داشتن این واقعیت که فناوریهای مبتنی بر هوش مصنوعی میتوانند خدمات مفید و قابلتوجهی به زندگی بشر ارائه نمایند، به این حقیقت نیز اذعان دارد که کاربرد بیقیدوشرط این تکنولوژی میتواند بنیانهای مبانی اخلاقی و کرامت انسانی را به لرزه بیفکند. اخیراً این فناوریها در امور تخصصی مانند تشخیص و غربالگری سرطان، کمک به افراد دارای معلولیت و مسائلی دیگر از قبیل کمک به مبارزه با مشکلاتی مانند تغییرات آبوهوا و گرسنگی در جهان به کار گرفته شده و عملکردی مفید داشتهاند. در کنار فواید بیشمار هوش مصنوعی، نگرانیهایی در مورد کاربرد این فناوری وجود دارد که در مقام بیان نمونه میتوان به ایجاد و یا تشدید تعصبهای موجود و یا خلق گونهای جدید از تبعیضها اشاره نمود و یا عمیقتر نمودن شکافها و نابرابریهای موجود در جهان، در داخل کشورها و خارج از مرزهای داخلی، تهدید حریم شخصی افراد موارد دیگری ازایندست هستند.
علاوه بر تلاشها و اقداماتی که تا به امروز در حوزه هوش مصنوعی اخلاقی صورت پذیرفته است، هدف اصلی توصیهنامه یونسکو ارائه مبنایی برای عملکرد سیستمهای هوش مصنوعی به نفع بشریت، افراد، جوامع، محیطزیست، اکوسیستمها و جلوگیری از بروز آسیب، در کنار ترویج احترام به کرامت انسانی و برابری جنسیتی، حفاظت از منافع نسلهای کنونی و آینده و حمایت از حقوق بشر، آزادیهای اساسی در تمام مراحل چرخه حیات سیستم هوش مصنوعی است. تلاش این سازمان بر این بوده است تا بتواند یک ابزار هنجاری مؤثر و کارآمد که در سطح بینالمللی پذیرفتهشده است را از طریق توصیههای سیاستی ملموس، با تأکید قوی بر مسائل برابری نژادی و جنسیتی و حفاظت از محیطزیست و اکوسیستمها ایجاد نماید. سند هوش مصنوعی اخلاقی یونسکو بر لزوم آموزش نوین در عصر دیجیتال، مشارکت همگانی علوم مختلف، اهمیت کثرتگرایی فرهنگی و ممانعت از انحصارگرایی و توجه خاص به کشورهای درحالتوسعه تأکید ویژه دارد.
اصول و ارزشهای هوش مصنوعی اخلاقی برای تمامی بازیگران و کنشگران عرصه هوش مصنوعی از دولتها گرفته تا سازمانها و شرکتهای خصوصی و مؤسسات علمی و دانشگاهی راهگشا و راهنما خواهد بود و مبنایی برای اصلاح قوانین موجود و یا تدوین قواعد جدید است. درحالیکه ارزشهای مندرج در سند مانند احترام، حمایت و ارتقای کرامت انسانی، حقوق بشر و آزادیهای اساسی، شکوفایی محیطزیست و اکوسیستم و حفظ صلح و هماهنگی زیربنای اصول هستند، اصول بیانشده نیز باعث خواهند شد که به ارزشهای مذکور جامه عمل پوشانده شود.
اصولی که در توصیهنامه اخلاق هوش مصنوعی به آنها اشاره و تأکید شده است شامل: اصل تناسب و بیضرر بودن، رعایت ایمنی و امنیت، انصاف و عدم تبعیض، پایداری و ثبات، محترم شمردن حریم شخصی، نظارت و برآورد انسانی، شفافیت و توصیفپذیری، مسئولیتپذیری و پاسخگویی، ارتقاء آگاهی و دانش تکنولوژیک و نظارت و همکاری چندجانبه و هماهنگ کشورهای عضو است. نخستین اصل مندرج در سند مزبور بر این نکته تأکید دارد که تمامی فرآیندهایی که در چرخه عملکرد هوش مصنوعی وجود دارند نمیتوانند ازآنچه برای دستیابی به اهداف یا مقاصد مشروع لازم است تجاوز نموده و باید متناسب با مبانی و اصول باشند. اصل حائز اهمیت دیگر انصاف و عدم تبعیض است و این واقعیت بهصراحت بیانشده است که بازیگران هوش مصنوعی باید تمام تلاش خود را برای به حداقل رساندن و اجتناب از تقویت یا تداوم تعصبات اجتماعی و فنی در طول چرخه حیات سیستم هوش مصنوعی انجام دهند تا از منصفانه بودن چنین سیستمهایی اطمینان حاصل شود؛ در کنار آن راهکاری در قبال وقوع چنین تعصبها و تبعیضهایی در نظر گرفته شود.
اصول دیگری که از مسائل چالشبرانگیز در مذاکرات و رایزنیهای سالیان اخیر در مورد هوش مصنوعی بوده است اصول نظارت و برآورد انسانی و مسئولیتپذیری و پاسخگویی است. نقش و جایگاه اشخاص در چرخه عملکرد هوش مصنوعی در سند اخیر بهعنوان نقش کلیدی در نظر گرفتهشده است و به عبارتی باید بتوان مسئولیت اخلاقی و قانونی را برای هر مرحله از چرخه حیات سیستمهای هوش مصنوعی به اشخاص حقیقی یا حقوقی موجود نسبت داد. در مقام تبیین مسئولیت هوش مصنوعی نیز به این مسئله اشارهشده است که بازیگران هوش مصنوعی باید به حقوق بشر احترام بگذارند، آنها را ترویج و از آنها محافظت کنند، حفاظت از محیطزیست و اکوسیستمها را ارتقا دهند و مسئولیت اخلاقی و قانونی مطابق با قوانین ملی و بینالمللی موجود (بهویژه موازین بینالمللی حقوق بشر، اصول و استانداردها و راهکارهای اخلاقی) در طول چرخه حیات سیستمهای هوش مصنوعی را بر عهده بگیرند. مسئولیت در قبال تصمیمها و اقداماتی که به هر نحوی مبتنی بر یک سیستم هوش مصنوعی است، همیشه باید درنهایت به بازیگران هوش مصنوعی نسبت داده شود. تعریف بازیگران و کنشگران عرصه هوش مصنوعی مطابق این سند عبارت است از هر بازیگری که حداقل در یک مرحله از چرخه زندگی هوش مصنوعی درگیر است و میتواند به اشخاص حقیقی و هم حقوقی مانند محققین، برنامه نویسان، مهندسان، دانشمندان داده، کاربران نهایی، شرکتهای فناوری بزرگ، شرکتهای کوچک و متوسط، استارتآپها، دانشگاهها، نهادهای عمومی و غیره اطلاق شود. این بخش بسیار مهمی در سند حاضر بوده که دلیل آن وجود اختلافنظر و تئوریهای متفاوت نظام مسئولیتی هوش مصنوعی در چندساله گذشته بوده است.
اصول مندرج در سند حاضر نقطه عطفی در سیر تکاملی قانونگذاری در حوزه هوش مصنوعی عادلانه، مسئولیتپذیر و شفاف میباشد و دلیل آن اقدام همگانی در سطح بینالمللی در برابر پیشرفتهای سریع این فناوری است. تدوین اصول اساسی و بنیادین اخلاقی و حقوق بشری هوش مصنوعی بهعنوان چراغ راهی ورای زوایای پیچیده و مبهم و روند توسعه سریع هوش مصنوعی خواهد بود. بسیاری از فیلسوفان و متخصصان معتقدند که اگر چارچوبهایی دقیق و کارآمد برای هوش مصنوعی تدوین نشود شکاف میان کشورهایی که سردمدار این تکنولوژی هستند و کشورهای کمتر توسعهیافته بهمراتب عمیقتر از شکاف بعد از انقلاب صنعتی خواهد بود. به منظور ممانعت از بروز چنین آسیبهایی، اگر اقدامات بیشتر و گستردهتر و همکاریهای بینالمللی صورتپذیرد تضمین این واقعیت که هوش مصنوعی با هدف ارتقاء سطح رفاه در خدمت بشر خواهد ماند مستحکمتر خواهد شد و برای ما نویدبخش دنیایی بهتر در کنار الگوریتمهای منصفانه و بیطرف، امن و مسئولیتپذیر است.