مارال مانی-دانش آموخته کارشناسی ارشد حقوق بین الملل عمومی دانشگاه علامه طباطبایی

۱۴۰۰/۱۰/۱۱

هوش مصنوعی سردمدار انقلاب فناوری در قرن بیست ‌و یکم است. نخستین تلاش‌ها در مورد این حوزه تحقیقاتی به دهه ۱۹۴۰ بازمی‌گردد. اما تولد مفهوم «هوش مصنوعی» در سال ۱۹۵۶ رخ‌داد. این تکنولوژی در کنار تمامی فراز و فرودهایی که در مسیر تکامل خود داشته است، پس از ظهور و گسترش فناوری‌هایی مانند اینترنت با روندی پرشتاب جایگاهی پررنگ در زندگی انسان‌ها یافته است. در سال‌های اخیر، به دلیل حضور پررنگ هوش مصنوعی در زندگی بشر و نقش غیرقابل ‌انکار این فناوری در هر بخش از زندگی ما، توجه بسیاری از نهادهای بین‌المللی و حقوق بشری به این تکنولوژی جلب شده است. بروز موارد متعددی از عملکردهایی که ناقض اصول بنیادین حقوق بشر هستند و کرامت انسانی را در معرض خطر قرار می‌دهند، بیش ‌از پیش ایجاد مقررات و چارچوب‌های اخلاقی و حقوقی در مورد هوش مصنوعی را ضروری جلوه می‌دهند.

به دلیل ماهیت و خصلت نو و متفاوت هوش مصنوعی از سایر تکنولوژی‌ها، قانون‌گذاری در این حوزه بسیار چالش‌برانگیز بوده است و این فناوری اغلب در قالب‌های سنتی قانون‌گذاری نمی‌گنجد. در چند سال گذشته گام‌هایی مفید و ارزنده در سطوح ملی و فراملی و یا توسط مؤسسات خصوصی در این راستا برداشته‌شده است که در مقام بیان نمونه می‌توان به اصول پنج‌گانه کمیسیون اروپا در مورد «استفاده از هوش مصنوعی در سیستم‌های قضایی و محیط آن‌ها» در سال ۲۰۱۸، پیشنهاد تنظیم مقررات هارمونیزه شده و هماهنگ در مورد هوش مصنوعی (اقدامات هوش مصنوعی) و اصلاح اقدامات قانونی اتحادیه اروپا در سال 2021، اعلامیه تورنتو و مونترال اشاره نمود. در تازه‌ترین اقدام صورت گرفته توسط سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) نخستین توافق جهانی در حوزه اخلاق هوش مصنوعی با امضای ۱۹۳ کشور به منصه ظهور رسید. در سال۲۰۱۸ مدیرکل یونسکو، یک پروژه ارزنده و چالش‌برانگیز را راه‌اندازی کرد: ارائه چارچوبی اخلاقی برای استفاده از هوش مصنوعی به جهان. سه سال بعد، به لطف بسیج صدها متخصص از سراسر جهان و مذاکرات فشرده بین‌المللی، ۱۹۳ دولت عضو یونسکو این چارچوب اخلاقی را به‌طور رسمی پذیرفتند. این متن تاریخی ارزش‌ها و اصول مشترکی را تعریف می‌کند که خلق و ایجاد زیرساخت‌های قانونی لازم را برای اطمینان از توسعه سالم هوش مصنوعی هدایت می‌کند.

این سند بین‌المللی ارزنده، با در نظر داشتن این واقعیت که فناوری‌های مبتنی بر هوش مصنوعی می‌توانند خدمات مفید و قابل‌توجهی به زندگی بشر ارائه نمایند، به این حقیقت نیز اذعان دارد که کاربرد بی‌قیدوشرط این تکنولوژی می‌تواند بنیان‌های مبانی اخلاقی و کرامت انسانی را به لرزه بیفکند. اخیراً این فناوری‌ها در امور تخصصی مانند تشخیص و غربالگری سرطان، کمک به افراد دارای معلولیت و مسائلی دیگر از قبیل کمک به مبارزه با مشکلاتی مانند تغییرات آب‌وهوا و گرسنگی در جهان به کار گرفته‌ شده و عملکردی مفید داشته‌اند. در کنار فواید بی‌شمار هوش مصنوعی، نگرانی‌هایی در مورد کاربرد این فناوری وجود دارد که در مقام بیان نمونه می‌توان به ایجاد و یا تشدید تعصب‌های موجود و یا خلق گونه‌ای جدید از تبعیض‌ها اشاره نمود و یا عمیق‌تر نمودن شکاف‌ها و نابرابری‌های موجود در جهان، در داخل کشورها و خارج از مرزهای داخلی، تهدید حریم شخصی افراد موارد دیگری ازاین‌دست هستند.

علاوه بر تلاش‌ها و اقداماتی که تا به امروز در حوزه هوش مصنوعی اخلاقی صورت پذیرفته است، هدف اصلی توصیه‌نامه یونسکو ارائه مبنایی برای عملکرد سیستم‌های هوش مصنوعی به نفع بشریت، افراد، جوامع، محیط‌زیست، اکوسیستم‌ها و جلوگیری از بروز آسیب، در کنار ترویج احترام به کرامت انسانی و برابری جنسیتی، حفاظت از منافع نسل‌های کنونی و آینده و حمایت از حقوق بشر، آزادی‌های اساسی در تمام مراحل چرخه حیات سیستم هوش مصنوعی است. تلاش این سازمان بر این بوده است تا بتواند یک ابزار هنجاری مؤثر و کارآمد که در سطح بین‌المللی پذیرفته‌شده است را از طریق توصیه‌های سیاستی ملموس، با تأکید قوی بر مسائل برابری نژادی و جنسیتی و حفاظت از محیط‌زیست و اکوسیستم‌ها ایجاد نماید. سند هوش مصنوعی اخلاقی یونسکو بر لزوم آموزش نوین در عصر دیجیتال، مشارکت همگانی علوم مختلف، اهمیت کثرت‌گرایی فرهنگی و ممانعت از انحصارگرایی و توجه خاص به کشورهای درحال‌توسعه تأکید ویژه دارد.

اصول و ارزش‌های هوش مصنوعی اخلاقی برای تمامی بازیگران و کنشگران عرصه هوش مصنوعی از دولت‌ها گرفته تا سازمان‌ها و شرکت‌های خصوصی و مؤسسات علمی و دانشگاهی راهگشا و راهنما خواهد بود و مبنایی برای اصلاح قوانین موجود و یا تدوین قواعد جدید است. درحالی‌که ارزش‌های مندرج در سند مانند احترام، حمایت و ارتقای کرامت انسانی، حقوق بشر و آزادی‌های اساسی، شکوفایی محیط‌زیست و اکوسیستم و حفظ صلح و هماهنگی زیربنای اصول هستند، اصول بیان‌شده نیز باعث خواهند شد که به ارزش‌های مذکور جامه عمل پوشانده شود.

اصولی که در توصیه‌نامه اخلاق هوش مصنوعی به آن‌ها اشاره و تأکید شده است شامل: اصل تناسب و بی‌ضرر بودن، رعایت ایمنی و امنیت، انصاف و عدم تبعیض، پایداری و ثبات، محترم شمردن حریم شخصی، نظارت و برآورد انسانی، شفافیت و توصیف‌پذیری، مسئولیت‌پذیری و پاسخگویی، ارتقاء آگاهی و دانش تکنولوژیک و نظارت و همکاری چندجانبه و هماهنگ کشورهای عضو است. نخستین اصل مندرج در سند مزبور بر این نکته تأکید دارد که تمامی فرآیندهایی که در چرخه عملکرد هوش مصنوعی وجود دارند نمی‌توانند ازآنچه برای دستیابی به اهداف یا مقاصد مشروع لازم است تجاوز نموده و باید متناسب با مبانی و اصول باشند. اصل حائز اهمیت دیگر انصاف و عدم تبعیض است و این واقعیت به‌صراحت بیان‌شده است که بازیگران هوش مصنوعی باید تمام تلاش خود را برای به حداقل رساندن و اجتناب از تقویت یا تداوم تعصبات اجتماعی و فنی در طول چرخه حیات سیستم هوش مصنوعی انجام دهند تا از منصفانه بودن چنین سیستم‌هایی اطمینان حاصل شود؛ در کنار آن راه‌کاری در قبال وقوع چنین تعصب‌ها و تبعیض‌هایی در نظر گرفته شود.

اصول دیگری که از مسائل چالش‌برانگیز در مذاکرات و رایزنی‌های سالیان اخیر در مورد هوش مصنوعی بوده است اصول نظارت و برآورد انسانی و مسئولیت‌پذیری و پاسخ‌گویی است. نقش و جایگاه اشخاص در چرخه عملکرد هوش مصنوعی در سند اخیر به‌عنوان نقش کلیدی در نظر گرفته‌شده است و به عبارتی باید بتوان مسئولیت اخلاقی و قانونی را برای هر مرحله از چرخه حیات سیستم‌های هوش مصنوعی به اشخاص حقیقی یا حقوقی موجود نسبت داد. در مقام تبیین مسئولیت هوش مصنوعی نیز به این مسئله اشاره‌شده است که بازیگران هوش مصنوعی باید به حقوق بشر احترام بگذارند، آن‌ها را ترویج و از آن‌ها محافظت کنند، حفاظت از محیط‌زیست و اکوسیستم‌ها را ارتقا دهند و مسئولیت اخلاقی و قانونی مطابق با قوانین ملی و بین‌المللی موجود (به‌ویژه موازین بین‌المللی حقوق بشر، اصول و استانداردها و راهکارهای اخلاقی) در طول چرخه حیات سیستم‌های هوش مصنوعی را بر عهده بگیرند. مسئولیت در قبال تصمیم‌ها و اقداماتی که به هر نحوی مبتنی بر یک سیستم هوش مصنوعی است، همیشه باید درنهایت به بازیگران هوش مصنوعی نسبت داده شود. تعریف بازیگران و کنشگران عرصه هوش مصنوعی مطابق این سند عبارت است از هر بازیگری که حداقل در یک مرحله از چرخه زندگی هوش مصنوعی درگیر است و می‌تواند به اشخاص حقیقی و هم حقوقی مانند محققین، برنامه نویسان، مهندسان، دانشمندان داده، کاربران نهایی، شرکت‌های فناوری بزرگ، شرکت‌های کوچک و متوسط، استارت‌آپ‌ها، دانشگاه‌ها، نهادهای عمومی و غیره اطلاق شود. این بخش بسیار مهمی در سند حاضر بوده که دلیل آن وجود اختلاف‌نظر و تئوری‌های متفاوت نظام مسئولیتی هوش مصنوعی در چندساله گذشته بوده است.

اصول مندرج در سند حاضر نقطه عطفی در سیر تکاملی قانون‌گذاری در حوزه هوش مصنوعی عادلانه، مسئولیت‌پذیر و شفاف می‌باشد و دلیل آن اقدام همگانی در سطح بین‌المللی در برابر پیشرفت‌های سریع این فناوری است. تدوین اصول اساسی و بنیادین اخلاقی و حقوق بشری هوش مصنوعی به‌عنوان چراغ راهی ورای زوایای پیچیده و مبهم و روند توسعه سریع هوش مصنوعی خواهد بود. بسیاری از فیلسوفان و متخصصان معتقدند که اگر چارچوب‌هایی دقیق و کارآمد برای هوش مصنوعی تدوین نشود شکاف میان کشورهایی که سردمدار این تکنولوژی هستند و کشورهای کمتر توسعه‌یافته به‌مراتب عمیق‌تر از شکاف بعد از انقلاب صنعتی خواهد بود. به ‌منظور ممانعت از بروز چنین آسیب‌هایی، اگر اقدامات بیشتر و گسترده‌تر و همکاری‌های بین‌المللی صورت‌پذیرد تضمین این واقعیت که هوش مصنوعی با هدف ارتقاء سطح رفاه در خدمت بشر خواهد ماند مستحکم‌تر خواهد شد و برای ما نویدبخش دنیایی بهتر در کنار الگوریتم‌های منصفانه و بی‌طرف، امن و مسئولیت‌پذیر است.

 

آخرین مطالب تالار گفتگو

آیین نامه کمیته جوانان انجمن ایرانی مطالعات سازمان ملل متحد



اطلاعات بیشتر