افشین عزیزی-دانش آموخته کارشناسی ارشد حقوق ارتباطات دانشگاه علامه طباطبایی

سارا صلح چی-دانشجوی کارشناسی ارشد حقوق مالکیت فکری دانشگاه علامه طباطبایی

۱۴۰۱/۰۶/۰۶

مفهوم دموکراسی از دوران یونان باستان که از نگاه فلاسفه ای نظیر افلاطون، مفهومی هم راستای حکومت های جور و ستم داشت، تا آنچه امروز از دموکراسی می‌فهیم مسیری طولانی طی نموده است. امروزه دموکراسی مفهومی هم راستا با حقوق بشر یافته تا جایی که می‌توان مدعی شد حقوق بشر مولود دموکراسی نوین است و از زمان صدور اعلامیه حقوق بشر و شهروند فرانسه تا کنون، حقوق بشر و دموکراسی با تأثیر و تأثر متقابل، مردمی و کارآمدتر گشته و معنا و مفهومی مشخص و فراگیرتر یافته‌اند (اینجا، ص 188) بگونه ای که درک یکی از این دو بدون درک دیگری دشوار می‌نماید. در همین راستا، برخی اندیشمندان بر این باور هستند که نیل به دموکراسی غایت دست نیافتنی و هدف اصلی اداره حیات جمعی انسان ها در سده های اخیر بوده (اینجا، ص 412) و چه بسا بتوان مراد و خواست نهایی تهیه کنندگان اعلامیه ها و اسناد حقوق بشری از جمله منشور ملل متحد، اعلامیه جهانی حقوق بشر و میثاقین ( اینجا و اینجا) را نیل به ارزش های دموکراتیک دانست.

در این بستر، نقش آفرینی روزافزون فناوری در مناسبات مختلف بشری و شئون مختلف زندگی انسان، موجب حضور پررنگ هوش مصنوعی در تمام شئون زندگی فردی، سیاسی و اجتماعی شده است. هوش مصنوعی به عنوان شکلی از فناوری که با استفاده از مهارت‌های مرتبط با هوش انسانی، می‌تواند مانند انسان فکر کند، منطقی بیندیشد و منطقی عمل کند و با دارا بودن برخی توانایی های همانند انسان نظیر درک، یادگیری، استدلال و عملکرد هوشمندانه، در بهبود شرایط زندگی انسانی اثر گذاشته و تردیدی نیست که توانسته است از این رهگذر در مواردی به بهبود حکمرانی و برخی ارزش های دموکراتیک نیز یاری رساند. هوش مصنوعی در کنار فوایدی که در ادامه به برخی از آنها اشاره می شود، مضرات فراوانی نیز با خود به همراه داشته است، تا جایی که برخی آن را مخرب ترین فناوری عصر حاضر و فناوری ذاتا مخالف ارزش های دموکراتیک می‌دانند. در تحلیل این دو دیدگاه افراطی در ارزیابی تاثیر هوش مصنوعی، می توان گفت که هوش مصنوعی محصولی جدید و با زوایای ناشناخته فراوانی است که در کنار جنبه های مثبت خود می تواند مضرات و خطرات فراوانی نیز داشته باشد که بررسی آن ها می تواند به بهبود فرآیندهای موجود و تقویت محصولات آینده کمک کند و نمی توان به واسطه برخی مضرات به طور کل خواهان برچیده شدن آن شد.

در همین راستا مقررات مختلفی در سطح منطقه‌ ای و بین المللی به منظور اخلاقی و ضابطه مند کردن استفاده از هوش مصنوعی وضع و تدوین شده است که از جمله می توان به منشور اخلاقی اروپا در مورد استفاده از هوش مصنوعی در سیستم های قضایی تدوین شده توسط کمیسیون اروپا برای کارآمدی عدالت مصوب 2018 اشاره نمود که ضمن تأکید بر بهبود کارآیی نظام های قضایی توسط هوش مصنوعی، بر این مهم تأکید می کند که تحولات حوزه هوش مصنوعی باید به شکلی مسئولانه ضمن پاسداشت و تضمین حقوق بنیادین شهروندان، رعایت اصولی نظیر عدم تبعیض، امنیت، شفافیت، بی طرفی و انصاف را در سرلوحه اقدامات خود قرار دهد. علاوه بر این، پیش نویس نخستین توصیه نامه یونسکو در خصوص اخلاق هوش مصنوعی که با امضای 193 کشور به تصویب رسیده، به عنوان اولین چارچوب قانونی جهانی در زمینه هوش مصنوعی، ضمن نشان دادن میزان اهمیت هوش مصنوعی و تهیه مقرراتی حول محور آن، بیانگر نگرانی دولت ها از مخاطرات احتمالی جنبه های اخلاقی هوش مصنوعی است. این پیش نویس چارچوبی منطقی برای ارزیابی اخلاقی ملاحظات در خصوص رعایت انصاف، دقت، شفافیت و همچنین برخی نگرانی های جدید نظیر عدالت جنسینی توسط هوش مصنوعی ارائه داده و می تواند شاخصی قدرتمند برای ارزیابی اخلاقی و حقوقی مسائل هوش مصنوعی باشد.(برای مطالعه بیشتر نک به اینجا و اینجا)

در این نوشتار نقش هوش مصنوعی را در ارتقاء یا تنزل جایگاه ارزش های دموکراتیک با معیارهای حقوق بشری در سه مؤلفه یعنی برابری، تضمین عدالت و مشارکت در حیات سیاسی که در سال های اخیر و با گسترش هوش مصنوعی بیش ازدیگر مؤلفه ها دارای حاشیه و موجب نگرانی بوده، مورد بررسی قرار می دهیم.

برابری، هوش مصنوعی و رسوب ذهنی تصورات تبعیض آمیز

اعتقاد به برابری انسان‌ها فارغ از رنگ، نژاد، دین و مذب، جنسیت و... در کنار یکی دانستن ارزش انسان ها بر پایه کرامت ذاتی نوع بشر از والاترین ارزش‌های بشری است، به نحوی که صدر مقدمه منشور ملل متحد با بیان «اعلام مجدد ایمان خود به حقوق اساسی بشر و به حیثیت و ارزش شخصیت انسانی و به تساوی حقوق بین مرد و زن و همچنین بین ملت ها اعم از‌کوچک و بزرگ»، بر این مهم تأکید ویژه می نماید. اعلامیه جهانی حقوق بشر نیز ضمن مساوی شمردن روح انسان ها از نظر حیثیت و کرامت ذاتی ابناء بشر و با محکوم کردن تحقیر و تخفیف انسان ها در مقدمه اعلامیه، به موجب ماده 1، برابری را در تمامی شئون ممکن برای انسان‌ها حتمی فرض می نماید.

امروزه هوش مصنوعی کاربردهای فراوانی در حوزه مدیریت و کمک به مدیران برای برنامه ریزی، تصمیم گیری و نظارت بر کارکنان در کنار زمینه هایی نظیر احراز هویت یافته است که می توان از جمله به تشخیص هویت فرد به وسیله صدا، تصویر، چهره، عنبیه چشم، شکل صورت و... اشاره کرد که در مواردی همچون بانکداری الکتروینک، ورود به سیستم های امنیتی و تلفن همراه و... کاربرد دارد. سپردن برخی از امور مرتبط با انسان به هوش مصنوعی، نویدبخش از بین رفتن نگاه های تبعیض آمیز یا ناشی از علقه های شخصی به دیگران بود، اما شیوه کار بعضی از انوع هوش مصنوعی نشان می‌دهد برخی نرم افزارهای آنالیز صورت و تشخیص چهره که عموما مراحل آزمایشی را بر روی صورت افراد سفیدپوست طی نموده‌اند، به دلایلی از جمله نحوه برنامه نویسی و الگوریتم های به کار رفته در آنها فاقد امکان شناسایی و تشخیص چهره‌ رنگین پوستان هستند. (اینجا و اینجا) از این‌رو این احتمال که سازندگان این ابزارهای هوش مصنوعی در تحقیقات و آزمایش‌های خود سیاه‌پوستان را درنظر نگرفته‌اند، می‌تواند توجیهی بر سوگیری و نگاه تبعیض آمیزی باشد که به‌صورت ناخواسته از سوی محقیقین و طراحان این حوزه به‌وجود آمده است.

این تبعیض علاوه بر رنگین پوستان شامل حال جامعه زنان نیز شده و بررسی برخی محصولات غول‌های فناوری نظیر IBM، مایکروسافت و آمازون  نشان می دهد این دست ساخته های بشر در تشخیص چهره مردان سفیدپوست عملکرد بهتری از خود نشان داده اند. این تبعیض و تفاوت در تشخیص تا آنجاست که میزان اشتباه در تشخیص مردان سفیدپوست از 1% فراتر نمی‌رود اما گاهی در زنانی با پوست تیره به 35% نیز می رسد و حتی سیستم های هوش مصنوعی شرکت ‌های پیشرو نتوانسته اند چهره اشخاص شناخته شده ای نظیر اپرا وینفری، میشل اوباما و سرنا ویلیامز را به درستی تشخیص دهند. (اینجا) اشکالات موجود در سیستم‌های تشخیص چهره رنگین پوستان از مواردی ساده و روزمره نظیر اخلال در استفاده این اشخاص در استفاده از الگوی تشخیص چهره برای باز کردن صفحه تلفن همراه گرفته تا ورود به محل کار در مشاغلی که ورود به فضای کاری آنان با اسکن تصاویر کارکنان انجام می‌پذیرد و اشتباه در تشخیص صحیح چهره رنگین پوستان در تصاویر وبکم ها و دوربین های دیجیتال را شامل می‌شود.

اما این نقصان به همین موارد ختم نمی‌شود و در مواردی اشتباهات و سوگیری های هوش مصنوعی به شکل هایی از تبعیض می انجامد که می تواند سلامت و یا امنیت فردی و آزادی شهروندان رنگین پوست را دچار مخاطره سازد که از جمله می توان به غربالگری بیماران با کمک هوش مصنوعی به منظور قرار گرفتن بیماران با خطر بالا در اولویت درمان در برخی مراکز درمانی اشاره کرد. بررسی نتایج غربالگری ها حاکی از آن بود که هوش مصنوعی شمار بیشتری از بیماران سفیدپوست را (که در شرایط مشابه با بیماران سیاه پوست قرار داشتند) در معرض خطر شناخته و در نتیجه در اولویت درمان قرار می داده است. همچنین، در حالی که در سال های اخیر استفاده از دوربین‌های تجزیه و تحلیل کننده چهره اشخاص در برخی اماکن عمومی و توسط نیروهای پلیس در ایالات متحده رو به افزایش است، بررسی ها نشان می دهد این دوربین ها که به کمک هوش مصنوعی به تجزیه و تحلیل چهر ها و پیش بینی خطرناک بودن شخص یا حضور شخصی با سابقه مجرمانه در محل های مختلف می پردازند، به طرز محسوسی رنگین پوستانی از جمله سیاه پوستان و چینی تباران را افرادی خطرناک تر از سفیدپوستان تشخیص داده و حتی در مواردی، به اشتباه فردی را مظنون به  ارتکاب جرم شناخته و در معرض بازداشت اشتباه قرار داده است.

همچنین در مواردی ربات هوش مصنوعی که در مقام مدیر منابع انسانی فعالیت می کرد با پردازش این نکته از اسناد موجود که پیشتر همه مدیران برخی از بخش های شرکت مرد بوده اند، به صورت پیش فرض، متقاضیان جنسیت دیگر را رد کرده است. درک این نکته زمانی ملموس تر می شود که بدانیم در ایالات متحده برای مشاغلی نظیر حمل بار نیز نمی توان به صورت مستقیم جنسیتی خاص را مخاطب آگهی شغلی قرار دهید و اساسا پرسش از جنسیت در زمان جذب نیروی کار می تواند با پیگرد قضایی، همراه باشد. سوءگیری هوش مصنوعی در این زمینه تا آنجا پیش رفت که علی رغم آن که گفته می شد هوش مصنوعی در زمینه مدیریت منابع انسانی کماکان بهتر از انسان عمل می کند، شرکت آمازون استفاده از این ابزار را متوقف نمود . همچنین، نهادهایی نظیر شورای شهر نیویورک و شورای شهر دیتروید استفاده از هوش مصنوعی را در فرایند استخدامی افراد محدود ساخته و منوط به برخی شفاف سازی ها و اثبات عدم وجود سوگیری جنسیتی و نژادی در این فرایند دانسته اند. بنابراین به نظر می رسد نگاه های تبعیض آمیز نهادینه شده در برخی انسان ها، به صورت آگاهانه یا غیرآگاهانه در قالب الگوریتم به دنیای بدون احساس هوش مصنوعی نیز وارد شده که جا دارد با آگاهی و تغییر فرآیند ساخت این ابزارها، چنین نواقصی مرتفع گردند.

دادرسی منصفانه و نقش دوگانه هوش مصنوعی

شیوه دادرسی همواره از دغدغه های مهم بشری بوده و تبلور آن در اسناد حقوق بشری و قوانین داخلی کشورها مبین اهمیت و ارزش دادرسی منصفانه است. بروز خطاهای اجتناب ناپذیر انسانی و تأثیرات عمیق فردی و اجتماعی اشتباه در نظام دادرسی در کنار بیم همیشگی نسبت به سوگیری دادرسان، منجر به طرح مباحث امکان سنجی استفاده از هوش مصنوعی در فرآیندهای قضایی شد. استفاده ای که می تواند جامعه بشری را هرچه بیشتر به اهداف مقرر در مواد مختلف اعلامیه جهانی حقوق بشر به ویژه مواد 7 تا 11 اعلامیه و بند 3 ماده 2 و مواد 9 تا 11، 14 و 15 میثاق بین المللی حقوق مدنی و سیاسی نزدیک سازد.

از جمله کمک‌های هوش مصنوعی به نظام قضایی می‌توان به کمک مدل‌های هوش مصنوعی به قضات نسبت به درک تعصب و جانبداری خود در رسیدگی به پرونده ها و مبارزه با آن اشاره کرد. می‌دانیم عوامل خارجی مانند شلوغی شعبه، زمان های مختلف از روز، خستگی، دمای هوا و همچنین نزدیک بودن به زمان انتخابات (در نظام های قضایی که قاضی با رأی شهروندان انتخاب می شود) از جمله عوامل خارجی با احتمال تأثیرگذاری بر رأی دادرس هستند. در این شیوه ها زمانی که هوش مصنوعی با وزن دادن به عوامل مختلف خارجی و نسبت سنجی میان آنها تشخیص دهد توجه دادرس نسبت به پرونده کم شده و با بی توجهی در شرف صدور رأی است به مقام قضایی هشدارهای لازم را می هد. همچنین در نظام قضایی ایالات متحده آمریکا نرم افزارهایی وجود دارند که با تحلیل داده های مجرمانه امکان تکرار عمل مجرمانه را محاسبه و در تعیین مواردی مانند صدور یا عدم صدور قرار بازداشت، تعیین میزان وثیقه و...، علی رغم انتقادات وارده ، به کمک مقام قضایی می شتابند.

با این تحولات، می توان به راحتی روزی را پیش بینی کرد که از هوش مصنوعی در برگزاری محاکم بین المللی نیز استفاده شود که چنین رویکردی با توجه به برخی انتقادات در مورد بی غرض نبودن قضات این مراجع (نک برای نمونه به اینجا و اینجا) یا در مواردی که با حضور قاضی اختصاصی یکی از طرفین برگزار می‌شود، می تواند در اعتباربخشی به آرای این قضات و پذیرش آن توسط طرفین و جامعه بین المللی نقشی موثر ایفا نماید. اما در کنار همه مواهبی نظیر افزایش اعتبار آرای صادره از منظر بی طرفی دادرس و عدالت قضایی در کنار کاهش هزینه‌ها و افزایش سرعت دادرسی، استفاده از هوش مصنوعی هنور به آن مرحله ای از دقت، صحت و سلامت نرسیده که بتوان با اطمینان کامل زمام امور را به دست این ابزارهای ساخته دست بشر سپرد. کما اینکه برخی بررسی های صورت گرفته در خصوص نرم افزارهای استفاده شده در نظام قضایی ایالات متحده نشان داد این نرم افزارها نسبت به متهمان سیاه پوست از خود حساسیت و سخت گیری بیشتری نشان می دهند، گویی که عدالت کیفری تا حدی به دست و ذهن مهندسان نرم افزار و برنامه نویسان رایانه ای سپرده شده است. از این رو در دادرسی های بین المللی نیز با توجه به تفوق علمی و دانش کشورهای اروپای غربی و آمریکای شمالی در دسترسی به فناوری های مرتبط با هوش مصنوعی و قرابت نژادی، دینی و مذهبی و رنگ پوست و باورهای مشترک این دو گروه، برخلاف رویه در پیش گرفته شده توسط برخی کشورها در استفاده از هوش مصنوعی در نظام قضایی خود ، اعتماد به هوش مصنوعی نمی‌تواند چندان اطمینان بخش باشد. از این رو اگر نتایج حاصل شده از تجربه نسبتا امیدوارکننده و موفقیت بیش از هفتاد درصدی هوش مصنوعی در پیش ‌بینی آرای صادره از محاکم حقوق بشری اروپایی، مقدمه و زمینه ساز استفاده از هوش مصنوعی در این محاکم باشد، باید گفت هنوز شرایط مناسب برای سپردن امکان قضاوت در محاکم بین‌المللی به هوش مصنوعی فراهم نیست. در نتیجه، به نظر می رسد سپردن دادرسی یا تحقیقات مرتبط با پرونده به هوش مصنوعی در دادرسی های بین المللی در زمان فعلی، ممکن است بشریت را به دام تبعیض ناخواسته ای بیندازد و دادرسی ها را از مسیر انصاف و عدالت خارج ساخته و به سدی در مقابل تحقق اهداف مقرر در منشور ملل متحد و اعلامیه مبدل گردد.

با وجود آنکه فناوری فعلی هوش مصنوعی تا رسیدن به چنین مرحله ای فاصله دارد، اما تاکید بر این مهم ضروری است که قاعده مند نمودن هوش مصنوعی و کاهش خطرات ناشی از آن در حوزه عدالت قضایی، همان گونه که در منشور اخلاقی اروپا در مورد استفاده از هوش مصنوعی در سیستم های قضایی و قطعنامه 16 فوریه 2017 پارلمان اروپا نیز تصریح شده است، در صورتی موفق خواهد بود که اقدامات هوش مصنوعی شفاف و قابل توضیح گردند. از این رو لازم است هوش مصنوعی بتواند برای تصمیمات خود استدلال نموده و فرد انسانی ناظر را در خصوص تصمیم اتخاذ شده قانع نماید، در غیر این صورت تا زمان رسیدن به چنین مرحله ای، استفاده از هوش مصنوعی در امور اداری اقدامات قضایی نظیر مدیریت پرونده ها، تقسیم دارایی زوجین در پرونده های طلاق و خسارت وارده به اشخاص، رسیدگی به درخواست و سوال های شهروندان، تشخیص شواهد و اسناد مجعول و... می تواند تصمیمی معقول و کم خطر تر باشد.

هوش مصنوعی و تأثیر بر انتخابات آزاد در فراسوی مرزها

امروزه به دلیل شرایط مختلف حاکم بر جوامع و زندگی اجتماعی، امکان مشارکت مستقیم همه مردم در تعیین سرنوشت سیاسی و اجتماعی وجود ندارد و از این رو اصل نمایندگی به عنوان جانشین نه چندان مطلوب اما اجتناب ناپذیر برای دموکراسی مستقیم انتخاب شده، هرچند بسیاری نیز معتقدند نمایندگی می‌تواند ایفاگر نقشی به مراتب موثرتر از دموکراسی مستقیم ایفا کند (اینجا، ص 110). از همین رو است که برخی بر این باورند اگر سه عنصر نصب حاکمان با رأی عمومی، نظارت بر اعمال حاکمان و امکان عزل آنان با رأی عمومی در جامعه‌ای فراهم گردد، آن زمان می توان مدعی تحقق ارزش های دموکراتیک در آن سرزمین شد (اینجا، ص 413).

خودکامگان و آنان که با احترام به خواست و نظر عمومی بیگانه هستند و افکار و اندیشه های خود را در مقبول عامه شهروندان نمی بینند، از هیچ تلاشی برای تقلب و دستکاری در انتخابات و یا مهندسی آن فروگذار نیستند. بنابراین اگر تا همین اواخر تقلب و مهندسی در انتخابات با کمک نیروهای قهریه، گزینش کاندیداها و شمارش سلیقه ای آراء و امثال آن صورت می گرفت، امروزه برگزاری الکترونیک انتخابات در بسیاری از کشورها و گسترش بی سابقه و نفوذ فراوان تبلیغات پیدا و پنهان شبکه های اجتماعی بر ذهن مخاطب، منجر به تلاش دست اندرکاران به ویژه صاحبان قدرت و دولتمردان در اقصی نقاط دنیا برای تأثیرگذاری بر انتخابات از طریق هک سیستم های اخذ و شمارش رأی و یا مهندسی انتخابات توسط ابزارهای مختلف از جمله هوش مصنوعی شده است. به بیانی، از آنجایی که یکی از کارکردهای دموکراسی، نوعی مشروعیت گرفتن برای قدرت است، برخی به منظور مشروع جلوه دادن قدرت خویش از طریق کارکردهای فناوری از جمله هوش مصنوعی دست به اقداماتی می زنند که ارزش های دموکراتیک را در جهان با تهدید جدی مواجه می‌سازد.

از جمله روش ها برای تأثیرگذاری بر افکار عمومی در فضای مجازی می توان به استفاده از ربات های اجتماعی اشاره کرد که برای تقویت سبد رأی نامزدهای انتخابات و متقاعد کردن رأی دهندگان به رأی دادن یا ندادن به کاندیدایی خاص اقدام می نمایند.  این گروه از ربات ها زمانی که وارد کارزارهای تبلیغاتی سیاسی باشند، «ربات های سیاسی» نامیده می شوند و می توانند با تولید لایک، حساب کاربری متعدد و دنبال کننده جعلی برای کاربران مدنظرشان، دست به تولید محتوای عمومی، کلمات کلیدی و هشتگ های مرتبط بزنند و یا محتواهای خود را در شبکه های اجتماعی و هشتگ های مرتبط با اهداف برنامه ریزی شده منتشر نمایند تا نوعی پروپاگاندا برای حمایت/تخریب کاندیدا یا جریانی خاص ایجاد شود و مخاطب نیز بدون اینکه بداند همه این جوسازی ها محصول فعالیت یک یا چند دستگاه رباتیک است، اسیر جوسازی ایجاد شده گردیده و به رأی دادن یا ندادن به شخص یا اشخاصی خاص ترغیب می گردد. برای نمونه، بررسی ها نشان می دهد حدود یک پنجم کل توییت های مرتبط با انتخابات ریاست جمهوری 2016 ایالات متحده و یک سوم توییت ها در مورد برگزیت توسط ربات ها ارسال شده بودند. از بیم همین تهدیدها است که در سال های اخیر اسناد راهبردی متعددی از جمله توسط اتحادیه اروپا و همچنین در سطح دو جانبه، در راستای نظام مند ساختن تبلیغات سیاسی در دستور کار قرار گرفته اند، که از این میان می توان به همکاری مشترک فرانسه و کانادا برای گسترش مسئولیت پذیری بین‌المللی هوش مصنوعی و هرچه نزدیک تر ساختن شیوه کار این ابزارها با اصول حقوق بشری، دستورالعمل رفتاری اطلاعات نادرست کمیسیون اروپا سال 2018 و بازنگری آن در سال ۲۰۲۲ با تأکید بر شفافیت تبلیغات سیاسی و آگاه شدن مخاطب از چرایی مخاطب قرار گرفتن در این تبلیغات، برنامه عملیاتی اتحادیه اروپا علیه اطلاعات نادرست- 2020 و برنامه اقدام دموکراسی اروپا- 2020 ، اشاره کرد.

در سال های اخیر گزارش های متعددی از تأثیر ربات های اجتماعی و اخبار جعلی در انتخاب مختلف از جمله همه پرسی خروج از برگزیت در بریتانیا و انتخابات ریاست جمهوری ایالات متحده آمریکا در سال 2016، انتخابات ایالتی 2017 در آلمان، انتخابات ریاست جمهوری 2017 فرانسه، و انتخابات سوئد در سال 2018 مخابره شده است. یکی از معروف ترین این نمونه ها تاثیر الگوریتم های به کار رفته در فیسبوک در انتخابات ریاست جمهوری 2016 ایالات متحده آمریکا است. در این ماجرا که به جنجال سیاسی بزرگی در این کشور تبدیل شد، هوش مصنوعی فیسبوک با کمک داده های مرتبط با یک تست شخصیت شناسی، تبلیغات هر شخص واجد رأی دادن را متناسب با تیپ شخصیتی او به کار می برد، همچنین اخبار و پست‌های نمایش داده شده در صفحه هریک از کاربران به گونه ای طراحی شده بود که اخبار حمایتی از دونالد ترامپ و در مخالفت با هیلاری کلینتون را به صورتی هدفمند و بر اساس علایق کاربران نشان دهد و به صورت غیرمستقیم افراد فاقد تمایل به رأی دادن را برای رأی دهی به ترامپ ترغیب نماید.

تردیدی نیست که دست کاری هایی از قبیل موارد اشاره شده در پاراگراف پیشین، در صورت اثبات اهرمی علیه تحقق ارزش های دموکراتیک و تهدید کننده آن به شمار می روند و در صورتی که مشخص شود دولتی خارجی یک طرف این تبلیغات غیرمستقیم اما هدفمند است، می‌تواند از مصادق نقض اصول مهم و بنیادین حقوق بین الملل همچون عدم مداخله و حق تعیین سرنوشت باشد. ازجمله در انتخابات ایالات متحده، انگشت اتهام به سوی حکومت روسیه و شخص رئیس جمهور این کشور دراز بود و دخالت نهادهای امنیتی، نظامی و همچنین مجالس ایالات متحده و واکنش تند این نهادها را در پی داشت. اهمیت برگزاری انتخابات سالم و بدون حاشیه در تعیین شاخص‌های دموکراسی در حدی است که گزارش سالانه سنجش شاخص‌ دموکراسی اکونومیست در سال 2017، به‌سبب تردیدهای ایجاد شده در خصوص صحت انتخابات ریاست جمهوری 2016 ایالات متحده، سطح دموکراسی این کشور را از دموکراسی کامل به دموکراسی ناقص تنزل داد. اگرچه در این زمینه عموما به دلیل هزینه و تخصص فراوان ، نقش سرویس های اطلاعاتی دولت های خارجی در دستکاری انتخابات پررنگ است و در نتیجه وضع قوانین کیفری فاقد بازدارندگی لازم است، اما برخی ایالات ها نظیر کالیفرنیا با وضع برخی قوانین ایالتی نسبت به ارائه تعریف از ربات ها در فضای مجازی اقدام نموده و فعالیت ربات ها را به صورتی که برای کاربران نامشخص باشد، ممنوع ساخته اند و بر این اساس ربات ها باید با علامت و مشخصاتی خاص، قابل شناسایی باشند.

همچنین استفاده غیر اخلاقی و غیرقانونی از هوش مصنوعی و به ویژه در قالب «جعل عمیق» که برای اولین بار با ویدیویی از باراک اوباما به شهرت رسید، می تواند علاوه بر انتخابات، در برخی بزنگاه ها نظیر روزهای پرتنش جنگ روسیه و اوکراین، بر آتش مخاصمات بیفزاید و چه بسا اگر جعل عمیقی از رئیسان یا مقامات ارشد یکی از این کشورها یا سازمان های ثالثی نظیر اتحادیه اروپا و ایالات متحده در این روزها منتشر شود، پیش از آن که جعلی بودن آن به اثبات برسد، موجب بر زمین ریختن خون انسان های بسیاری گردد. تهدیدی که نیازمندی به تمهیدات لازم نظیر الزام به درج علامت «دیپ فیک» بر روی تصاویری تولیدی از این ابزار در کشور چین، اقدام به شناسایی و حذف ویدیوهای دیپ فیک توسط فیسبوک، توییتر، اینستاگرام و ردیت علی رغم دشواری های عملیِ این اقدام، جرم انگاری دیپ فیک و انعقاد موافقت نامه های بین المللی برای توسعه همکاری بین کشورها برای مقابله با استفاده های غیر مجاز و وضع تحریم های اقتصادی علیه دولت های استفاده کننده از این فناوری برای رفع ایرادات موجود را ضروری می نماید. ( برای بررسی بیشتر این اقدامات برای نمونه نک. به اینجا)

سخن پایانی

در پایان باید توجه داشت، همان گونه که در توصیه نامه اخلاقی یونسکو نیز ذکر شده است، اگرچه استفاده غیراصولی و به دور از مقررات حقوق بین الملل می تواند به تعمیق شکاف و نابرابری ها چه در عرصه داخلی و چه بین المللی منجر شود، اما این ملاحظات و نگرانی ها نباید به سدی در راه توسعه علم و تکنولوژی مبدل گردد، بلکه باید با شناخت دقیق این قبیل نوآوری ها، دست به اقداماتی اساسی برای قانون مند و اخلاقی نمودن آن ها زد. توصیه نامه یونسکو همچنین تأکید می کند که به کارگیری اصول اخلاقی پذیرفته شده بشری از جمله موارد مندرج در منشور ملل متحد، اعلامیه جهانی حقوق بشر و سایر اسناد بین المللی حقوق بشری در زمینه هوش مصنوعی می تواند در کاهش نگرانی ها نسبت به جنبه های اخلاقی هوش مصنوعی راهگشا باشد.

همچنین برخی تمهیدات توسط ارائه دهندگان خدمات آنلاین و همچنین دولت ها نظیر ضابطه مند نمودن و وضع مقرراتی برای تبلیغات سیاسی ـ اجتماعی آنلاین، برخی محدودیت ها برای حساب های کاربری رباتیک و یا ممنوعیت استفاده از آن، برچسب دار و مشخص نمودن نظرات و پست های تبلیغاتی و با خاستگاه غیرانسانی، نظارت بر هرچه بیشتر منطقی شدن تصمیمات اتخاذ شده توسط هوش مصنوعی و افزایش شفافیت در خصوص شیوه کار این ابزار و اطلاع رسانی شفاف به شهروندان در صورت وجود نقص در سیستم های هوش مصنوعی در کنار تصویب اسناد بین المللی برای همکاری در راستای کاهش سوء استفاده از این فناوری، می تواند منجر به کاهش خطرات و نگرانی های ناشی از هوش مصنوعی شده و این فناوری را در هرچه بیشتر همگام شدن با ارزش های دموکراتیک یاری رساند.

با این حال به نظر می رسد در مواردی، هرچه توانایی دولت ها بر کنترل و نظارت بر هوش مصنوعی افزایش یابد، امکان تعرض به ارزش های انسانی و دموکراتیک نیز فزونی می یابد (برای نمونه نک به سیاست چین در قبال هوش مصنوعی در اینجا). بنابراین باتوجه به اینکه به‌ نظر می رسد اعتماد به شرکت ها و اتکا به خود تنظیم گری نیز نتوانسته است توقعات نظارتی در خصوص استفاده از هوش مصنوعی را جبران سازد، جا دارد تا حد ممکن وضع و نظارت بر مقررات از طریق نظام های تنظیم گری غیردولتی و یا مشارکتی صورت بپذیرد و توجه دولت‌ها به‌  تضمین حقوق و حمایت های بنیادین بشری در راستای ارزش های دمکراتیک در طراحی و بکارگیری هوش مصنوعی معطوف گردد.

آخرین مطالب تالار گفتگو

آیین نامه کمیته جوانان انجمن ایرانی مطالعات سازمان ملل متحد



اطلاعات بیشتر