پیمان حکیم زاده خوئی - استادیار و عضو هیات علمی گروه حقوق بین الملل، دانشکده حقوق،الهیات و علوم سیاسی، دانشگاه آزاد اسلامی واحد تبریز، ایران p_hakimzade@iaut.ac.ir

ریحانه دروگری - دانشجوی دوره دکتری حقوق بین الملل عمومی، گروه حقوق، دانشگاه پیام نور، تهران، ایران، مدرس دانشگاه 

 reyhanederogari89@gmail.com
۱۴۰۱/۰۶/۱۲​

در طول قرن‌ها، حقوق مخاصمات مسلحانه در پوشش‌های مختلف خود، همواره تمرکز خود را بر قاعده مند ساختن درگیری ‌های مسلحانه برای محافظت از قربانیان جنگ معطوف کرده است. از آغازین سالهای قرن نوزدهم و در پاسخ به توسعه فناوری نظامی و آداب و رسوم اجتماعی رایج آن زمان، قواعد مخاصمات مسلحانه شروع به رسمی شدن و بازتاب چارچوبی نموده که امروزه با آن آشنا هستیم (اینجا، ص 271) . یکی از ویژگی­های قابل توجه این چارچوب، انعطاف پذیری تکاملی آن است. این انعطاف‌پذیری اجازه داده است تا این حقوق به گونه‌ای تکامل یابد که با پیشرفت‌های صورت گرفته در فن‌آوری و تاکتیک‌های به کار رفته در درگیری‌های مسلحانه سازگاری یافته و مجموعه اقداماتی را برای ممنوعیت استفاده از سلاح­ها و تاکتیک­های خاص در بر گیرد. نکته قابل توجه در این خصوص این مساله است که حقوق مخاصمات مسلحانه انعطاف­پذیری خود را از طریق اصول تعیین­کننده زیربنایی خود نشان داده است. اهم این اصول که عبارتند از: ضرورت نظامی، رعایت معیارهای انسانی، تمایز و تناسب، کیفیتی دیرپا دارند و معیاری را ارائه می‌دهند که براساس آن می‌توان تحولات فناوری و تاکتیک‌ها را از نظر قانونی بودن آنها ارزیابی کرد.(اینجا، ص272)  

هوش مصنوعی

هوش به شیوه های مختلفی تعریف شده است. به طور کلی، می توان هوش را یک توانایی ذهنی بسیار کلی دانست که از جمله توانایی استدلال، برنامه ریزی، حل مسائل، تفکر انتزاعی، درک ایده های پیچیده، یادگیری سریع و یادگیری از طریق تجربه را شامل می شود. چنین توانایی از صرف یادگیری یک کتاب یا یک مهارت تحصیلی محدود یا هوشمندی در آزمون فراتر رفته و توانایی گسترده‌تر و عمیق‌تر را برای درک محیط پیرامون منعکس می‌کند؛ همانند درک کردن و معنا کردن چیزها یا پیدا کردن آنچه باید انجام داد. (اینجا، ص13)

هوش مصنوعی به قدرت استدلال و برنامه ریزی در رایانه یا سایر ماشین ها گفته می شود. هوش مصنوعی در مبنا یکی از رشته های علوم رایانه است که به مطالعه و توسعه دستگاه های هوشمند از طریق ارائه الگوریتم مناسب می پردازد تا ماشین ها را قادر به ادراک، استدلال و یادگیری سازد. (اینجا، ص2) این رشته با تحقیق و توسعه نظریه‌ها، روش‌ها، فناوری‌ها و سیستم‌های کاربردی برای شبیه‌سازی و گسترش هوش انسانی بر آن است که ماشین‌ها را قادر به انجام کارهای پیچیده‌ای کند که معمولاً برای انجام آنها به هوش انسانی نیاز است. البته ناگفته نماند که چنین ماشین هایی ممکن است هوش انسانی را تقلید، تقویت یا جایگزین کنند (اینجا، ص147). هوش مصنوعی را می توان با قابلیت های خاصی دسته بندی کرد، به عنوان مثال هوش مصنوعی ضعیف یا باریک، به هوش مصنوعی اطلاق می شود که می تواند رفتارهای هوشمند خاص انسان ها مانند تشخیص، یادگیری، استدلال و قضاوت را شبیه سازی کند به عبارتی دیگر، هدف هوش مصنوعی ضعیف حل وظایف خاصی مانند تشخیص گفتار، تشخیص تصویر و ترجمه برخی از مطالب خاص است. (اینجا) هوش مصنوعی قوی، به هوش مصنوعی اطلاق می شود که هوشیاری مستقل و توانایی نوآوری مشابه مغز انسان دارد. (اینجا) هوش مصنوعی قوی می تواند فکر کند، برنامه ریزی کند و مشکلات را حل کند و همچنین درگیر تفکر انتزاعی شده، ایده های پیچیده را درک کرده، سریع یاد بگیرد و از تجربیات بیاموزد که در نتیجه آن را به هوش انسانی نزدیکتر می کند. نوع دیگری از هوش مصنوعی ابر هوش مصنوعی است که به هوش مصنوعی آینده اشاره دارد که از نظر توانایی محاسباتی و تفکر از مغز انسان بسیار پیشی خواهد گرفت و بسیار باهوش تر از بهترین مغزهای انسان در هر زمینه ای از جمله خلاقیت علمی، خرد عمومی و ... مهارت های اجتماعی خواهد بود. (اینجا)

کاربرد هوش مصنوعی در مخاصمات مسلحانه

بدون تردید با پیشرفتهای تکنولوژیک در زمینه های مختلف از جمله صنایع نظامی، ماهیت جنگ، بعداز پایان جنگ جهانی دوم به طور قابل توجهی تغییر کرده است. امروزه، به دلیل استفاده از فناوری های جدید، خطوط مقدم نبرد به طور کامل و واضح مشخص نیست. حمله می تواند از طریق پهپادهایی که با چشم قابل رویت نیستند یا با موشک های بالستیک که از فاصله 16 هزار مایلی پرتاب می شوند، انجام شود. (اینجا) با این سرعت تحولات، چه بسا در جنگهای بزرگ بعدی، هوش مصنوعی حاکم اصلی میدان نبرد خواهد بود و ربات‌هایی که سریع‌تر، قوی‌تر و دقیق‌تر هستند، طرف پیروز را تعیین خواهند کرد. هوش مصنوعی با کاربرد روزافزون خود در زمینه نظامی، در حال تبدیل شدن به یک عامل توانمندساز مهم برای اصلاحات نظامی است که الگوهای جدیدی از جنگ را به وجود می آورد و مکانیسم ذاتی پیروزی در جنگ را تغییر می دهد. (اینجا، ص 14) با این حال، چنین جنگ‌هایی می‌توانند بی‌تردید و بی‌سابقه ویرانگر باشند و شاید این امر منجر به یک فروپاشی فناوری جهانی و نابودی کامل جهان گردد.

به طور کلی، کاربردهای نظامی هوش مصنوعی دو بعد عمده و کلی را پوشش می دهد: نخست، استفاده از هوش مصنوعی در جهت بهبود عملکرد سیستم های تسلیحات سنتی و موجود و دوم، استفاده از هوش مصنوعی برای تصمیم‌گیری. با این وصف هوش مصنوعی به عنوان یک فناوری پیشرفته با کاربرد دوگانه، کاربرد عمیق و گسترده ای در سیستم ها و تجهیزات تسلیحاتی داشته و مطمئناً در پروژهای نظامی آینده نقش مهمی ایفا خواهند نمود (اینجا).

به طور قطع و یقین در مقایسه با فناوری سنتی، سیستم‌های تسلیحاتی مجهز به هوش مصنوعی از مزایای مختلفی مانند داشتن قابلیت مبارزه همه جانبه و قابلیت بقای قویتر در میدان جنگ و همچنین هزینه کمتر برخوردار خواهند بود. (اینجا) یکی از بزرگترین مزیت‌های سیستم‌ها و تجهیزات تسلیحاتی مجهز به هوش مصنوعی، سرعت پاسخگویی است که ممکن است از مغز انسان بسیار فراتر رود. (اینجا) به عنوان مثال در یک نبرد هوایی شبیه‌سازی شده در سال 2016، یک هواپیمای جنگنده F-15 با نرم‌افزار هوشمند آلفا که توسط دانشگاه سینسیناتی توسعه داده شده بود، یک هواپیمای جنگنده F-22 با خلبان انسانی را شکست داد زیرا این نرم‌افزار هوشمند می‌توانست 250 برابر سریع‌تر از مغز انسان واکنش نشان دهد.(اینجا) جای شک و تردید نیست که با توسعه فناوری‌های هوش مصنوعی، سیستم‌های تسلیحاتی هوشمندی که می‌توانند به طور مستقل اهداف خود را شناسایی، قفل و ضربه بزنند در حال افزایش هستند و می‌توانند دستورهای ساده تصمیم‌گیری را به جای انسان انجام دهند.

فناوری‌های هوش مصنوعی می‌توانند برای آگاهی از موقعیت و پردازش اطلاعات هوشمند در میدان جنگ و در سکوهای نظامی بدون سرنشین مانند وسایل نقلیه هوایی خاص و وسایل نقلیه کنترل از راه دور استفاده شوند؛ برای نمونه سیستم‌های فرماندهی و کنترل هوشمند توسعه‌یافته توسط ارتش‌ها می‌توانند به تصمیم‌گیری کمک کرده و ظرفیت ارزیابی هوشمند را بهبود بخشند. (اینجا) کاربرد نظامی هوش مصنوعی همچنین تأثیر زیادی بر سازماندهی نظامی خواهد داشت و این امر پتانسیل تغییر اساسی در آینده مخاصمات را (اینجا، ص11) به عنوان مثال، با استفاده ترکیبی از مهمات با ضربه دقیق، تجهیزات بدون سرنشین و سیستم های اطلاعات شبکه، و تئوری های جنگی هوشمند جدید (اینجا) دارد.

بالطبع این مزیت ها باعث شده که نیروهای نظامی هرچه بیشتر به استفاده از این فناوری متمایل شوند حتی اگر در میان خود آنها مخالفان متعددی در این خصوص وجود داشته باشد. برای مثال، مخالفان خاطر نشان می کنند که اغلب سلاح های خودآیین نمی تواند بین رزمندگان و غیر رزمندگان تمایز قائل شود. نوئل شارکی، یکی از مبارزان پیشرو علیه سلاح های خودآیین (اینجا)، بیان کرده است که آیا یک ربات می تواند بین کودکی که یک بستنی در دست دارد و بزرگسال جوانی که تفنگ در دست دارد، تمایز قائل شود (اینجا). البته استفاده از سیستم‌های دارای هوش مصنوعی در حوزه‌های مورد مناقشه و مسئول قلمداد کردن آنها برای تصمیم‌گیری‌های حیاتی، به احتمال زیاد زمینه را برای نتایج فاجعه ‌بار فراهم خواهد کرد ولی از آنجایی که سلاح‌های مجهز به هوش مصنوعی توسط انسان طراحی، تولید، برنامه‌ریزی و به کار گرفته می‌شوند، عواقب و مسئولیت‌های قانونی ناشی از اعمال غیرقانونی و قانونی آن‌ها متوجه انسان است .(اینجا) اصول راهنمای تایید شده توسط گروه کارشناسان در زمینه فناوری های نوظهور در حوزه سیستم سلاح های خودآیین مرگبار  نیز اعلام می کند که مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا مسئولیت پذیری نمی تواند به ماشین ها منتقل شود. این مساله، باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود. بدین معنا که علیرغم این که هوش مصنوعی از کاربرد گسترده ای در زمینه نظامی برخوردار است ولی در هر حال سربازان و فرماندهان انسانی بایستی تصمیم گیرندگان نهایی برای حرکت به داخل و خارج از زنجیره عملیات و انجام اقدامات مداخله جویانه باقی بمانند. امری که خود به بزرگترین چالش برای توسعه فناوری مشترک انسان و ماشین تبدیل شده است. (برای مطالعه بیشتر نک برای نمونه به اینجا)

چالش های کاربرد هوش مصنوعی

به مانند سایر فناوری های نوظهور، هوش مصنوعی یک شمشیر دو لبه است و با کاربرد نظامی گسترده‌تر هوش مصنوعی، مسائل جدیدی ظهور کرده که باعث گسترش نگرانی‌هادر سراسر جهان شده است. به عنوان مثال، با توجه به اینکه در حوزه مسایل نظامی، پتانسیل هوش مصنوعی در همه زمینه ها (به عنوان مثال زمین، دریا، هوا، فضا و اطلاعات) و همه سطوح جنگ (یعنی سیاسی، استراتژیک، عملیاتی و تاکتیکی) وجود دارد، یکی از چالش های استفاده از هوش مصنوعی در سطوح سیاسی و استراتژیک، آن است که این هوش ممکن است برای بی ثبات کردن حریف با تولید و انتشار مقادیر زیادی اطلاعات جعلی استفاده شود. (اینجا) از آنجا که بسیاری از تجهیزات مجهز به هوش مصنوعی، علاوه بر کارایی بالا به شفافیت بالا، ایمنی بالا و اعتماد یا درک کاربر نیاز دارند، به طور کلی  می توان مهم ترین چالشهای موجود در کاربرد هوش مصنوعی را در عرصه  نظامی موارد زیر دانست: شفافیت، آسیب پذیری و یادگیری. الزاماتی که در سیستم‌های حیاتی ایمنی  سیستم‌های نظارتی، عوامل مستقل، پزشکی  و سایر کاربردهای مشابه نیز، معمول هستند.

شفافیت در کاربرد هوش مصنوعی

با پیشرفت های اخیر در توسعه  هوش مصنوعی، علاقه تحقیقاتی به شفافیت برای حمایت از کاربران نهایی در چنین برنامه هایی نیز افزایش یافته است.(اینجا) شفافیت، چالشی است که به دنبال حصول اطمینان از سازگاری عملکرد هوش مصنوعی با الزامات نظامی است؛ اگرچه افزایش سرعت و دقت را می توان به عنوان مزایای بالقوه هوش مصنوعی در عرصه نظامی نام برد، اما همچنان نگرانی های در خصوص قابلیت هایی چون سرعت تصمیم گیری وجود دارد که ممکن است سبب این امر شود که سیستم ها نتوانند با پیچیدگی های اجتناب ناپذیر جنگ، سازگار شوند. در نتیجه، امکان دارد چنین سیستم هایی نتوانند به طور دقیق بین رزمندگان و غیر رزمندگان یا تهدیدها تمایز قائل شوند و در نهایت ممکن است دقت کمتری نسبت به اپراتورهای انسانی داشته باشند (اینجا) و اگر سیستم‌ها قبل از آزمایش کافی فعال شوند یا اگر دشمنان موفق به جعل یا هک کردن آنها شوند، این مشکلات می‌توانند تشدید شوند.(اینجا)

آسیب پذیری در کاربرد هوش مصنوعی

این معیار نشان می‌دهند که چگونه می‌توان به طور بالقوه از جعل، استخراج داده‌ها و آلوده کردن داده‌های آموزشی برای سوءاستفاده از آسیب‌پذیری ‌ها و ایجاد تأثیرات منفی امنیتی نامطلوب استفاده کرد. آسیب‌پذیری‌ها و خطرات هوش مصنوعی می تواند انواع مختلفی داشته باشد از جمله آسیب پذیری های انسانی. برای نمونه بدون آموزش و بازآموزی نیروی کار جهت مطابقت با سرعت تغییرات فناوری و انواع مختلف تهدیدات، دشمنان هنگام تلاش برای سوء استفاده از آسیب‌پذیری‌های هوش مصنوعی با موانع کمتری مواجه خواهند شد. بنابراین آموزش، خطاهای ناخواسته را کاهش می دهد. (اینجا) برای مثال با توجه به اینکه قابلیت‌های هوش مصنوعی دارای کاربردهای غیرنظامی و نظامی می باشد، سیستم‌هایی که به نیروهای نظامی در برنامه‌ریزی ماموریت و تخصیص منابع کمک می‌کنند، ممکن است توسط مهاجمان برای شناسایی اهداف آسیب‌پذیر مورد سوءاستفاده قرار گیرد.

یادگیری ماشینی

توسعه برنامه های کاربردی مبتنی بر یادگیری ماشینی در زمینه نظامی چالش برانگیز است؛ زیرا روش های جمع آوری داده­ها در سازمان های نظامی، امکانات آموزشی، پلتفرم ها، شبکه های حسگر و سلاح ها در ابتدا برای اهداف یادگیری ماشینی طراحی نشده بودند. در نتیجه، در این حوزه، یافتن مجموعه داده‌های واقعی، با کیفیت و به اندازه کافی بزرگ که بتوان از آنها برای یادگیری و کسب بینش استفاده کرد، اغلب دشوار است.

اصول اخلاقی حاکم بر کاربرد هوش مصنوعی

هوش مصنوعی به سرعت در حال تبدیل شدن به بخشی از جنبه های زندگی در قرن بیست و یکم، از جمله جنگ است و با پیشرفته‌تر شدن و فراگیرتر شدن آن، یک سؤال اصلی به طور فزاینده‌ای حیاتی جلوه می‌ کند و آن این است که آیا هوش مصنوعی می‌تواند اخلاقی باشد؟ بدیهی است که سیستم های مجهز به هوش مصنوعی نمی توانند ارزش های انسانی را درک کنند؛ امری که خود موجد  یکی از بزرگترین چالش های هوش مصنوعی از لحاظ اخلاقی است. از این رویکرد، در نظر گرفتن چگونگی ساخت ماشینی برای خودآموزی ارزش های انسانی و اجتناب از خطر و همچنین کدهای اخلاقی هوش مصنوعی باید موضوع اصلی گفتگو مابین دولت ها و سازمان‌های مختلف بین المللی باشد. در زمینه نظامی، این چالش اخلاقی بسیار عمیق تر شده  و به ویژه مسائلی از قبیل نقض کرامت انسانی در مواجهه با سیستم های تسلیحاتی خودآیین را مطرح می کند. با توجه به اینکه عاملیت انسانی در هدایت مخاصمات صراحتاَ در اسناد حقوق بشردوستانه درج نشده است (برای نمونه نک به اینجا)، تحقیق در مورد اخلاق و امنیت هوش مصنوعی امری ضروری است.

در این راستا، باید تلاش‌های مربوطه در حوزه  فناوری و جامعه را یکپارچه نمود تا اطمینان حاصل شود که توسعه هوش مصنوعی همچنان برای انسان و طبیعت مفید است. بدیهی است فناوری و پیشرفت آن، الزامات جدیدی را برای کدهای اخلاقی ایجاد خواهد کرد؛ با این حال، با توجه به تفاوت های موجود از لحاظ فرهنگی و مکانی هماهنگی استانداردهای اخلاقی بین کشورها و سازمان‌های مختلف بین المللی بسیار مهم است.(اینجا) در آوریل 2019، کمیسیون اروپا یک کد اخلاقی برای هوش مصنوعی منتشر و از راه‌اندازی مرحله آزمایشی این کد خبر داد و از شرکت‌ها و مؤسسات تحقیقاتی برای آزمایش آن دعوت کرد. در 25 مه 2019، آکادمی هوش مصنوعی پکن اصول هوش مصنوعی پکن را منتشر کرد. به موجب این اسناد، در مرحله تحقیق و توسعه، هوش مصنوعی بایستی تابع منافع کلی نوع بشر بوده و طراحی آن اخلاقی باشد. به منظور جلوگیری از سوء استفاده، در بکارگیری هوش مصنوعی بایستی اطمینان حاصل شود که افراد ذینفع از تأثیر بر حقوق و منافع خود آگاهی و رضایت کامل داشته و از نظر حکمرانی، بایستی در مورد جایگزینی کار انسانی با هوش مصنوعی با احتیاط عمل نمود. (اینجا)  توصیه نامه یونسکو در خصوص هوش مصنوعی نیز «با در نظر داشتن این واقعیت که فناوری‌های مبتنی بر هوش مصنوعی می‌توانند خدمات مفید و قابل‌ توجهی به زندگی بشر ارائه نمایند، به این حقیقت اذعان دارد که کاربرد بی‌قیدوشرط این تکنولوژی می‌تواند بنیان‌های مبانی اخلاقی و کرامت انسانی را به لرزه بیفکند.» (برای بررسی بیشتر نک به، اینجا)

أصول حقوقی ناظر بر کاربرد هوش مصنوعی در مخاصمات مسلحانه

کاربردهای نظامی فناوری‌های جدید و نوظهور اجتناب‌ناپذیر نیستند بلکه گزینه هایی هستند در برابر دولت‌ها که در صورت انتخاب باید در  مطابقت با قواعد و مقررات موجود و با در نظر گرفتن پیامدهای بشردوستانه بالقوه آن برای نظامیان و غیرنظامیان با توجه به ملاحظات گسترده‌تر انسانیت و وجدان عمومی باشند. در حقوق بین‌الملل بشردوستانه، مفاهیم انسانیت و وجدان عمومی از اصل مارتنز استخراج می‌شود، اصلی که برای اولین بار در کنوانسیون‌های لاهه در سال‌های 1899 و 1907 ظاهر شد و بعداً در پروتکل‌های الحاقی 1977 به کنوانسیون‌های ژنو گنجانده شد و امروزه قاعده عرفی محسوب می‌شود. (اینجا) این اصل مقرر می‌دارد که در مواردی که مشمول معاهدات موجود نیست، غیرنظامیان و رزمندگان تحت حمایت و اقتدار اصول حقوق بین الملل برآمده از اصول بشریت و دستورات وجدان عمومی باقی می مانند. در این راستا امروزه  اصل مارتنز در تمام حوزه های حقوق بین الملل بشردوستانه قابلیت اعمال دارد.

تصریح بر اعمال این اصل در حیطه کاربرد نظامی هوش مصنوعی از آن جهت اهمیت دارد که انواع و اقسام «روش‌های» بکارگیری هوش مصنوعی در جریان مخاصمه و پیامدهای بالقوه آن هنوز به طور کامل شناخته شده نیست.

وقتی صحبت از تسلیحات به میان می آید، ترکیبی از سلاح ها و فناوری هوش مصنوعی به طور فزاینده ای توجه جامعه جهانی را به خود جلب کرده، به ویژه در مورد سلاح های خودآیین. کمیته بین‌المللی صلیب سرخ سلاح های خودآیین را به عنوان سلاح‌هایی تعریف می کند که می‌توانند به طور مستقل اهداف را انتخاب کرده و به آنها حمله کنند. (اینجا، ص 1) در زمینه این تسلیحات مسائل متعدد حقوقی و اخلاقی مطرح شده است و جای بحث دارد که آیا چنین سیستم‌های تسلیحاتی با عملکردهای یادگیری، استدلال، تصمیم‌گیری و توانایی عمل مستقل از مداخله انسانی، می توانند در میدان‌های نبرد آتی مورد استفاده قرار گیرند یا خیر. (برای اطلاعات بیشتر و موضع کمیته بین المللی صلیب سرخ در مورد این سلاح ها نک به اینجا)  

تردیدی نیست که استفاده از این سلاح ها در هر شرایطی باید طبق اصول و قواعد حقوق بین الملل بشردوستانه باشد. پروتکل اول الحاقی به کنوانسیون‌های ژنو 1949 مقرر می‌دارد که دولت‌ها باید به تعهدات خود برای تعیین اینکه آیا استفاده از سلاح، وسیله یا روش جنگی جدید توسط حقوق بین الملل بشردوستانه یا سایر موارد مرتبط و قواعد حقوق بین الملل در برخی یا همه شرایط در  زمان تحقیق، توسعه، تملک یا در اختیار گرفتن آن سلاح ممنوع است یا نه، عمل نمایند. (ماده 36 ). به طور خاص، قانونی بودن استفاده از سلاح های جدید باید با استفاده از معیارهای مختلف ارزیابی شود از جمله اینکه :آیا سلاح های جدید توسط کنوانسیونهای بین المللی خاص، مانند کنوانسیون سلاح های شیمیایی، کنوانسیون سلاح های بیولوژیکی یا کنوانسیون برخی از سلاح های متعارف ممنوع هستند یا خیر؟ آیا چنین سلاح‌هایی طبق ماده 35 پروتکل اول باعث صدمات مضاعف یا رنج غیرضروری یا آسیب گسترده، طولانی مدت و شدید به محیط زیست طبیعی می‌شوند یا خیر؟ آیا چنین سلاح‌هایی احتمالاً اثرات حملات کورکورانه را به دنبال دارند یا خیر؟ (بند 5 ماده 51 پروتکل اول) آیا چنین سلاح هایی با اصول انسانیت و ندای وجدان عمومی طبق بند 2 ماده 1 پروتکل اول مطابقت دارد یا خیر؟

در این زمینه لازم به تصریح است که ماهیت یک سلاح متفاوت است از نوع استفاده یا نحوه عملکرد آن در یک وضعیت خاص.  چرا که همانگونه که انسان ها دچار خطا و اشتباه می شوند ماشین ها نیز ممکن است دچار خطا و اشتباه شوند هر چند که هوشمند باشند. به دیگر سخن، حتی اگر سلاح هوشمندی در مطابقت با مقتضیات ماده ۳۶ باشد، بازهم ممکن است در عمل در مغایرت با اصول و قواعد حقوق بشردوستانه مورد استفاده قرار گیرد. تصادفی که در آن یک ماشین بدون سرنشین با یک عابر پیاده برخورد می کند، دلیل اصلی ناتوانی هوش مصنوعی در شرایط خاص را روشن می کند. در واقع هنگام تصمیم گیری، هوش مصنوعی بر الگوریتم های داخلی و حجم عظیمی از داده ها تکیه کرده و با پردازش آن به نتیجه گیری خاصی می رسد. برای فراهم کردن زمینه‌ لازم برای تصمیم‌گیری مناسب هوش مصنوعی، باید ورودی‌ها و خروجی‌های کاملاً تعریف‌شده را تنظیم کرد، اهداف و معیارها را به وضوح تعریف نمود، دستورالعمل‌های کوتاه و دقیق ارائه داد و زنجیره‌های طولانی استدلال را با تکیه بر عقل سلیم حذف کرد، یعنی محیطی تا حد امکان بدون ابهام و قابل پیش بینی ایجاد کرد. (اینجا) مضافا کنترل موثر انسانی بر عملکرد سیستم های تسلیحاتی مجهز به هوش مصنوعی بایستی اعمال شود تا در صورت لزوم، امکان توقف یا تغییر عملکرد سلاح ممکن باشد.

 بنابراین انسان ها نباید از خطای سیستمهای هوش مصنوعی به عنوان بهانه ای برای طفره رفتن از مسئولیت های خود استفاده کنند، چرا که این امر با روح و ارزش حقوق سازگار نیست. در هر شرایطی، هدف گیری اشتباهی که توسط سیستم های تسلیحاتی هوش مصنوعی انجام می شود، صرفا مشکل خود سلاح نیست. بنابراین، هنگام استفاده از سیستم‌های تسلیحاتی هوش مصنوعی، برنامه‌نویسان و کاربران نهایی موظفند کلیه اقدامات احتیاطی لازم را اتخاذ نماید تا از عملکرد مطابق با قواعد اساسی حقوق بشردوستانه اطمینان حاصل نمایند. (در خصوص معیار اشتباه در حقوق بین الملل بشردوستانه نک برای نمونه به اینجا)

هدف گیری سیستمهای تسلیحاتی هوش مصنوعی نه تنها ارتباط تنگاتنگی با طراحی و برنامه ریزی آنها دارد، بلکه به محیط و بستری که در آن بکار گرفته می شوند نیز وابسته است. هرچه این تسلیحات استقلال بیشتری داشته باشند، استانداردهای طراحی و برنامه نویسی باید بالاتر باشد تا الزامات حقوق بین الملل بشردوستانه برآورده شود. برای این منظور، جامعه بین‌المللی مصراَ دولت ها را تشویق می کند که کنوانسیون جدیدی را  در خصوص سلاح‌های هوش مصنوعی تصویب نمایند.  در چارچوب چنین کنوانسیون جدیدی، می توان استانداردهای طراحی سلاح‌های هوش مصنوعی، میزان و شکل کنترل انسانی، هدف های مجاز و گستره استفاده از این سلاح را تدوین نمود. تردیدی نیست که به کارگیری تسلیحات به شیوه ای مغایر با قواعد بین المللی مربوطه، از جمله حقوق بین الملل بشردوستانه ، باید مسئولیت بدنبال داشته باشد. علاوه بر این، دولت ها باید مشاوران حقوقی را نیز برای یاری به طراحان و برنامه نویسان در نظر داشته باشند. در کنار این مسائل دولتها باید در زمینه توسعه قوانین و رویه‌های ملی خود نیز تلاش نمایند و در این مورد، دولتهایی که در فناوری هوش مصنوعی پیشرفته هستند باید نقشی مهمی ایفا نمایند.

نتیجه گیری

هوش مصنوعی به عنوان یک فناوری توانمندسازی همه منظوره، کاربردهای بالقوه زیادی برای دفاع ملی دارد. استفاده نظامی از هوش مصنوعی احتمالاً به اندازه استفاده نظامی از رایانه یا برق گسترده خواهد بود. هوش مصنوعی احتمالاً بر استراتژی، عملیات، لجستیک، پرسنل، آموزش و هر جنبه دیگر ارتش تأثیر می گذارد. برخی از کاربردهای نظامی خاص هوش مصنوعی می تواند مضر باشد، مانند سلاح های خودآیین مرگبار یا استفاده از هوش مصنوعی در عملیات هسته ای. علاوه بر این، تأثیر هوشمندسازی یا شناخت عملیات نظامی می‌تواند جنگ را به شیوه‌های متعددی تغییر دهد. انقلاب‌های صنعتی اول و دوم به‌طور چشمگیری جنگ را تغییر دادند و دامنه و مقیاس تخریب‌هایی را که می‌توانستند سلاح‌های عصر صنعتی وارد کنند، افزایش دادند، گرچه سیاست گذاران در آن زمان برای این تغییرات آماده نبودند و نتیجه آن دو جنگ جهانی با جان باختن ده ها میلیون نفر بود. این افزایش مقیاس تخریب ناشی از یک یا دو استفاده ویژه از فناوری صنعتی در جنگ نبود، بلکه بیشتر به دلیل تأثیر عمیق صنعتی شدن بود. انقلاب‌های صنعتی بسیج توده‌ای کل جوامع را برای «جنگ کامل» ممکن کرد، زیرا دولتها بهره‌وری و کارایی افزایش‌یافته‌ای که توسط فناوری صنعتی ممکن شده بود را به اهداف خشونت‌آمیز تبدیل کردند. تأثیر هوش مصنوعی بر جنگ، به احتمال زیاد شبیه به انقلاب صنعتی است، با تغییرات بی‌شماری که به‌دلیل کاربرد گسترده فناوری‌های همه‌منظوره، به جای یک فناوری مجزا مانند سلاح‌های هسته‌ای ایجاد شد. صنعتی‌سازی دامنه فیزیکی و مقیاس جنگ را افزایش داد و به ارتش اجازه داد تا ارتش‌های بزرگ‌تر و مخرب‌تری را که می‌توانستند دورتر و سریع‌تر حرکت کنند و قدرت شلیک بیشتر و در طیف وسیع‌تری از حوزه‌ها ارائه کنند، وارد میدان شوند. هوش مصنوعی در حال ایجاد یک انقلاب شناختی است و چالش این است که چگونه این انقلاب شناختی ممکن است جنگ را متحول کند. پیش بینی این امر که آیا هوش مصنوعی به طور کامل جایگزین منابع انسانی خواهد شد و به اصطلاح جنگ‌های روباتیک پدید می‌آیند، در حال حاضر بسیار دشوار است. با این حال، باید توجه داشت که شکاف بزرگی بین دولتها از نظر قابلیت‌های فناوری هوش مصنوعی وجود دارد و تهیه و استفاده نظامی از چنین قابلیت هایی برای اکثر کشورها هنوز یک هدف دست نیافتنی است.

آخرین مطالب تالار گفتگو

آیین نامه کمیته جوانان انجمن ایرانی مطالعات سازمان ملل متحد



اطلاعات بیشتر