پیمان حکیم زاده خوئی - استادیار و عضو هیات علمی گروه حقوق بین الملل، دانشکده حقوق،الهیات و علوم سیاسی، دانشگاه آزاد اسلامی واحد تبریز، ایران p_hakimzade@iaut.ac.ir
ریحانه دروگری - دانشجوی دوره دکتری حقوق بین الملل عمومی، گروه حقوق، دانشگاه پیام نور، تهران، ایران، مدرس دانشگاه
reyhanederogari89@gmail.com
۱۴۰۱/۰۶/۱۲
در طول قرنها، حقوق مخاصمات مسلحانه در پوششهای مختلف خود، همواره تمرکز خود را بر قاعده مند ساختن درگیری های مسلحانه برای محافظت از قربانیان جنگ معطوف کرده است. از آغازین سالهای قرن نوزدهم و در پاسخ به توسعه فناوری نظامی و آداب و رسوم اجتماعی رایج آن زمان، قواعد مخاصمات مسلحانه شروع به رسمی شدن و بازتاب چارچوبی نموده که امروزه با آن آشنا هستیم (اینجا، ص 271) . یکی از ویژگیهای قابل توجه این چارچوب، انعطاف پذیری تکاملی آن است. این انعطافپذیری اجازه داده است تا این حقوق به گونهای تکامل یابد که با پیشرفتهای صورت گرفته در فنآوری و تاکتیکهای به کار رفته در درگیریهای مسلحانه سازگاری یافته و مجموعه اقداماتی را برای ممنوعیت استفاده از سلاحها و تاکتیکهای خاص در بر گیرد. نکته قابل توجه در این خصوص این مساله است که حقوق مخاصمات مسلحانه انعطافپذیری خود را از طریق اصول تعیینکننده زیربنایی خود نشان داده است. اهم این اصول که عبارتند از: ضرورت نظامی، رعایت معیارهای انسانی، تمایز و تناسب، کیفیتی دیرپا دارند و معیاری را ارائه میدهند که براساس آن میتوان تحولات فناوری و تاکتیکها را از نظر قانونی بودن آنها ارزیابی کرد.(اینجا، ص272)
هوش مصنوعی
هوش به شیوه های مختلفی تعریف شده است. به طور کلی، می توان هوش را یک توانایی ذهنی بسیار کلی دانست که از جمله توانایی استدلال، برنامه ریزی، حل مسائل، تفکر انتزاعی، درک ایده های پیچیده، یادگیری سریع و یادگیری از طریق تجربه را شامل می شود. چنین توانایی از صرف یادگیری یک کتاب یا یک مهارت تحصیلی محدود یا هوشمندی در آزمون فراتر رفته و توانایی گستردهتر و عمیقتر را برای درک محیط پیرامون منعکس میکند؛ همانند درک کردن و معنا کردن چیزها یا پیدا کردن آنچه باید انجام داد. (اینجا، ص13)
هوش مصنوعی به قدرت استدلال و برنامه ریزی در رایانه یا سایر ماشین ها گفته می شود. هوش مصنوعی در مبنا یکی از رشته های علوم رایانه است که به مطالعه و توسعه دستگاه های هوشمند از طریق ارائه الگوریتم مناسب می پردازد تا ماشین ها را قادر به ادراک، استدلال و یادگیری سازد. (اینجا، ص2) این رشته با تحقیق و توسعه نظریهها، روشها، فناوریها و سیستمهای کاربردی برای شبیهسازی و گسترش هوش انسانی بر آن است که ماشینها را قادر به انجام کارهای پیچیدهای کند که معمولاً برای انجام آنها به هوش انسانی نیاز است. البته ناگفته نماند که چنین ماشین هایی ممکن است هوش انسانی را تقلید، تقویت یا جایگزین کنند (اینجا، ص147). هوش مصنوعی را می توان با قابلیت های خاصی دسته بندی کرد، به عنوان مثال هوش مصنوعی ضعیف یا باریک، به هوش مصنوعی اطلاق می شود که می تواند رفتارهای هوشمند خاص انسان ها مانند تشخیص، یادگیری، استدلال و قضاوت را شبیه سازی کند به عبارتی دیگر، هدف هوش مصنوعی ضعیف حل وظایف خاصی مانند تشخیص گفتار، تشخیص تصویر و ترجمه برخی از مطالب خاص است. (اینجا) هوش مصنوعی قوی، به هوش مصنوعی اطلاق می شود که هوشیاری مستقل و توانایی نوآوری مشابه مغز انسان دارد. (اینجا) هوش مصنوعی قوی می تواند فکر کند، برنامه ریزی کند و مشکلات را حل کند و همچنین درگیر تفکر انتزاعی شده، ایده های پیچیده را درک کرده، سریع یاد بگیرد و از تجربیات بیاموزد که در نتیجه آن را به هوش انسانی نزدیکتر می کند. نوع دیگری از هوش مصنوعی ابر هوش مصنوعی است که به هوش مصنوعی آینده اشاره دارد که از نظر توانایی محاسباتی و تفکر از مغز انسان بسیار پیشی خواهد گرفت و بسیار باهوش تر از بهترین مغزهای انسان در هر زمینه ای از جمله خلاقیت علمی، خرد عمومی و ... مهارت های اجتماعی خواهد بود. (اینجا)
کاربرد هوش مصنوعی در مخاصمات مسلحانه
بدون تردید با پیشرفتهای تکنولوژیک در زمینه های مختلف از جمله صنایع نظامی، ماهیت جنگ، بعداز پایان جنگ جهانی دوم به طور قابل توجهی تغییر کرده است. امروزه، به دلیل استفاده از فناوری های جدید، خطوط مقدم نبرد به طور کامل و واضح مشخص نیست. حمله می تواند از طریق پهپادهایی که با چشم قابل رویت نیستند یا با موشک های بالستیک که از فاصله 16 هزار مایلی پرتاب می شوند، انجام شود. (اینجا) با این سرعت تحولات، چه بسا در جنگهای بزرگ بعدی، هوش مصنوعی حاکم اصلی میدان نبرد خواهد بود و رباتهایی که سریعتر، قویتر و دقیقتر هستند، طرف پیروز را تعیین خواهند کرد. هوش مصنوعی با کاربرد روزافزون خود در زمینه نظامی، در حال تبدیل شدن به یک عامل توانمندساز مهم برای اصلاحات نظامی است که الگوهای جدیدی از جنگ را به وجود می آورد و مکانیسم ذاتی پیروزی در جنگ را تغییر می دهد. (اینجا، ص 14) با این حال، چنین جنگهایی میتوانند بیتردید و بیسابقه ویرانگر باشند و شاید این امر منجر به یک فروپاشی فناوری جهانی و نابودی کامل جهان گردد.
به طور کلی، کاربردهای نظامی هوش مصنوعی دو بعد عمده و کلی را پوشش می دهد: نخست، استفاده از هوش مصنوعی در جهت بهبود عملکرد سیستم های تسلیحات سنتی و موجود و دوم، استفاده از هوش مصنوعی برای تصمیمگیری. با این وصف هوش مصنوعی به عنوان یک فناوری پیشرفته با کاربرد دوگانه، کاربرد عمیق و گسترده ای در سیستم ها و تجهیزات تسلیحاتی داشته و مطمئناً در پروژهای نظامی آینده نقش مهمی ایفا خواهند نمود (اینجا).
به طور قطع و یقین در مقایسه با فناوری سنتی، سیستمهای تسلیحاتی مجهز به هوش مصنوعی از مزایای مختلفی مانند داشتن قابلیت مبارزه همه جانبه و قابلیت بقای قویتر در میدان جنگ و همچنین هزینه کمتر برخوردار خواهند بود. (اینجا) یکی از بزرگترین مزیتهای سیستمها و تجهیزات تسلیحاتی مجهز به هوش مصنوعی، سرعت پاسخگویی است که ممکن است از مغز انسان بسیار فراتر رود. (اینجا) به عنوان مثال در یک نبرد هوایی شبیهسازی شده در سال 2016، یک هواپیمای جنگنده F-15 با نرمافزار هوشمند آلفا که توسط دانشگاه سینسیناتی توسعه داده شده بود، یک هواپیمای جنگنده F-22 با خلبان انسانی را شکست داد زیرا این نرمافزار هوشمند میتوانست 250 برابر سریعتر از مغز انسان واکنش نشان دهد.(اینجا) جای شک و تردید نیست که با توسعه فناوریهای هوش مصنوعی، سیستمهای تسلیحاتی هوشمندی که میتوانند به طور مستقل اهداف خود را شناسایی، قفل و ضربه بزنند در حال افزایش هستند و میتوانند دستورهای ساده تصمیمگیری را به جای انسان انجام دهند.
فناوریهای هوش مصنوعی میتوانند برای آگاهی از موقعیت و پردازش اطلاعات هوشمند در میدان جنگ و در سکوهای نظامی بدون سرنشین مانند وسایل نقلیه هوایی خاص و وسایل نقلیه کنترل از راه دور استفاده شوند؛ برای نمونه سیستمهای فرماندهی و کنترل هوشمند توسعهیافته توسط ارتشها میتوانند به تصمیمگیری کمک کرده و ظرفیت ارزیابی هوشمند را بهبود بخشند. (اینجا) کاربرد نظامی هوش مصنوعی همچنین تأثیر زیادی بر سازماندهی نظامی خواهد داشت و این امر پتانسیل تغییر اساسی در آینده مخاصمات را (اینجا، ص11) به عنوان مثال، با استفاده ترکیبی از مهمات با ضربه دقیق، تجهیزات بدون سرنشین و سیستم های اطلاعات شبکه، و تئوری های جنگی هوشمند جدید (اینجا) دارد.
بالطبع این مزیت ها باعث شده که نیروهای نظامی هرچه بیشتر به استفاده از این فناوری متمایل شوند حتی اگر در میان خود آنها مخالفان متعددی در این خصوص وجود داشته باشد. برای مثال، مخالفان خاطر نشان می کنند که اغلب سلاح های خودآیین نمی تواند بین رزمندگان و غیر رزمندگان تمایز قائل شود. نوئل شارکی، یکی از مبارزان پیشرو علیه سلاح های خودآیین (اینجا)، بیان کرده است که آیا یک ربات می تواند بین کودکی که یک بستنی در دست دارد و بزرگسال جوانی که تفنگ در دست دارد، تمایز قائل شود (اینجا). البته استفاده از سیستمهای دارای هوش مصنوعی در حوزههای مورد مناقشه و مسئول قلمداد کردن آنها برای تصمیمگیریهای حیاتی، به احتمال زیاد زمینه را برای نتایج فاجعه بار فراهم خواهد کرد ولی از آنجایی که سلاحهای مجهز به هوش مصنوعی توسط انسان طراحی، تولید، برنامهریزی و به کار گرفته میشوند، عواقب و مسئولیتهای قانونی ناشی از اعمال غیرقانونی و قانونی آنها متوجه انسان است .(اینجا) اصول راهنمای تایید شده توسط گروه کارشناسان در زمینه فناوری های نوظهور در حوزه سیستم سلاح های خودآیین مرگبار نیز اعلام می کند که مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا مسئولیت پذیری نمی تواند به ماشین ها منتقل شود. این مساله، باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود. بدین معنا که علیرغم این که هوش مصنوعی از کاربرد گسترده ای در زمینه نظامی برخوردار است ولی در هر حال سربازان و فرماندهان انسانی بایستی تصمیم گیرندگان نهایی برای حرکت به داخل و خارج از زنجیره عملیات و انجام اقدامات مداخله جویانه باقی بمانند. امری که خود به بزرگترین چالش برای توسعه فناوری مشترک انسان و ماشین تبدیل شده است. (برای مطالعه بیشتر نک برای نمونه به اینجا)
چالش های کاربرد هوش مصنوعی
به مانند سایر فناوری های نوظهور، هوش مصنوعی یک شمشیر دو لبه است و با کاربرد نظامی گستردهتر هوش مصنوعی، مسائل جدیدی ظهور کرده که باعث گسترش نگرانیهادر سراسر جهان شده است. به عنوان مثال، با توجه به اینکه در حوزه مسایل نظامی، پتانسیل هوش مصنوعی در همه زمینه ها (به عنوان مثال زمین، دریا، هوا، فضا و اطلاعات) و همه سطوح جنگ (یعنی سیاسی، استراتژیک، عملیاتی و تاکتیکی) وجود دارد، یکی از چالش های استفاده از هوش مصنوعی در سطوح سیاسی و استراتژیک، آن است که این هوش ممکن است برای بی ثبات کردن حریف با تولید و انتشار مقادیر زیادی اطلاعات جعلی استفاده شود. (اینجا) از آنجا که بسیاری از تجهیزات مجهز به هوش مصنوعی، علاوه بر کارایی بالا به شفافیت بالا، ایمنی بالا و اعتماد یا درک کاربر نیاز دارند، به طور کلی می توان مهم ترین چالشهای موجود در کاربرد هوش مصنوعی را در عرصه نظامی موارد زیر دانست: شفافیت، آسیب پذیری و یادگیری. الزاماتی که در سیستمهای حیاتی ایمنی سیستمهای نظارتی، عوامل مستقل، پزشکی و سایر کاربردهای مشابه نیز، معمول هستند.
شفافیت در کاربرد هوش مصنوعی
با پیشرفت های اخیر در توسعه هوش مصنوعی، علاقه تحقیقاتی به شفافیت برای حمایت از کاربران نهایی در چنین برنامه هایی نیز افزایش یافته است.(اینجا) شفافیت، چالشی است که به دنبال حصول اطمینان از سازگاری عملکرد هوش مصنوعی با الزامات نظامی است؛ اگرچه افزایش سرعت و دقت را می توان به عنوان مزایای بالقوه هوش مصنوعی در عرصه نظامی نام برد، اما همچنان نگرانی های در خصوص قابلیت هایی چون سرعت تصمیم گیری وجود دارد که ممکن است سبب این امر شود که سیستم ها نتوانند با پیچیدگی های اجتناب ناپذیر جنگ، سازگار شوند. در نتیجه، امکان دارد چنین سیستم هایی نتوانند به طور دقیق بین رزمندگان و غیر رزمندگان یا تهدیدها تمایز قائل شوند و در نهایت ممکن است دقت کمتری نسبت به اپراتورهای انسانی داشته باشند (اینجا) و اگر سیستمها قبل از آزمایش کافی فعال شوند یا اگر دشمنان موفق به جعل یا هک کردن آنها شوند، این مشکلات میتوانند تشدید شوند.(اینجا)
آسیب پذیری در کاربرد هوش مصنوعی
این معیار نشان میدهند که چگونه میتوان به طور بالقوه از جعل، استخراج دادهها و آلوده کردن دادههای آموزشی برای سوءاستفاده از آسیبپذیری ها و ایجاد تأثیرات منفی امنیتی نامطلوب استفاده کرد. آسیبپذیریها و خطرات هوش مصنوعی می تواند انواع مختلفی داشته باشد از جمله آسیب پذیری های انسانی. برای نمونه بدون آموزش و بازآموزی نیروی کار جهت مطابقت با سرعت تغییرات فناوری و انواع مختلف تهدیدات، دشمنان هنگام تلاش برای سوء استفاده از آسیبپذیریهای هوش مصنوعی با موانع کمتری مواجه خواهند شد. بنابراین آموزش، خطاهای ناخواسته را کاهش می دهد. (اینجا) برای مثال با توجه به اینکه قابلیتهای هوش مصنوعی دارای کاربردهای غیرنظامی و نظامی می باشد، سیستمهایی که به نیروهای نظامی در برنامهریزی ماموریت و تخصیص منابع کمک میکنند، ممکن است توسط مهاجمان برای شناسایی اهداف آسیبپذیر مورد سوءاستفاده قرار گیرد.
یادگیری ماشینی
توسعه برنامه های کاربردی مبتنی بر یادگیری ماشینی در زمینه نظامی چالش برانگیز است؛ زیرا روش های جمع آوری دادهها در سازمان های نظامی، امکانات آموزشی، پلتفرم ها، شبکه های حسگر و سلاح ها در ابتدا برای اهداف یادگیری ماشینی طراحی نشده بودند. در نتیجه، در این حوزه، یافتن مجموعه دادههای واقعی، با کیفیت و به اندازه کافی بزرگ که بتوان از آنها برای یادگیری و کسب بینش استفاده کرد، اغلب دشوار است.
اصول اخلاقی حاکم بر کاربرد هوش مصنوعی
هوش مصنوعی به سرعت در حال تبدیل شدن به بخشی از جنبه های زندگی در قرن بیست و یکم، از جمله جنگ است و با پیشرفتهتر شدن و فراگیرتر شدن آن، یک سؤال اصلی به طور فزایندهای حیاتی جلوه می کند و آن این است که آیا هوش مصنوعی میتواند اخلاقی باشد؟ بدیهی است که سیستم های مجهز به هوش مصنوعی نمی توانند ارزش های انسانی را درک کنند؛ امری که خود موجد یکی از بزرگترین چالش های هوش مصنوعی از لحاظ اخلاقی است. از این رویکرد، در نظر گرفتن چگونگی ساخت ماشینی برای خودآموزی ارزش های انسانی و اجتناب از خطر و همچنین کدهای اخلاقی هوش مصنوعی باید موضوع اصلی گفتگو مابین دولت ها و سازمانهای مختلف بین المللی باشد. در زمینه نظامی، این چالش اخلاقی بسیار عمیق تر شده و به ویژه مسائلی از قبیل نقض کرامت انسانی در مواجهه با سیستم های تسلیحاتی خودآیین را مطرح می کند. با توجه به اینکه عاملیت انسانی در هدایت مخاصمات صراحتاَ در اسناد حقوق بشردوستانه درج نشده است (برای نمونه نک به اینجا)، تحقیق در مورد اخلاق و امنیت هوش مصنوعی امری ضروری است.
در این راستا، باید تلاشهای مربوطه در حوزه فناوری و جامعه را یکپارچه نمود تا اطمینان حاصل شود که توسعه هوش مصنوعی همچنان برای انسان و طبیعت مفید است. بدیهی است فناوری و پیشرفت آن، الزامات جدیدی را برای کدهای اخلاقی ایجاد خواهد کرد؛ با این حال، با توجه به تفاوت های موجود از لحاظ فرهنگی و مکانی هماهنگی استانداردهای اخلاقی بین کشورها و سازمانهای مختلف بین المللی بسیار مهم است.(اینجا) در آوریل 2019، کمیسیون اروپا یک کد اخلاقی برای هوش مصنوعی منتشر و از راهاندازی مرحله آزمایشی این کد خبر داد و از شرکتها و مؤسسات تحقیقاتی برای آزمایش آن دعوت کرد. در 25 مه 2019، آکادمی هوش مصنوعی پکن اصول هوش مصنوعی پکن را منتشر کرد. به موجب این اسناد، در مرحله تحقیق و توسعه، هوش مصنوعی بایستی تابع منافع کلی نوع بشر بوده و طراحی آن اخلاقی باشد. به منظور جلوگیری از سوء استفاده، در بکارگیری هوش مصنوعی بایستی اطمینان حاصل شود که افراد ذینفع از تأثیر بر حقوق و منافع خود آگاهی و رضایت کامل داشته و از نظر حکمرانی، بایستی در مورد جایگزینی کار انسانی با هوش مصنوعی با احتیاط عمل نمود. (اینجا) توصیه نامه یونسکو در خصوص هوش مصنوعی نیز «با در نظر داشتن این واقعیت که فناوریهای مبتنی بر هوش مصنوعی میتوانند خدمات مفید و قابل توجهی به زندگی بشر ارائه نمایند، به این حقیقت اذعان دارد که کاربرد بیقیدوشرط این تکنولوژی میتواند بنیانهای مبانی اخلاقی و کرامت انسانی را به لرزه بیفکند.» (برای بررسی بیشتر نک به، اینجا)
أصول حقوقی ناظر بر کاربرد هوش مصنوعی در مخاصمات مسلحانه
کاربردهای نظامی فناوریهای جدید و نوظهور اجتنابناپذیر نیستند بلکه گزینه هایی هستند در برابر دولتها که در صورت انتخاب باید در مطابقت با قواعد و مقررات موجود و با در نظر گرفتن پیامدهای بشردوستانه بالقوه آن برای نظامیان و غیرنظامیان با توجه به ملاحظات گستردهتر انسانیت و وجدان عمومی باشند. در حقوق بینالملل بشردوستانه، مفاهیم انسانیت و وجدان عمومی از اصل مارتنز استخراج میشود، اصلی که برای اولین بار در کنوانسیونهای لاهه در سالهای 1899 و 1907 ظاهر شد و بعداً در پروتکلهای الحاقی 1977 به کنوانسیونهای ژنو گنجانده شد و امروزه قاعده عرفی محسوب میشود. (اینجا) این اصل مقرر میدارد که در مواردی که مشمول معاهدات موجود نیست، غیرنظامیان و رزمندگان تحت حمایت و اقتدار اصول حقوق بین الملل برآمده از اصول بشریت و دستورات وجدان عمومی باقی می مانند. در این راستا امروزه اصل مارتنز در تمام حوزه های حقوق بین الملل بشردوستانه قابلیت اعمال دارد.
تصریح بر اعمال این اصل در حیطه کاربرد نظامی هوش مصنوعی از آن جهت اهمیت دارد که انواع و اقسام «روشهای» بکارگیری هوش مصنوعی در جریان مخاصمه و پیامدهای بالقوه آن هنوز به طور کامل شناخته شده نیست.
وقتی صحبت از تسلیحات به میان می آید، ترکیبی از سلاح ها و فناوری هوش مصنوعی به طور فزاینده ای توجه جامعه جهانی را به خود جلب کرده، به ویژه در مورد سلاح های خودآیین. کمیته بینالمللی صلیب سرخ سلاح های خودآیین را به عنوان سلاحهایی تعریف می کند که میتوانند به طور مستقل اهداف را انتخاب کرده و به آنها حمله کنند. (اینجا، ص 1) در زمینه این تسلیحات مسائل متعدد حقوقی و اخلاقی مطرح شده است و جای بحث دارد که آیا چنین سیستمهای تسلیحاتی با عملکردهای یادگیری، استدلال، تصمیمگیری و توانایی عمل مستقل از مداخله انسانی، می توانند در میدانهای نبرد آتی مورد استفاده قرار گیرند یا خیر. (برای اطلاعات بیشتر و موضع کمیته بین المللی صلیب سرخ در مورد این سلاح ها نک به اینجا)
تردیدی نیست که استفاده از این سلاح ها در هر شرایطی باید طبق اصول و قواعد حقوق بین الملل بشردوستانه باشد. پروتکل اول الحاقی به کنوانسیونهای ژنو 1949 مقرر میدارد که دولتها باید به تعهدات خود برای تعیین اینکه آیا استفاده از سلاح، وسیله یا روش جنگی جدید توسط حقوق بین الملل بشردوستانه یا سایر موارد مرتبط و قواعد حقوق بین الملل در برخی یا همه شرایط در زمان تحقیق، توسعه، تملک یا در اختیار گرفتن آن سلاح ممنوع است یا نه، عمل نمایند. (ماده 36 ). به طور خاص، قانونی بودن استفاده از سلاح های جدید باید با استفاده از معیارهای مختلف ارزیابی شود از جمله اینکه :آیا سلاح های جدید توسط کنوانسیونهای بین المللی خاص، مانند کنوانسیون سلاح های شیمیایی، کنوانسیون سلاح های بیولوژیکی یا کنوانسیون برخی از سلاح های متعارف ممنوع هستند یا خیر؟ آیا چنین سلاحهایی طبق ماده 35 پروتکل اول باعث صدمات مضاعف یا رنج غیرضروری یا آسیب گسترده، طولانی مدت و شدید به محیط زیست طبیعی میشوند یا خیر؟ آیا چنین سلاحهایی احتمالاً اثرات حملات کورکورانه را به دنبال دارند یا خیر؟ (بند 5 ماده 51 پروتکل اول) آیا چنین سلاح هایی با اصول انسانیت و ندای وجدان عمومی طبق بند 2 ماده 1 پروتکل اول مطابقت دارد یا خیر؟
در این زمینه لازم به تصریح است که ماهیت یک سلاح متفاوت است از نوع استفاده یا نحوه عملکرد آن در یک وضعیت خاص. چرا که همانگونه که انسان ها دچار خطا و اشتباه می شوند ماشین ها نیز ممکن است دچار خطا و اشتباه شوند هر چند که هوشمند باشند. به دیگر سخن، حتی اگر سلاح هوشمندی در مطابقت با مقتضیات ماده ۳۶ باشد، بازهم ممکن است در عمل در مغایرت با اصول و قواعد حقوق بشردوستانه مورد استفاده قرار گیرد. تصادفی که در آن یک ماشین بدون سرنشین با یک عابر پیاده برخورد می کند، دلیل اصلی ناتوانی هوش مصنوعی در شرایط خاص را روشن می کند. در واقع هنگام تصمیم گیری، هوش مصنوعی بر الگوریتم های داخلی و حجم عظیمی از داده ها تکیه کرده و با پردازش آن به نتیجه گیری خاصی می رسد. برای فراهم کردن زمینه لازم برای تصمیمگیری مناسب هوش مصنوعی، باید ورودیها و خروجیهای کاملاً تعریفشده را تنظیم کرد، اهداف و معیارها را به وضوح تعریف نمود، دستورالعملهای کوتاه و دقیق ارائه داد و زنجیرههای طولانی استدلال را با تکیه بر عقل سلیم حذف کرد، یعنی محیطی تا حد امکان بدون ابهام و قابل پیش بینی ایجاد کرد. (اینجا) مضافا کنترل موثر انسانی بر عملکرد سیستم های تسلیحاتی مجهز به هوش مصنوعی بایستی اعمال شود تا در صورت لزوم، امکان توقف یا تغییر عملکرد سلاح ممکن باشد.
بنابراین انسان ها نباید از خطای سیستمهای هوش مصنوعی به عنوان بهانه ای برای طفره رفتن از مسئولیت های خود استفاده کنند، چرا که این امر با روح و ارزش حقوق سازگار نیست. در هر شرایطی، هدف گیری اشتباهی که توسط سیستم های تسلیحاتی هوش مصنوعی انجام می شود، صرفا مشکل خود سلاح نیست. بنابراین، هنگام استفاده از سیستمهای تسلیحاتی هوش مصنوعی، برنامهنویسان و کاربران نهایی موظفند کلیه اقدامات احتیاطی لازم را اتخاذ نماید تا از عملکرد مطابق با قواعد اساسی حقوق بشردوستانه اطمینان حاصل نمایند. (در خصوص معیار اشتباه در حقوق بین الملل بشردوستانه نک برای نمونه به اینجا)
هدف گیری سیستمهای تسلیحاتی هوش مصنوعی نه تنها ارتباط تنگاتنگی با طراحی و برنامه ریزی آنها دارد، بلکه به محیط و بستری که در آن بکار گرفته می شوند نیز وابسته است. هرچه این تسلیحات استقلال بیشتری داشته باشند، استانداردهای طراحی و برنامه نویسی باید بالاتر باشد تا الزامات حقوق بین الملل بشردوستانه برآورده شود. برای این منظور، جامعه بینالمللی مصراَ دولت ها را تشویق می کند که کنوانسیون جدیدی را در خصوص سلاحهای هوش مصنوعی تصویب نمایند. در چارچوب چنین کنوانسیون جدیدی، می توان استانداردهای طراحی سلاحهای هوش مصنوعی، میزان و شکل کنترل انسانی، هدف های مجاز و گستره استفاده از این سلاح را تدوین نمود. تردیدی نیست که به کارگیری تسلیحات به شیوه ای مغایر با قواعد بین المللی مربوطه، از جمله حقوق بین الملل بشردوستانه ، باید مسئولیت بدنبال داشته باشد. علاوه بر این، دولت ها باید مشاوران حقوقی را نیز برای یاری به طراحان و برنامه نویسان در نظر داشته باشند. در کنار این مسائل دولتها باید در زمینه توسعه قوانین و رویههای ملی خود نیز تلاش نمایند و در این مورد، دولتهایی که در فناوری هوش مصنوعی پیشرفته هستند باید نقشی مهمی ایفا نمایند.
نتیجه گیری
هوش مصنوعی به عنوان یک فناوری توانمندسازی همه منظوره، کاربردهای بالقوه زیادی برای دفاع ملی دارد. استفاده نظامی از هوش مصنوعی احتمالاً به اندازه استفاده نظامی از رایانه یا برق گسترده خواهد بود. هوش مصنوعی احتمالاً بر استراتژی، عملیات، لجستیک، پرسنل، آموزش و هر جنبه دیگر ارتش تأثیر می گذارد. برخی از کاربردهای نظامی خاص هوش مصنوعی می تواند مضر باشد، مانند سلاح های خودآیین مرگبار یا استفاده از هوش مصنوعی در عملیات هسته ای. علاوه بر این، تأثیر هوشمندسازی یا شناخت عملیات نظامی میتواند جنگ را به شیوههای متعددی تغییر دهد. انقلابهای صنعتی اول و دوم بهطور چشمگیری جنگ را تغییر دادند و دامنه و مقیاس تخریبهایی را که میتوانستند سلاحهای عصر صنعتی وارد کنند، افزایش دادند، گرچه سیاست گذاران در آن زمان برای این تغییرات آماده نبودند و نتیجه آن دو جنگ جهانی با جان باختن ده ها میلیون نفر بود. این افزایش مقیاس تخریب ناشی از یک یا دو استفاده ویژه از فناوری صنعتی در جنگ نبود، بلکه بیشتر به دلیل تأثیر عمیق صنعتی شدن بود. انقلابهای صنعتی بسیج تودهای کل جوامع را برای «جنگ کامل» ممکن کرد، زیرا دولتها بهرهوری و کارایی افزایشیافتهای که توسط فناوری صنعتی ممکن شده بود را به اهداف خشونتآمیز تبدیل کردند. تأثیر هوش مصنوعی بر جنگ، به احتمال زیاد شبیه به انقلاب صنعتی است، با تغییرات بیشماری که بهدلیل کاربرد گسترده فناوریهای همهمنظوره، به جای یک فناوری مجزا مانند سلاحهای هستهای ایجاد شد. صنعتیسازی دامنه فیزیکی و مقیاس جنگ را افزایش داد و به ارتش اجازه داد تا ارتشهای بزرگتر و مخربتری را که میتوانستند دورتر و سریعتر حرکت کنند و قدرت شلیک بیشتر و در طیف وسیعتری از حوزهها ارائه کنند، وارد میدان شوند. هوش مصنوعی در حال ایجاد یک انقلاب شناختی است و چالش این است که چگونه این انقلاب شناختی ممکن است جنگ را متحول کند. پیش بینی این امر که آیا هوش مصنوعی به طور کامل جایگزین منابع انسانی خواهد شد و به اصطلاح جنگهای روباتیک پدید میآیند، در حال حاضر بسیار دشوار است. با این حال، باید توجه داشت که شکاف بزرگی بین دولتها از نظر قابلیتهای فناوری هوش مصنوعی وجود دارد و تهیه و استفاده نظامی از چنین قابلیت هایی برای اکثر کشورها هنوز یک هدف دست نیافتنی است.