مبینا مهدوی - دانشجوی کارشناسی ارشد حقوق کیفری و جرم شناسی
۱۴۰۴/۱۰/۰۶

با گسترش روزافزون کاربرد هوش مصنوعی در بازارهای مالی، از معاملات الگوریتمی گرفته تا مدیریت ریسک و شناسایی تقلب، این فناوری فرصت‌های بی‌شماری را برای افزایش کارایی و دقت فراهم آورده است. با این حال، ظهور سیستم‌های خودکار چالش‌های عمیقی را در حوزه جرم‌شناسی و حقوق کیفری ایجاد کرده است، به‌ویژه در زمینه اثبات قصد مجرمانه و تعیین مسئولیت کیفری در صورت وقوع جرایم مالی. این مقاله با هدف کاوش ابعاد این چالش‌ها، به بررسی ماهیت پیچیده هوش مصنوعی در محیط‌های مالی و پیامدهای آن برای مفاهیم سنتی حقوق کیفری می‌پردازد. روش تحقیق، توصیفی-تحلیلی و مبتنی بر مطالعه منابع کتابخانه‌ای و مقالات علمی است که رویکردهای مختلف حقوقی و جرم‌شناختی را در قبال پدیده‌ هوش مصنوعی بررسی می‌کنند.

یافته‌ها نشان می‌دهد که فقدان خودآگاهی و اراده در سیستم‌های هوش مصنوعی، مانع جدی برای انتساب قصد مجرمانه به آنهاست و چارچوب‌های سنتی مسئولیت کیفری، که بر محوریت انسان استوارند، در مواجهه با اعمال خودمختار این سیستم‌ها ناکارآمد به نظر می‌رسند. در نتیجه، این مقاله استدلال می‌کند که برای پر کردن "خلأ مسئولیت" موجود، بازنگری در اصول حقوقی و حرکت به سمت الگوهای مسئولیت مبتنی بر ریسک، مسئولیت جمعی، یا تعریف مجدد نقش طراحان، توسعه‌دهندگان و کاربران در قالب یک چهارچوب قانونی نوین، برای تضمین عدالت و امنیت در عصر دیجیتال، ضروری است.

پیشرفت‌های خیره‌کننده در حوزه هوش مصنوعی و یادگیری ماشین تغییرات بنیادینی در صنایع مختلف ایجاد کرده است. بازارهای مالی، به‌عنوان یکی از پویاترین و پیچیده‌ترین اکوسیستم‌ها، به سرعت این فناوری‌ها را برای بهینه‌سازی فرآیندها، افزایش سرعت معاملات، بهبود مدیریت ریسک و کشف تقلب به کار گرفته‌اند. سیستم‌های معاملاتی الگوریتمی و ربات‌های مشاور مالی اکنون بخش قابل توجهی از فعالیت‌های بازار را هدایت می‌کنند و حجم عظیمی از داده‌ها را با سرعتی بی‌سابقه پردازش کرده و تصمیمات مالی را اتخاذ می‌کنند.

این تحولات، در کنار مزایای فراوان، ابعاد جدیدی از جرایم مالی را نیز به منصه ظهور رسانده است، که در آن سیستم‌های خودکار ممکن است به طور مستقیم یا غیرمستقیم در ارتکاب اعمال مجرمانه نقش داشته باشند.

ابعاد مسئله موردنظر در این مقاله، شامل پیچیدگی فزاینده جرایم مالی ناشی از هوش مصنوعی و چالش‌های بی‌سابقه‌ای است که این جرایم برای نظام حقوق کیفری به وجود می‌آورند. با توجه به ماهیت خودمختار و بعضاً غیرقابل پیش‌بینی الگوریتم‌های هوش مصنوعی، تعیین اینکه چه کسی مسئول اعمال مجرمانه است و چگونه می‌توان قصد مجرمانه را در یک عامل غیرانسانی احراز کرد، به یکی از معضلات حقوقی تبدیل شده است. این وضعیت، مفاهیم بنیادی حقوق کیفری مانند "عنصر معنوی" و "مسئولیت کیفری" را به چالش می‌کشد و نیازمند بازنگری عمیق در ساختارهای قانونی موجود است.

چالش‌های موضوع حاضر چندوجهی هستند. نخست، فقدان خودآگاهی و اراده در هوش مصنوعی، اثبات قصد مجرمانه را دشوار می‌سازد. سیستم‌های هوش مصنوعی، برخلاف انسان‌ها، قادر به داشتن نیت، احساسات، یا درک اخلاقی به معنای انسانی نیستند. این امر، اعمال مفاهیمی چون "سوءنیت"، "تقصیر" یا "بی‌احتیاطی" را بر هوش مصنوعی ناممکن می‌سازد.

دوم، مشکل "جعبه سیاه"، که به عدم شفافیت در نحوه تصمیم‌گیری برخی الگوریتم‌های پیچیده هوش مصنوعی اشاره دارد و پیگیری و تحلیل اعمال مجرمانه را حتی برای توسعه‌دهندگان آنها نیز دشوار می‌کند. این عدم شفافیت، مانعی جدی در فرایند اثبات قضایی و محاکمه ایجاد می‌کند.

سوم، توزیع مسئولیت در زنجیره‌ تولید و استفاده از هوش مصنوعی، از طراح و توسعه‌دهنده گرفته تا کاربر و اپراتور، پیچیدگی‌های خاص خود را دارد. تعیین اینکه کدام یک از این اشخاص، در صورت وقوع جرم توسط هوش مصنوعی، باید مسئول شناخته شود، نیازمند چارچوب‌های قانونی جدید و مشخصی است.

اهمیت پرداختن به این موضوع، از آنجا ناشی می‌شود که نه‌تنها سلامت و اعتبار بازارهای مالی را تحت تأثیر قرار می‌دهد، بلکه عدالت کیفری و امنیت عمومی را در عصر دیجیتال نیز تضمین می‌کند. بدون چهارچوب‌های قانونی کارآمد، ممکن است "خلاء مسئولیت" ایجاد شود که در آن جرایم رخ می‌دهند اما هیچ‌کس به‌طور قانونی پاسخگو نیست. این وضعیت نه تنها به مجرمان هوش مصنوعی جسارت می‌بخشد، بلکه حقوق بزه‌دیدگان را نیز تضییع می‌کند. بنابراین، کاوش در چالش‌های اثبات قصد مجرمانه و مسئولیت کیفری سیستم‌های خودکار در بازارهای مالی، برای تدوین قوانین پیشگیرانه و واکنشی مؤثر، حیاتی است.

هوش مصنوعی در بازارهای مالی: پتانسیل‌ها، ریسک‌ها و جرایم نوین

هوش مصنوعی به سرعت در حال تبدیل شدن به ستون فقرات عملیات نوین در بازارهای مالی است و دامنه کاربردهای آن از تجزیه و تحلیل پیش‌بینی‌کننده تا اتوماسیون فرآیندهای پیچیده گسترش یافته است. شرکت‌های مالی از الگوریتم‌های هوش مصنوعی برای پیش‌بینی روندهای بازار، مدیریت ریسک سرمایه‌گذاری‌ها و خودکارسازی معاملات با سرعت و دقت بی‌سابقه استفاده می‌کنند.

معاملات الگوریتمی که توسط هوش مصنوعی هدایت می‌شوند، بخش قابل توجهی از حجم معاملات بازار سهام جهانی را تشکیل می‌دهند و به سرمایه‌گذاران امکان می‌دهند تا با حذف احساسات انسانی، تصمیمات عینی و منطقی‌تری اتخاذ کنند. همچنین، هوش مصنوعی در تحلیل احساسات بازار از طریق بررسی اخبار، شبکه‌های اجتماعی و نظرات عمومی، به شناسایی الگوهای رفتاری و پیش‌بینی نوسانات کوتاه‌مدت بازار کمک شایانی می‌کند. در حوزه مدیریت ریسک، سیستم‌های هوش مصنوعی با شناسایی همبستگی‌های پیچیده میان دارایی‌ها و پیش‌بینی رویدادهای نادر، استراتژی‌های بهینه‌تری برای کاهش زیان‌های مالی ارائه می‌دهند. علاوه بر این، در تشخیص تقلب و امنیت مالی، الگوریتم‌های هوش مصنوعی می‌توانند به سرعت الگوهای غیرعادی و فعالیت‌های مشکوک را شناسایی کرده و هشدار دهند که این امر در حفظ سلامت بازار و اعتماد سرمایه‌گذاران نقش حیاتی دارد.

با این حال، گسترش هوش مصنوعی در بازارهای مالی با خطرات قابل توجهی نیز همراه است. یکی از مهم‌ترین این خطرات، پتانسیل سوءاستفاده از این فناوری برای ارتکاب جرایم مالی پیچیده است. معاملات الگوریتمی، در حالی که می‌توانند کارایی را افزایش دهند، در صورت طراحی نادرست یا بهره‌برداری مخرب، می‌توانند به سرعت منجر به نوسانات شدید بازار (مانند "دوشنبه سیاه" سال 1987 که تا حدی به معاملات برنامه‌ای نسبت داده شد) و دستکاری بازار شوند. هوش مصنوعی همچنین می‌تواند ابزاری قدرتمند برای کلاهبرداری الگوریتمی باشد؛ نرم‌افزارهای هوشمند می‌توانند پیام‌های فیشینگ بسیار دقیق‌تری تولید کرده یا در بازارهای مالی دست‌کاری انجام دهند. جعل صوتی و تصویری دیجیتال، با تولید ویدیوها یا صداهای جعلی از افراد با استفاده از هوش مصنوعی، می‌توانند برای بی‌اعتبارسازی، اخاذی یا فریب در تراکنش‌های مالی مورد سوءاستفاده قرار گیرند. علاوه بر این، هوش مصنوعی می‌تواند در جرایم سایبری پیشرفته نقش داشته باشد. الگوریتم‌های خودآموز می‌توانند برای هک و نفوذ سایبری به سیستم‌های مالی، ایجاد بدافزرهای پیچیده یا اجرای حملات انکار سرویس استفاده شوند. این حملات می‌توانند به سرقت اطلاعات، اختلال در عملکرد بازارها یا خسارات مالی گسترده منجر شوند.

در زمینه پولشویی و تامین مالی تروریسم نیز، در حالی که هوش مصنوعی ابزاری برای کشف این جرایم است، مجرمان نیز ممکن است از قابلیت‌های هوش مصنوعی برای پنهان‌سازی ردپای مالی خود در شبکه‌های پیچیده و حجم انبوهی از تراکنش‌ها استفاده کنند.

فقدان شفافیت در نحوه عملکرد برخی از این سیستم‌ها، که به "مشکل جعبه سیاه" معروف است، نظارت بر رفتار آنها و شناسایی مسئولیت در صورت بروز خطا یا فعالیت مجرمانه را دشوار می‌کند. این چالش‌ها، نیاز به یک چارچوب حقوقی و اخلاقی قوی را برای اطمینان از استفاده مسئولانه و ایمن از هوش مصنوعی در بازارهای مالی برجسته می‌سازد.

چالش‌های حقوقی و جرم‌شناختی: قصد مجرمانه و مسئولیت کیفری سیستم‌های خودکار

یکی از بنیادی‌ترین چالش‌ها در جرم‌شناسی هوش مصنوعی در بازارهای مالی، مفهوم "قصد مجرمانه" یا "عنصر معنوی جرم" است. در نظام‌های حقوق کیفری سنتی، برای اثبات بسیاری از جرایم، وجود یک حالت ذهنی مجرمانه (مانند قصد، علم، بی‌احتیاطی یا تقصیر) در مرتکب ضروری است. با این حال، اعمال این مفهوم به سیستم‌های هوش مصنوعی، که فاقد خودآگاهی، احساسات، و ظرفیت اراده یا نیت انسانی هستند، تقریباً غیرممکن است. هوش مصنوعی بر اساس الگوریتم‌ها، مدل‌های احتمالی و قوانین برنامه‌ریزی شده عمل می‌کند و درک ذهنی از اعمال خود یا نتایج آنها ندارد.

این موضوع، سوالات اساسی را مطرح می‌کند: آیا می‌توان سیستمی را که "قصد" به معنای انسانی ندارد، مجرم دانست؟ در مواردی که یک الگوریتم معاملاتی خودکار، بدون دخالت مستقیم انسانی، منجر به دستکاری بازار یا کلاهبرداری می‌شود، چگونه می‌توان قصد مجرمانه را به آن نسبت داد؟ مشکل "جعبه سیاه" در اینجا نیز اهمیت پیدا می‌کند؛ از آنجا که حتی توسعه‌دهندگان ممکن است نتوانند دقیقاً توضیح دهند که چگونه یک سیستم هوش مصنوعی به یک تصمیم خاص رسیده است، اثبات نیت یا حتی بی‌احتیاطی در فرآیند طراحی یا عملیات آن دشوارتر می‌شود. این عدم شفافیت، یک چالش بزرگ در دادگاه‌ها ایجاد می‌کند، زیرا وکیل مدافع می‌تواند صحت عملکرد دستگاه و نحوه رسیدن آن به یک نتیجه مجرمانه را به چالش بکشد و شرکت توسعه‌دهنده ممکن است تمایلی به افشای اطلاعات اختصاصی خود نداشته باشد.

مسئولیت کیفری سیستم‌های خودکار و هوش مصنوعی در بازارهای مالی، یکی از پیچیده‌ترین مسائل حقوقی در دوران معاصر است. چارچوب‌های سنتی حقوق کیفری عمدتاً بر "شخص محور" بودن مسئولیت استوارند و انتساب جرم به یک عامل غیرانسانی را با موانع جدی روبرو می‌سازند. وقتی یک سیستم هوش مصنوعی، به طور مستقل یا با حداقل دخالت انسانی، مرتکب عملی مجرمانه در بازار مالی می‌شود، سوال اساسی این است که چه کسی باید پاسخگو باشد؟ آیا می‌توان خود هوش مصنوعی را مسئول دانست؟ آیا سازنده، برنامه‌ریز، مالک یا کاربر آن سیستم، مسئولیت کیفری دارد؟

دیدگاه غالب حقوقی این است که هوش مصنوعی در جایگاه "اموال" قرار دارد و نمی‌توان آن را به دلیل فقدان اراده، خودآگاهی و توانایی درک مجازات، مستقلاً مسئول کیفری دانست. از این رو، اجرای مجازات‌هایی مانند حبس یا جزای نقدی بر یک سیستم نرم‌افزاری امکان‌پذیر نیست. در این شرایط، چند مدل برای انتساب مسئولیت مورد بحث قرار گرفته است: مسئولیت طراحان و سازندگان، که بر نقص در طراحی یا برنامه‌نویسی تمرکز دارد؛ مسئولیت کاربران یا اپراتورها، که بر اساس سطح کنترل و نظارت انسانی تعریف می‌شود؛ و مسئولیت شرکت‌ها، که می‌تواند برای پوشش جرایم ناشی از هوش مصنوعی گسترش یابد.

نیاز به اصلاحات قانونی و راهکارهای آینده

چهارچوب‌های قانونی موجود در بسیاری از کشورها برای مقابله با جرایم مالی سنتی طراحی شده‌اند و در مواجهه با پیچیدگی‌های ناشی از هوش مصنوعی، با کاستی‌های جدی روبرو هستند. این قوانین اغلب "انسان‌محور" هستند و نمی‌توانند به‌خوبی به سوالات مربوط به قصد مجرمانه و مسئولیت کیفری سیستم‌های خودمختار پاسخ دهند. فقدان تعاریف مشخص برای "عامل مجازی"، "رفتار الگوریتمی خطرناک" و "نهادهای هوش مصنوعی مسئولیت‌پذیر" در حقوق کیفری، از جمله این کاستی‌هاست.

برخی نظریه‌ها، به‌ویژه در اتحادیه اروپا، پیشنهاد کرده‌اند که هوش مصنوعی می‌تواند به عنوان یک "شخصیت حقوقی الکترونیکی" شناخته شود. اما این ایده با تردیدهای زیادی مواجه شده و در حال حاضر رد شده است. زیرا اعطای شخصیت حقوقی به ماشین‌ها بسیار پیچیده و فراتر از چارچوب‌های فعلی است.

نظام حقوقی ایران، همانند بسیاری از کشورهای دیگر، مسئولیت کیفری صریحی برای هوش مصنوعی در قوانین پیش‌بینی نکرده است. این وضعیت، به وضوح ضرورت بازنگری در مفاهیم بنیادی حقوق کیفری و تدوین قوانین جدید متناسب با واقعیت‌های عصر هوش مصنوعی را آشکار می‌سازد.

در ایالات متحده، بریتانیا و اتحادیه اروپا، تحلیل‌های حقوقی نشان‌دهنده محدودیت‌های مقررات فعلی در پاسخگویی به توسعه‌دهندگان هوش مصنوعی، موسسات مالی یا نهادهای شرکتی برای جرایم مالی ناشی از هوش مصنوعی است. قوانین مربوط به تقلب و سوءاستفاده از بازار، غالباً بر اثبات نیت انسانی متکی هستند، که در مورد سیستم‌های هوش مصنوعی فاقد ذهن و اراده، مشکل‌ساز می‌شود.

در پاسخ به این چالش‌ها، نیاز به اصلاحات قانونی و تدوین چارچوب‌های حقوقی نوین احساس می‌شود. راه‌حل‌ها ممکن است شامل انتقال کانون توجه از "قصد مجرمانه" به "مسئولیت مبتنی بر ریسک" باشد، که در آن، افرادی که فناوری‌های پرخطر هوش مصنوعی را ایجاد و عرضه می‌کنند، مسئول پیامدهای آن شناخته شوند، حتی اگر نیت مجرمانه‌ای در کار نباشد.

این اصلاحات باید چندین جنبه را پوشش دهند:

گسترش مفاهیم مسئولیت فراتر از نیت مستقیم، شامل مسئولیت مبتنی بر ریسک و مسئولیت جمعی؛ ایجاد یک رویکرد تنظیم‌گری مبتنی بر ریسک، مانند قانون هوش مصنوعی اتحادیه اروپا، که سیستم‌های هوش مصنوعی را بر اساس سطح ریسکشان طبقه‌بندی کرده و برای سیستم‌های با ریسک بالا (مانند آنهایی که در بازارهای مالی به کار می‌روند) الزامات سخت‌گیرانه‌تری از جمله ارزیابی انطباق، نظارت انسانی، و مدیریت ریسک وضع می‌کند؛ الزام به شفافیت و قابلیت توضیح در الگوریتم‌های هوش مصنوعی، به ویژه برای سیستم‌هایی که در تصمیم‌گیری‌های حساس مالی نقش دارند، برای کمک به شناسایی علت اعمال مجرمانه و انتساب مسئولیت؛ ایجاد نهادهای نظارتی تخصصی با دانش فنی کافی برای نظارت بر عملکرد سیستم‌های هوش مصنوعی در بازارهای مالی و تدوین استانداردهای فنی و اخلاقی؛

و در نهایت، با توجه به ماهیت فراملی بازارهای مالی و فناوری هوش مصنوعی، همکاری‌های بین‌المللی برای هماهنگ‌سازی قوانین و رویکردهای تنظیم‌گری ضروری است.

تبادل استراتژی‌های نظارتی، بینش‌های نظارتی، استانداردهای فنی و داده‌های مربوط به حوادث هوش مصنوعی در خدمات مالی، و همچنین همکاری بین نهادهای بین‌المللی می‌تواند به ایجاد رویکردی متوازن که نوآوری را تشویق کرده و در عین حال ثبات سیستم مالی را حفظ کند، کمک شایانی نماید.   

دستاورد

هوش مصنوعی با نفوذ عمیق خود در بازارهای مالی، گرچه مزایای بی‌شماری در افزایش کارایی، سرعت و دقت به ارمغان آورده، اما همزمان چالش‌های بی‌سابقه‌ای را برای جرم‌شناسی و نظام حقوق کیفری ایجاد کرده است. اصلی‌ترین این چالش‌ها، ناتوانی در اثبات "قصد مجرمانه" به دلیل فقدان خودآگاهی و اراده انسانی در سیستم‌های هوش مصنوعی، و به تبع آن، ابهام در تعیین "مسئولیت کیفری" برای اعمال مجرمانه ناشی از این سیستم‌های خودکار است. "مشکل جعبه سیاه " و توزیع پیچیده مسئولیت در زنجیره طراحی تا کاربرد هوش مصنوعی، این معضلات را تشدید می‌کند.

برای مقابله با این "خلأ مسئولیت" و  تضمین عدالت در عصر دیجیتال، اصلاحات بنیادین در چهارچوب‌های قانونی فعلی ضروری است. این اصلاحات باید شامل گذار از پارادایم مسئولیت "شخص‌محور" به الگوهای "مسئولیت مبتنی بر ریسک"، تعریف دقیق مفاهیم نوین حقوقی مرتبط با هوش مصنوعی، افزایش شفافیت و قابلیت توضیح‌پذیری الگوریتم‌ها، و ایجاد نهادهای نظارتی تخصصی باشد. تنها با تدوین و اجرای چنین چارچوب‌های جامع و منعطفی است که می‌توان از مزایای هوش مصنوعی در بازارهای مالی بهره‌مند شد و همزمان از جامعه در برابر اشکال نوین جرایم مالی محافظت کرد. این تحولات نیازمند همکاری مستمر میان متخصصان حقوق، جرم‌شناسی، فناوری و سیاست‌گذاران در سطوح ملی و بین‌المللی است تا آینده‌ای ایمن‌تر و عادلانه‌تر در مواجهه با هوش مصنوعی رقم بخورد.

 

آخرین مطالب تالار گفتگو

آیین نامه کمیته جوانان انجمن ایرانی مطالعات سازمان ملل متحد



اطلاعات بیشتر