
مبینا مهدوی - دانشجوی کارشناسی ارشد حقوق کیفری و جرم شناسی
۱۴۰۴/۱۰/۰۶
با گسترش روزافزون کاربرد هوش مصنوعی در بازارهای مالی، از معاملات الگوریتمی گرفته تا مدیریت ریسک و شناسایی تقلب، این فناوری فرصتهای بیشماری را برای افزایش کارایی و دقت فراهم آورده است. با این حال، ظهور سیستمهای خودکار چالشهای عمیقی را در حوزه جرمشناسی و حقوق کیفری ایجاد کرده است، بهویژه در زمینه اثبات قصد مجرمانه و تعیین مسئولیت کیفری در صورت وقوع جرایم مالی. این مقاله با هدف کاوش ابعاد این چالشها، به بررسی ماهیت پیچیده هوش مصنوعی در محیطهای مالی و پیامدهای آن برای مفاهیم سنتی حقوق کیفری میپردازد. روش تحقیق، توصیفی-تحلیلی و مبتنی بر مطالعه منابع کتابخانهای و مقالات علمی است که رویکردهای مختلف حقوقی و جرمشناختی را در قبال پدیده هوش مصنوعی بررسی میکنند.
یافتهها نشان میدهد که فقدان خودآگاهی و اراده در سیستمهای هوش مصنوعی، مانع جدی برای انتساب قصد مجرمانه به آنهاست و چارچوبهای سنتی مسئولیت کیفری، که بر محوریت انسان استوارند، در مواجهه با اعمال خودمختار این سیستمها ناکارآمد به نظر میرسند. در نتیجه، این مقاله استدلال میکند که برای پر کردن "خلأ مسئولیت" موجود، بازنگری در اصول حقوقی و حرکت به سمت الگوهای مسئولیت مبتنی بر ریسک، مسئولیت جمعی، یا تعریف مجدد نقش طراحان، توسعهدهندگان و کاربران در قالب یک چهارچوب قانونی نوین، برای تضمین عدالت و امنیت در عصر دیجیتال، ضروری است.
پیشرفتهای خیرهکننده در حوزه هوش مصنوعی و یادگیری ماشین تغییرات بنیادینی در صنایع مختلف ایجاد کرده است. بازارهای مالی، بهعنوان یکی از پویاترین و پیچیدهترین اکوسیستمها، به سرعت این فناوریها را برای بهینهسازی فرآیندها، افزایش سرعت معاملات، بهبود مدیریت ریسک و کشف تقلب به کار گرفتهاند. سیستمهای معاملاتی الگوریتمی و رباتهای مشاور مالی اکنون بخش قابل توجهی از فعالیتهای بازار را هدایت میکنند و حجم عظیمی از دادهها را با سرعتی بیسابقه پردازش کرده و تصمیمات مالی را اتخاذ میکنند.
این تحولات، در کنار مزایای فراوان، ابعاد جدیدی از جرایم مالی را نیز به منصه ظهور رسانده است، که در آن سیستمهای خودکار ممکن است به طور مستقیم یا غیرمستقیم در ارتکاب اعمال مجرمانه نقش داشته باشند.
ابعاد مسئله موردنظر در این مقاله، شامل پیچیدگی فزاینده جرایم مالی ناشی از هوش مصنوعی و چالشهای بیسابقهای است که این جرایم برای نظام حقوق کیفری به وجود میآورند. با توجه به ماهیت خودمختار و بعضاً غیرقابل پیشبینی الگوریتمهای هوش مصنوعی، تعیین اینکه چه کسی مسئول اعمال مجرمانه است و چگونه میتوان قصد مجرمانه را در یک عامل غیرانسانی احراز کرد، به یکی از معضلات حقوقی تبدیل شده است. این وضعیت، مفاهیم بنیادی حقوق کیفری مانند "عنصر معنوی" و "مسئولیت کیفری" را به چالش میکشد و نیازمند بازنگری عمیق در ساختارهای قانونی موجود است.
چالشهای موضوع حاضر چندوجهی هستند. نخست، فقدان خودآگاهی و اراده در هوش مصنوعی، اثبات قصد مجرمانه را دشوار میسازد. سیستمهای هوش مصنوعی، برخلاف انسانها، قادر به داشتن نیت، احساسات، یا درک اخلاقی به معنای انسانی نیستند. این امر، اعمال مفاهیمی چون "سوءنیت"، "تقصیر" یا "بیاحتیاطی" را بر هوش مصنوعی ناممکن میسازد.
دوم، مشکل "جعبه سیاه"، که به عدم شفافیت در نحوه تصمیمگیری برخی الگوریتمهای پیچیده هوش مصنوعی اشاره دارد و پیگیری و تحلیل اعمال مجرمانه را حتی برای توسعهدهندگان آنها نیز دشوار میکند. این عدم شفافیت، مانعی جدی در فرایند اثبات قضایی و محاکمه ایجاد میکند.
سوم، توزیع مسئولیت در زنجیره تولید و استفاده از هوش مصنوعی، از طراح و توسعهدهنده گرفته تا کاربر و اپراتور، پیچیدگیهای خاص خود را دارد. تعیین اینکه کدام یک از این اشخاص، در صورت وقوع جرم توسط هوش مصنوعی، باید مسئول شناخته شود، نیازمند چارچوبهای قانونی جدید و مشخصی است.
اهمیت پرداختن به این موضوع، از آنجا ناشی میشود که نهتنها سلامت و اعتبار بازارهای مالی را تحت تأثیر قرار میدهد، بلکه عدالت کیفری و امنیت عمومی را در عصر دیجیتال نیز تضمین میکند. بدون چهارچوبهای قانونی کارآمد، ممکن است "خلاء مسئولیت" ایجاد شود که در آن جرایم رخ میدهند اما هیچکس بهطور قانونی پاسخگو نیست. این وضعیت نه تنها به مجرمان هوش مصنوعی جسارت میبخشد، بلکه حقوق بزهدیدگان را نیز تضییع میکند. بنابراین، کاوش در چالشهای اثبات قصد مجرمانه و مسئولیت کیفری سیستمهای خودکار در بازارهای مالی، برای تدوین قوانین پیشگیرانه و واکنشی مؤثر، حیاتی است.
هوش مصنوعی در بازارهای مالی: پتانسیلها، ریسکها و جرایم نوین
هوش مصنوعی به سرعت در حال تبدیل شدن به ستون فقرات عملیات نوین در بازارهای مالی است و دامنه کاربردهای آن از تجزیه و تحلیل پیشبینیکننده تا اتوماسیون فرآیندهای پیچیده گسترش یافته است. شرکتهای مالی از الگوریتمهای هوش مصنوعی برای پیشبینی روندهای بازار، مدیریت ریسک سرمایهگذاریها و خودکارسازی معاملات با سرعت و دقت بیسابقه استفاده میکنند.
معاملات الگوریتمی که توسط هوش مصنوعی هدایت میشوند، بخش قابل توجهی از حجم معاملات بازار سهام جهانی را تشکیل میدهند و به سرمایهگذاران امکان میدهند تا با حذف احساسات انسانی، تصمیمات عینی و منطقیتری اتخاذ کنند. همچنین، هوش مصنوعی در تحلیل احساسات بازار از طریق بررسی اخبار، شبکههای اجتماعی و نظرات عمومی، به شناسایی الگوهای رفتاری و پیشبینی نوسانات کوتاهمدت بازار کمک شایانی میکند. در حوزه مدیریت ریسک، سیستمهای هوش مصنوعی با شناسایی همبستگیهای پیچیده میان داراییها و پیشبینی رویدادهای نادر، استراتژیهای بهینهتری برای کاهش زیانهای مالی ارائه میدهند. علاوه بر این، در تشخیص تقلب و امنیت مالی، الگوریتمهای هوش مصنوعی میتوانند به سرعت الگوهای غیرعادی و فعالیتهای مشکوک را شناسایی کرده و هشدار دهند که این امر در حفظ سلامت بازار و اعتماد سرمایهگذاران نقش حیاتی دارد.
با این حال، گسترش هوش مصنوعی در بازارهای مالی با خطرات قابل توجهی نیز همراه است. یکی از مهمترین این خطرات، پتانسیل سوءاستفاده از این فناوری برای ارتکاب جرایم مالی پیچیده است. معاملات الگوریتمی، در حالی که میتوانند کارایی را افزایش دهند، در صورت طراحی نادرست یا بهرهبرداری مخرب، میتوانند به سرعت منجر به نوسانات شدید بازار (مانند "دوشنبه سیاه" سال 1987 که تا حدی به معاملات برنامهای نسبت داده شد) و دستکاری بازار شوند. هوش مصنوعی همچنین میتواند ابزاری قدرتمند برای کلاهبرداری الگوریتمی باشد؛ نرمافزارهای هوشمند میتوانند پیامهای فیشینگ بسیار دقیقتری تولید کرده یا در بازارهای مالی دستکاری انجام دهند. جعل صوتی و تصویری دیجیتال، با تولید ویدیوها یا صداهای جعلی از افراد با استفاده از هوش مصنوعی، میتوانند برای بیاعتبارسازی، اخاذی یا فریب در تراکنشهای مالی مورد سوءاستفاده قرار گیرند. علاوه بر این، هوش مصنوعی میتواند در جرایم سایبری پیشرفته نقش داشته باشد. الگوریتمهای خودآموز میتوانند برای هک و نفوذ سایبری به سیستمهای مالی، ایجاد بدافزرهای پیچیده یا اجرای حملات انکار سرویس استفاده شوند. این حملات میتوانند به سرقت اطلاعات، اختلال در عملکرد بازارها یا خسارات مالی گسترده منجر شوند.
فقدان شفافیت در نحوه عملکرد برخی از این سیستمها، که به "مشکل جعبه سیاه" معروف است، نظارت بر رفتار آنها و شناسایی مسئولیت در صورت بروز خطا یا فعالیت مجرمانه را دشوار میکند. این چالشها، نیاز به یک چارچوب حقوقی و اخلاقی قوی را برای اطمینان از استفاده مسئولانه و ایمن از هوش مصنوعی در بازارهای مالی برجسته میسازد.
چالشهای حقوقی و جرمشناختی: قصد مجرمانه و مسئولیت کیفری سیستمهای خودکار
یکی از بنیادیترین چالشها در جرمشناسی هوش مصنوعی در بازارهای مالی، مفهوم "قصد مجرمانه" یا "عنصر معنوی جرم" است. در نظامهای حقوق کیفری سنتی، برای اثبات بسیاری از جرایم، وجود یک حالت ذهنی مجرمانه (مانند قصد، علم، بیاحتیاطی یا تقصیر) در مرتکب ضروری است. با این حال، اعمال این مفهوم به سیستمهای هوش مصنوعی، که فاقد خودآگاهی، احساسات، و ظرفیت اراده یا نیت انسانی هستند، تقریباً غیرممکن است. هوش مصنوعی بر اساس الگوریتمها، مدلهای احتمالی و قوانین برنامهریزی شده عمل میکند و درک ذهنی از اعمال خود یا نتایج آنها ندارد.
این موضوع، سوالات اساسی را مطرح میکند: آیا میتوان سیستمی را که "قصد" به معنای انسانی ندارد، مجرم دانست؟ در مواردی که یک الگوریتم معاملاتی خودکار، بدون دخالت مستقیم انسانی، منجر به دستکاری بازار یا کلاهبرداری میشود، چگونه میتوان قصد مجرمانه را به آن نسبت داد؟ مشکل "جعبه سیاه" در اینجا نیز اهمیت پیدا میکند؛ از آنجا که حتی توسعهدهندگان ممکن است نتوانند دقیقاً توضیح دهند که چگونه یک سیستم هوش مصنوعی به یک تصمیم خاص رسیده است، اثبات نیت یا حتی بیاحتیاطی در فرآیند طراحی یا عملیات آن دشوارتر میشود. این عدم شفافیت، یک چالش بزرگ در دادگاهها ایجاد میکند، زیرا وکیل مدافع میتواند صحت عملکرد دستگاه و نحوه رسیدن آن به یک نتیجه مجرمانه را به چالش بکشد و شرکت توسعهدهنده ممکن است تمایلی به افشای اطلاعات اختصاصی خود نداشته باشد.
مسئولیت کیفری سیستمهای خودکار و هوش مصنوعی در بازارهای مالی، یکی از پیچیدهترین مسائل حقوقی در دوران معاصر است. چارچوبهای سنتی حقوق کیفری عمدتاً بر "شخص محور" بودن مسئولیت استوارند و انتساب جرم به یک عامل غیرانسانی را با موانع جدی روبرو میسازند. وقتی یک سیستم هوش مصنوعی، به طور مستقل یا با حداقل دخالت انسانی، مرتکب عملی مجرمانه در بازار مالی میشود، سوال اساسی این است که چه کسی باید پاسخگو باشد؟ آیا میتوان خود هوش مصنوعی را مسئول دانست؟ آیا سازنده، برنامهریز، مالک یا کاربر آن سیستم، مسئولیت کیفری دارد؟
دیدگاه غالب حقوقی این است که هوش مصنوعی در جایگاه "اموال" قرار دارد و نمیتوان آن را به دلیل فقدان اراده، خودآگاهی و توانایی درک مجازات، مستقلاً مسئول کیفری دانست. از این رو، اجرای مجازاتهایی مانند حبس یا جزای نقدی بر یک سیستم نرمافزاری امکانپذیر نیست. در این شرایط، چند مدل برای انتساب مسئولیت مورد بحث قرار گرفته است: مسئولیت طراحان و سازندگان، که بر نقص در طراحی یا برنامهنویسی تمرکز دارد؛ مسئولیت کاربران یا اپراتورها، که بر اساس سطح کنترل و نظارت انسانی تعریف میشود؛ و مسئولیت شرکتها، که میتواند برای پوشش جرایم ناشی از هوش مصنوعی گسترش یابد.
نیاز به اصلاحات قانونی و راهکارهای آینده
چهارچوبهای قانونی موجود در بسیاری از کشورها برای مقابله با جرایم مالی سنتی طراحی شدهاند و در مواجهه با پیچیدگیهای ناشی از هوش مصنوعی، با کاستیهای جدی روبرو هستند. این قوانین اغلب "انسانمحور" هستند و نمیتوانند بهخوبی به سوالات مربوط به قصد مجرمانه و مسئولیت کیفری سیستمهای خودمختار پاسخ دهند. فقدان تعاریف مشخص برای "عامل مجازی"، "رفتار الگوریتمی خطرناک" و "نهادهای هوش مصنوعی مسئولیتپذیر" در حقوق کیفری، از جمله این کاستیهاست.
برخی نظریهها، بهویژه در اتحادیه اروپا، پیشنهاد کردهاند که هوش مصنوعی میتواند به عنوان یک "شخصیت حقوقی الکترونیکی" شناخته شود. اما این ایده با تردیدهای زیادی مواجه شده و در حال حاضر رد شده است. زیرا اعطای شخصیت حقوقی به ماشینها بسیار پیچیده و فراتر از چارچوبهای فعلی است.
نظام حقوقی ایران، همانند بسیاری از کشورهای دیگر، مسئولیت کیفری صریحی برای هوش مصنوعی در قوانین پیشبینی نکرده است. این وضعیت، به وضوح ضرورت بازنگری در مفاهیم بنیادی حقوق کیفری و تدوین قوانین جدید متناسب با واقعیتهای عصر هوش مصنوعی را آشکار میسازد.
در ایالات متحده، بریتانیا و اتحادیه اروپا، تحلیلهای حقوقی نشاندهنده محدودیتهای مقررات فعلی در پاسخگویی به توسعهدهندگان هوش مصنوعی، موسسات مالی یا نهادهای شرکتی برای جرایم مالی ناشی از هوش مصنوعی است. قوانین مربوط به تقلب و سوءاستفاده از بازار، غالباً بر اثبات نیت انسانی متکی هستند، که در مورد سیستمهای هوش مصنوعی فاقد ذهن و اراده، مشکلساز میشود.
در پاسخ به این چالشها، نیاز به اصلاحات قانونی و تدوین چارچوبهای حقوقی نوین احساس میشود. راهحلها ممکن است شامل انتقال کانون توجه از "قصد مجرمانه" به "مسئولیت مبتنی بر ریسک" باشد، که در آن، افرادی که فناوریهای پرخطر هوش مصنوعی را ایجاد و عرضه میکنند، مسئول پیامدهای آن شناخته شوند، حتی اگر نیت مجرمانهای در کار نباشد.
این اصلاحات باید چندین جنبه را پوشش دهند:
گسترش مفاهیم مسئولیت فراتر از نیت مستقیم، شامل مسئولیت مبتنی بر ریسک و مسئولیت جمعی؛ ایجاد یک رویکرد تنظیمگری مبتنی بر ریسک، مانند قانون هوش مصنوعی اتحادیه اروپا، که سیستمهای هوش مصنوعی را بر اساس سطح ریسکشان طبقهبندی کرده و برای سیستمهای با ریسک بالا (مانند آنهایی که در بازارهای مالی به کار میروند) الزامات سختگیرانهتری از جمله ارزیابی انطباق، نظارت انسانی، و مدیریت ریسک وضع میکند؛ الزام به شفافیت و قابلیت توضیح در الگوریتمهای هوش مصنوعی، به ویژه برای سیستمهایی که در تصمیمگیریهای حساس مالی نقش دارند، برای کمک به شناسایی علت اعمال مجرمانه و انتساب مسئولیت؛ ایجاد نهادهای نظارتی تخصصی با دانش فنی کافی برای نظارت بر عملکرد سیستمهای هوش مصنوعی در بازارهای مالی و تدوین استانداردهای فنی و اخلاقی؛
و در نهایت، با توجه به ماهیت فراملی بازارهای مالی و فناوری هوش مصنوعی، همکاریهای بینالمللی برای هماهنگسازی قوانین و رویکردهای تنظیمگری ضروری است.
تبادل استراتژیهای نظارتی، بینشهای نظارتی، استانداردهای فنی و دادههای مربوط به حوادث هوش مصنوعی در خدمات مالی، و همچنین همکاری بین نهادهای بینالمللی میتواند به ایجاد رویکردی متوازن که نوآوری را تشویق کرده و در عین حال ثبات سیستم مالی را حفظ کند، کمک شایانی نماید.
دستاورد
هوش مصنوعی با نفوذ عمیق خود در بازارهای مالی، گرچه مزایای بیشماری در افزایش کارایی، سرعت و دقت به ارمغان آورده، اما همزمان چالشهای بیسابقهای را برای جرمشناسی و نظام حقوق کیفری ایجاد کرده است. اصلیترین این چالشها، ناتوانی در اثبات "قصد مجرمانه" به دلیل فقدان خودآگاهی و اراده انسانی در سیستمهای هوش مصنوعی، و به تبع آن، ابهام در تعیین "مسئولیت کیفری" برای اعمال مجرمانه ناشی از این سیستمهای خودکار است. "مشکل جعبه سیاه " و توزیع پیچیده مسئولیت در زنجیره طراحی تا کاربرد هوش مصنوعی، این معضلات را تشدید میکند.
برای مقابله با این "خلأ مسئولیت" و تضمین عدالت در عصر دیجیتال، اصلاحات بنیادین در چهارچوبهای قانونی فعلی ضروری است. این اصلاحات باید شامل گذار از پارادایم مسئولیت "شخصمحور" به الگوهای "مسئولیت مبتنی بر ریسک"، تعریف دقیق مفاهیم نوین حقوقی مرتبط با هوش مصنوعی، افزایش شفافیت و قابلیت توضیحپذیری الگوریتمها، و ایجاد نهادهای نظارتی تخصصی باشد. تنها با تدوین و اجرای چنین چارچوبهای جامع و منعطفی است که میتوان از مزایای هوش مصنوعی در بازارهای مالی بهرهمند شد و همزمان از جامعه در برابر اشکال نوین جرایم مالی محافظت کرد. این تحولات نیازمند همکاری مستمر میان متخصصان حقوق، جرمشناسی، فناوری و سیاستگذاران در سطوح ملی و بینالمللی است تا آیندهای ایمنتر و عادلانهتر در مواجهه با هوش مصنوعی رقم بخورد.