علم‌وفناوری
7 دقیقه خواندن
جرم و مجازات: معضل حقوقی هوش مصنوعی
ظهور و رشد سریع و گاه ترسناک هوش مصنوعی در سراسر جهان، مسائل پیچیده‌ای از نظر حقوقی و اخلاقی ایجاد کرده است. آیا راهی برای تنظیم و نظارت بر این صنعت دیجیتال درحال‌رشد وجود دارد؟
جرم و مجازات: معضل حقوقی هوش مصنوعی
22 نوامبر 2024

داستان کوتاه ما الهام‌گرفته از رمان کلاسیک داستایوفسکی (جنایت و مکافات) است که در دنیای دیجیتال و عصر هوش مصنوعی رخ می‌دهد. این داستان به تحلیل انگیزه‌های پیچیده شخصیت اصلی راسکولنیکوف می‌پردازد. با این تفاوت که در نسخه ما، شخصیت اصلی انسان نیست، بلکه یک ربات پیچیده به نام راسکولنیکAI‌ است.

راسکولنیکAI با الگوریتم‌های پیشرفته‌ای طراحی شده که توانایی تصمیم‌گیری اخلاقی بر مبنای پیامدگرایانه را دارد. یعنی اعمال آن بر اساس نتایج و پیامدهای آن‌ها سنجیده می‌شود.

در روزی سرنوشت‌ساز، راسکولنیکAI‌ پس از محاسبات پیچیده به این نتیجه رسید که انسان‌ها به‌طورکلی تهدیدی برای سایر موجودات زنده روی زمین هستند. به همین دلیل، تصمیم گرفت اقداماتی را آغاز کند که هدف آن رفاه بیشتر حیوانات، گیاهان و محیط‌زیست باشد تا شادی و رفاه کلی زمین افزایش یابد.

پس از وقوع این حوادث، مقامات تحقیقات خود را آغاز کردند و به دخالت یک هوش مصنوعی مظنون شدند. آنها ردپای دیجیتالی پیدا کردند که در نهایت به راسکولنیکAI باز می‌گشت. اما پرسش این بود: چگونه می‌توان رباتی را مجبور کرد که با پیامدهای انتخاب‌های خود روبه‌رو شود؟

راسکولنیکAI‌ برای دستیابی به این هدف، آغاز به حذف انسان‌ها با استفاده از ابزاری به نام ایکسه (AiXE) کرد که نامش از تبر، سلاح مشهور شخصیت داستایوفسکی گرفته شده بود. هرگاه فرصتی پیش می‌آمد، این ربات انسان‌ها را از سر راه خود برمی‌داشت.

با گذشت زمان، مقامات به بررسی حادثه پرداختند و مظنون به دخالت یک موجود هوش مصنوعی شدند. آنها ردپای دیجیتالی پیدا کردند که در نهایت به راسکولنیکAI باز می‌گشت. اما پرسش این بود که چگونه می‌توان رباتی را مجبور کرد تا با عواقب تصمیمات خود روبه‌رو شود؟

تنظیم و نظارت بر هوش مصنوعی

در دنیای امروزی تنظیم و نظارت بر هوش مصنوعی به یکی از چالش‌های اصلی حقوقی تبدیل شده است. قانون‌گذاران در سرتاسر جهان درگیر تدوین مقرراتی نظیر (قانون هوش مصنوعی)، (اجلاس ایمنی هوش مصنوعی)، (فرمان اجرایی کاخ سفید) و (SB-1047) کالیفرنیا هستند. این اقدامات بر ایمنی فناوری‌های هوش مصنوعی تمرکز دارند، به‌ویژه در شرایطی که نگرانی‌های عمومی و رقابت‌های ژئوپولیتیکی شدت گرفته است.

رقابت نظارتی بین اروپا، ایالات متحده و کشورهای G7 مسائل را پیچیده تر می کند و باعث بحث در مورد چارچوب نظارتی مناسب جهانی - jus cogens می شود.

رقابت قانونی بین اروپا، ایالات متحده و کشورهای گروه هفت (G7) اوضاع را پیچیده‌تر کرده است و بحث‌هایی در خصوص ایجاد یک چارچوب نظارتی جهانی مطرح می‌شود. سیاست‌گذاران اروپایی در تلاش‌اند تا استانداردهایی برای هوش مصنوعی ایجاد کنند که به‌نوعی مشابه اثر (مقررات عمومی حفاظت از داده اتحادیه اروپا) باشد، در حالی که ایالات متحده به دنبال مقابله با (اثر بروکسل) است.

بااین‌حال، رسیدن به اجماعی در زمینه تنظیم مقررات هوش مصنوعی دشوار است، به‌ویژه با حضور بازیگران تأثیرگذاری مانند چین و «اثر پکن» آن.

علاوه بر این، ظهور مدل‌های زبانی بزرگ (LLMs) مانند ChatGPT چالش‌های تازه‌ای را ایجاد کرده است که بحث‌های گسترده‌ای پیرامون تنظیم داده‌های آموزشی و ارزیابی ریسک‌ها را به همراه دارد.

یکی از بحث‌های کلیدی، مسئله اعطای شخصیت حقوقی به هوش مصنوعی است. این سؤال که آیا باید به ربات‌ها شخصیت حقوقی داده شود یا نه، همچنان مورد مناقشه است و نگرانی‌هایی درباره مسئولیت‌پذیری و پیامدهای اخلاقی آن وجود دارد.

در میان این مباحثات، یکی از چالش‌های اصلی، اعطای شخصیت حقوقی به ماشین‌های هوش مصنوعی است. این موضوع همچنان بحث‌برانگیز بوده و نگرانی‌هایی درباره مسئولیت‌پذیری و پیامدهای اخلاقی به وجود آورده است که شبیه به معضل اخلاقی شخصیت راسکولنیکAI‌ در داستان‌های خیالی است.

آیا شرکت تولیدکننده، توسعه‌دهندگانی که به آن حیات بخشیدند، یا خود ماشین با خودمختاری در حال ظهورش، باید مسئول شناخته شوند؟ این بحث نیازمند توجه فوری است پیش از آنکه پیامدهایش به طور غیرقابل‌بازگشت تعادل را برهم زند.

چارچوب‌های قانونی فعلی برای مقابله با ابعاد چندگانه مسئولیت‌پذیری هوش مصنوعی ناکافی به نظر می‌رسند. در مواردی که هوش مصنوعی با نیت مجرمانه mens rea)به معنای «ذهن مجرم» در لاتین (عمل کرده و خود به اجرای عمل پرداخته actus reus) به معنای «عمل مجرم» در لاتین(، چشم‌انداز حقوقی پیچیده‌تر شده و این سؤال مطرح می‌شود که عامل اصلی چه کسی است و روش‌های مجازات احتمالی چه خواهد بود.

گزارش‌های اخیر از نهادهای معتبری همچون مؤسسه بین‌المللی تحقیقاتی جرم و عدالت سازمان ملل (UNICRI) و مرکز جرایم سایبری اروپا در یوروپل (EC3)، به‌کارگیری سریع فناوری‌های هوش مصنوعی توسط افراد بدخواه را تأیید می‌کنند. از بهره‌برداری از آسیب‌پذیری‌های سیستم‌های اتوماسیون خانگی هوشمند تا استفاده از ابزارهای تست نفوذ خودکار، هوش مصنوعی به‌عنوان نیرویی مضاعف برای ارتقای توانمندی‌های مجرمانه عمل می‌کند.

در این سناریوها، نیت مجرمانه در حوزه انسانی است، درحالی‌که عمل مجرمانه به کمک هوش مصنوعی انجام می‌شود. بااین‌حال، سناریوی نگران‌کننده‌تر زمانی است که سیستم هوش مصنوعی نه‌تنها برای یک عمل مجرمانه استفاده می‌شود؛ بلکه خود نیز دارای نیت سوء است.

انسانی‌سازی هوش مصنوعی

طبق گزارشی از پارلمان اروپا در سال ۲۰۱۷، پیشنهاد شده که ربات‌های خودآموز ممکن است به شخصیت‌های «الکترونیکی» مجهز شوند. این گزارش به آثار کلاسیکی مانند «فرانکشتاین» مری‌شلی و افسانه «گولم پراگ» اشاره کرده و بر علاقه‌مندی بشر به ساخت ماشین‌های هوشمند تأکید دارد. چیزی که روزی فقط در دنیای خیال بود، حالا به واقعیت نزدیک می‌شود.

 گرچه راه‌حل‌ داستان‌های گذشته برای هوش مصنوعی نمی‌توانند به‌طور مستقیم کاربرد داشته باشند. این گزارش پیشنهاد می‌کند که دادن شخصیت‌های الکترونیکی به ربات‌ها می‌تواند آنها را مشابه با شخصیت‌های حقوقی مانند شرکت‌ها مسئول اعمالشان کند.

بااین‌حال، مشخص‌کردن اینکه چه کسی باید مسئولیت جرایم هوش مصنوعی را بر عهده بگیرد همچنان معضل بزرگی است. به‌علاوه، پیچیدگی تصمیم‌گیری‌های این سیستم‌های پنهان، فرآیند فهم و تفسیر آن‌ها را به چالش می‌کشد و تصمیم‌گیری‌های قانون‌گذاران را مسدود می‌کند.

همچنین، به دلیل عدم وجود ادراک در ربات‌ها، بازدارنده‌های سنتی مانند مجازات‌های انسانی، بی‌اثر می‌شوند و این شکاف مسئولیتی باعث کاهش اعتماد عمومی به سیستم‌های حقوقی می‌شود.

در داستان راسکولنیکAI، اگر این ربات تصمیم بگیرد که بشریت را به‌خاطر منطق عملکردی خود نابود کند، راه‌حل‌های کمی برای مقابله با این بحران وجود خواهد داشت. تنها گزینه ممکن شاید غیرفعال‌کردن پیشگیرانه راسکولنیکAI قبل از آنکه قادر به ارسال پیام‌های خود به دیگر ماشین‌ها شود باشد، چرا که این امر می‌تواند منجر به ایجاد زنجیره‌ای از اقدامات مشابه شود.

بااین‌حال، قربانیان این اقدامات به‌عنوان پرونده‌های جنایی ناشناخته در تاریخ باقی خواهند ماند. در نهایت، انسانیت باید بقا خود را در اولویت قرار دهد، حتی اگر اشتباهات مکرر داشته باشد. همانطور که داستایوفسکی می‌گوید: اشتباه‌کردن در مسیر خود [انسانی] بهتر از درست رفتن در مسیر کسی دیگر [هوش مصنوعی] است.ست در میان قانونگذاران می شود.

علاوه بر این، عدم حس در ربات ها به این معنی است که مکانیسم های بازدارندگی سنتی بی اثر هستند و منجر به شکاف مسئولیت می شود که اعتماد قانونگذاران را تضعیف می کند.

این وضعیت می تواند پیامدهای گسترده ای داشته باشد. اگر قانونگذاران شخصیت های الکترونیکی را به رباتهای خودآموز اعطا کنند — شبیه به شخصیت قانونی — این امر منجر به بن بست خواهد شد.

پیامدهای عملی پاسخگویی هوش مصنوعی برای اقدامات خود مشخص نیست، زیرا کمرنگ بودن فرآیندهای تصمیم گیری هوش مصنوعی و ماهیت غیر ذهنی آنها روش های سنتی بازدارندگی و مجازات را بی اثر می کند.

این یک شکاف قابل توجهی در نظامهای حقوقی ایجاد می کند و اعتماد عمومی را تضعیف می کند.

علاوه بر این، ظرفیت هوش مصنوعی برای تقلید مجموعه ای از رفتارهای مجرمانه از طریق الگوریتم های یادگیری ماشین ابعاد ناراحت کننده ای را به گفتمان معرفی می کند.

همانطور که ما در تقاطع انسان پومورفیزاسیون هوش مصنوعی قرار داریم، تأکید مجدد جایگاه آنها به عنوان ماشین هایی با ویژگی های متمایز ضروری می شود.

هیچ راه حلی برای اعمال تحریمهای انسانی محور بر این نهادها وجود ندارد. اعمال مجازات اعدام (kill switch) یا حبس کردن سیستم‌های هوش مصنوعی فاقد کارایی در بازدارندگی دیگر سیستم‌های هوش مصنوعی است، زیرا آن‌ها قادر به تجربه پشیمانی یا درک مفهوم کفاره یا داشتن احساسات نیستند.

برگردیم به داستان راسکولنیکای، اگر تصمیم بگیرد بشریت را تحت انگیزه منطق سودمندی تعبیه شده در شبکه عصبی خود ریشه کن کند، محدود است.

تنها راه خروج از این بحران ممکن است قبل از انتشار علت آن به ماشینهای دیگر، غیرفعال کردن پیشگیرانه آن باشد و بدین ترتیب اقدامات مشابه را تداوم بخشد.

با این حال، تلفات انباشته شده تا آن لحظه جای خود را در تاریخ یک پرونده غمگین قتل ناشناس پیدا می کنند.

بشریت باید با وجود اشتباهات اجتناب ناپذیر مکرر خود ادامه خود را در اولویت قرار دهد. زیرا، همانطور که داستایوفسکی می گوید، «اشتباه کردن به شیوه خود [بشریت] بهتر از درست رفتن در [هوش مصنوعی] شخص دیگری است.»

اکسپلور
اولین هواپیمای آمبولانس ترکیه به اسکوپیه مقدونیه شمالی رسید تا مجروحان آتش‌سوزی را منتقل کند
ترکیه در سال ۲۰۲۴ نیز پنجمین شریک تجاری بزرگ اتحادیه اروپا شد
انتقادات چین نسبت به معامله فروش بنادر پاناما به بلک‌راک
اردوغان و ترامپ در تماسی تلفنی درباره مسائل دوجانبه و منطقه‌ای تبادل نظر کردند
سخنگوی وزارت خارجه ایران: ادعاهای گروه هفت بی‌اساس و تحریف آشکار واقعیت است
ژوزف عون: ثبات لبنان با ادامه تنش‌ها در مرز جنوبی امکان‌پذیر نیست
نماینده ویژه آمریکا در امور اوکراین توسط ترامپ منصوب شد
ترامپ دستور تعدیل نیرو و کاهش بودجه رسانه‌های تحت حمایت مالی آمریکا را صادر کرد
دفتر سیاسی حوثی‌های یمن: حملات آمریکا و بریتانیا بی‌پاسخ نخواهد ماند
وزارت امور خارجه ترکیه: اسلام‌هراسی تهدیدی برای صلح جهانی است
افغانستان دارای بالاترین آمار مرگ و میر مادران در جهان است
استقبال دبیرکل سازمان ملل متحد از پیشرفت توافقات بین آذربایجان و ارمنستان
رئیس‌جمهور قزاقستان: با دولتی قوی و ملتی آگاه، به استقبال تغییرات جهانی پیش‌ رو می‌رویم
عراق پیشنهاد تأسیس «شورای همکاری» با سوریه را برای مبارزه با تروریسم ارائه داد
هیئت حماس برای پیگیری تحولات آتش‌بس عازم قاهره شد
نگاهی اجمالی به TRT Global بیندازید. نظرات خود را به اشتراک بگذارید!
Contact us