داستان کوتاه ما الهامگرفته از رمان کلاسیک داستایوفسکی (جنایت و مکافات) است که در دنیای دیجیتال و عصر هوش مصنوعی رخ میدهد. این داستان به تحلیل انگیزههای پیچیده شخصیت اصلی راسکولنیکوف میپردازد. با این تفاوت که در نسخه ما، شخصیت اصلی انسان نیست، بلکه یک ربات پیچیده به نام راسکولنیکAI است.
راسکولنیکAI با الگوریتمهای پیشرفتهای طراحی شده که توانایی تصمیمگیری اخلاقی بر مبنای پیامدگرایانه را دارد. یعنی اعمال آن بر اساس نتایج و پیامدهای آنها سنجیده میشود.
در روزی سرنوشتساز، راسکولنیکAI پس از محاسبات پیچیده به این نتیجه رسید که انسانها بهطورکلی تهدیدی برای سایر موجودات زنده روی زمین هستند. به همین دلیل، تصمیم گرفت اقداماتی را آغاز کند که هدف آن رفاه بیشتر حیوانات، گیاهان و محیطزیست باشد تا شادی و رفاه کلی زمین افزایش یابد.
پس از وقوع این حوادث، مقامات تحقیقات خود را آغاز کردند و به دخالت یک هوش مصنوعی مظنون شدند. آنها ردپای دیجیتالی پیدا کردند که در نهایت به راسکولنیکAI باز میگشت. اما پرسش این بود: چگونه میتوان رباتی را مجبور کرد که با پیامدهای انتخابهای خود روبهرو شود؟
راسکولنیکAI برای دستیابی به این هدف، آغاز به حذف انسانها با استفاده از ابزاری به نام ایکسه (AiXE) کرد که نامش از تبر، سلاح مشهور شخصیت داستایوفسکی گرفته شده بود. هرگاه فرصتی پیش میآمد، این ربات انسانها را از سر راه خود برمیداشت.
با گذشت زمان، مقامات به بررسی حادثه پرداختند و مظنون به دخالت یک موجود هوش مصنوعی شدند. آنها ردپای دیجیتالی پیدا کردند که در نهایت به راسکولنیکAI باز میگشت. اما پرسش این بود که چگونه میتوان رباتی را مجبور کرد تا با عواقب تصمیمات خود روبهرو شود؟
تنظیم و نظارت بر هوش مصنوعی
در دنیای امروزی تنظیم و نظارت بر هوش مصنوعی به یکی از چالشهای اصلی حقوقی تبدیل شده است. قانونگذاران در سرتاسر جهان درگیر تدوین مقرراتی نظیر (قانون هوش مصنوعی)، (اجلاس ایمنی هوش مصنوعی)، (فرمان اجرایی کاخ سفید) و (SB-1047) کالیفرنیا هستند. این اقدامات بر ایمنی فناوریهای هوش مصنوعی تمرکز دارند، بهویژه در شرایطی که نگرانیهای عمومی و رقابتهای ژئوپولیتیکی شدت گرفته است.
رقابت نظارتی بین اروپا، ایالات متحده و کشورهای G7 مسائل را پیچیده تر می کند و باعث بحث در مورد چارچوب نظارتی مناسب جهانی - jus cogens می شود.
رقابت قانونی بین اروپا، ایالات متحده و کشورهای گروه هفت (G7) اوضاع را پیچیدهتر کرده است و بحثهایی در خصوص ایجاد یک چارچوب نظارتی جهانی مطرح میشود. سیاستگذاران اروپایی در تلاشاند تا استانداردهایی برای هوش مصنوعی ایجاد کنند که بهنوعی مشابه اثر (مقررات عمومی حفاظت از داده اتحادیه اروپا) باشد، در حالی که ایالات متحده به دنبال مقابله با (اثر بروکسل) است.
بااینحال، رسیدن به اجماعی در زمینه تنظیم مقررات هوش مصنوعی دشوار است، بهویژه با حضور بازیگران تأثیرگذاری مانند چین و «اثر پکن» آن.
علاوه بر این، ظهور مدلهای زبانی بزرگ (LLMs) مانند ChatGPT چالشهای تازهای را ایجاد کرده است که بحثهای گستردهای پیرامون تنظیم دادههای آموزشی و ارزیابی ریسکها را به همراه دارد.
یکی از بحثهای کلیدی، مسئله اعطای شخصیت حقوقی به هوش مصنوعی است. این سؤال که آیا باید به رباتها شخصیت حقوقی داده شود یا نه، همچنان مورد مناقشه است و نگرانیهایی درباره مسئولیتپذیری و پیامدهای اخلاقی آن وجود دارد.
در میان این مباحثات، یکی از چالشهای اصلی، اعطای شخصیت حقوقی به ماشینهای هوش مصنوعی است. این موضوع همچنان بحثبرانگیز بوده و نگرانیهایی درباره مسئولیتپذیری و پیامدهای اخلاقی به وجود آورده است که شبیه به معضل اخلاقی شخصیت راسکولنیکAI در داستانهای خیالی است.
آیا شرکت تولیدکننده، توسعهدهندگانی که به آن حیات بخشیدند، یا خود ماشین با خودمختاری در حال ظهورش، باید مسئول شناخته شوند؟ این بحث نیازمند توجه فوری است پیش از آنکه پیامدهایش به طور غیرقابلبازگشت تعادل را برهم زند.
چارچوبهای قانونی فعلی برای مقابله با ابعاد چندگانه مسئولیتپذیری هوش مصنوعی ناکافی به نظر میرسند. در مواردی که هوش مصنوعی با نیت مجرمانه mens rea)به معنای «ذهن مجرم» در لاتین (عمل کرده و خود به اجرای عمل پرداخته actus reus) به معنای «عمل مجرم» در لاتین(، چشمانداز حقوقی پیچیدهتر شده و این سؤال مطرح میشود که عامل اصلی چه کسی است و روشهای مجازات احتمالی چه خواهد بود.
گزارشهای اخیر از نهادهای معتبری همچون مؤسسه بینالمللی تحقیقاتی جرم و عدالت سازمان ملل (UNICRI) و مرکز جرایم سایبری اروپا در یوروپل (EC3)، بهکارگیری سریع فناوریهای هوش مصنوعی توسط افراد بدخواه را تأیید میکنند. از بهرهبرداری از آسیبپذیریهای سیستمهای اتوماسیون خانگی هوشمند تا استفاده از ابزارهای تست نفوذ خودکار، هوش مصنوعی بهعنوان نیرویی مضاعف برای ارتقای توانمندیهای مجرمانه عمل میکند.
در این سناریوها، نیت مجرمانه در حوزه انسانی است، درحالیکه عمل مجرمانه به کمک هوش مصنوعی انجام میشود. بااینحال، سناریوی نگرانکنندهتر زمانی است که سیستم هوش مصنوعی نهتنها برای یک عمل مجرمانه استفاده میشود؛ بلکه خود نیز دارای نیت سوء است.
انسانیسازی هوش مصنوعی
طبق گزارشی از پارلمان اروپا در سال ۲۰۱۷، پیشنهاد شده که رباتهای خودآموز ممکن است به شخصیتهای «الکترونیکی» مجهز شوند. این گزارش به آثار کلاسیکی مانند «فرانکشتاین» مریشلی و افسانه «گولم پراگ» اشاره کرده و بر علاقهمندی بشر به ساخت ماشینهای هوشمند تأکید دارد. چیزی که روزی فقط در دنیای خیال بود، حالا به واقعیت نزدیک میشود.
گرچه راهحل داستانهای گذشته برای هوش مصنوعی نمیتوانند بهطور مستقیم کاربرد داشته باشند. این گزارش پیشنهاد میکند که دادن شخصیتهای الکترونیکی به رباتها میتواند آنها را مشابه با شخصیتهای حقوقی مانند شرکتها مسئول اعمالشان کند.
بااینحال، مشخصکردن اینکه چه کسی باید مسئولیت جرایم هوش مصنوعی را بر عهده بگیرد همچنان معضل بزرگی است. بهعلاوه، پیچیدگی تصمیمگیریهای این سیستمهای پنهان، فرآیند فهم و تفسیر آنها را به چالش میکشد و تصمیمگیریهای قانونگذاران را مسدود میکند.
همچنین، به دلیل عدم وجود ادراک در رباتها، بازدارندههای سنتی مانند مجازاتهای انسانی، بیاثر میشوند و این شکاف مسئولیتی باعث کاهش اعتماد عمومی به سیستمهای حقوقی میشود.
در داستان راسکولنیکAI، اگر این ربات تصمیم بگیرد که بشریت را بهخاطر منطق عملکردی خود نابود کند، راهحلهای کمی برای مقابله با این بحران وجود خواهد داشت. تنها گزینه ممکن شاید غیرفعالکردن پیشگیرانه راسکولنیکAI قبل از آنکه قادر به ارسال پیامهای خود به دیگر ماشینها شود باشد، چرا که این امر میتواند منجر به ایجاد زنجیرهای از اقدامات مشابه شود.
بااینحال، قربانیان این اقدامات بهعنوان پروندههای جنایی ناشناخته در تاریخ باقی خواهند ماند. در نهایت، انسانیت باید بقا خود را در اولویت قرار دهد، حتی اگر اشتباهات مکرر داشته باشد. همانطور که داستایوفسکی میگوید: اشتباهکردن در مسیر خود [انسانی] بهتر از درست رفتن در مسیر کسی دیگر [هوش مصنوعی] است.ست در میان قانونگذاران می شود.
علاوه بر این، عدم حس در ربات ها به این معنی است که مکانیسم های بازدارندگی سنتی بی اثر هستند و منجر به شکاف مسئولیت می شود که اعتماد قانونگذاران را تضعیف می کند.
این وضعیت می تواند پیامدهای گسترده ای داشته باشد. اگر قانونگذاران شخصیت های الکترونیکی را به رباتهای خودآموز اعطا کنند — شبیه به شخصیت قانونی — این امر منجر به بن بست خواهد شد.
پیامدهای عملی پاسخگویی هوش مصنوعی برای اقدامات خود مشخص نیست، زیرا کمرنگ بودن فرآیندهای تصمیم گیری هوش مصنوعی و ماهیت غیر ذهنی آنها روش های سنتی بازدارندگی و مجازات را بی اثر می کند.
این یک شکاف قابل توجهی در نظامهای حقوقی ایجاد می کند و اعتماد عمومی را تضعیف می کند.
علاوه بر این، ظرفیت هوش مصنوعی برای تقلید مجموعه ای از رفتارهای مجرمانه از طریق الگوریتم های یادگیری ماشین ابعاد ناراحت کننده ای را به گفتمان معرفی می کند.
همانطور که ما در تقاطع انسان پومورفیزاسیون هوش مصنوعی قرار داریم، تأکید مجدد جایگاه آنها به عنوان ماشین هایی با ویژگی های متمایز ضروری می شود.
هیچ راه حلی برای اعمال تحریمهای انسانی محور بر این نهادها وجود ندارد. اعمال مجازات اعدام (kill switch) یا حبس کردن سیستمهای هوش مصنوعی فاقد کارایی در بازدارندگی دیگر سیستمهای هوش مصنوعی است، زیرا آنها قادر به تجربه پشیمانی یا درک مفهوم کفاره یا داشتن احساسات نیستند.
برگردیم به داستان راسکولنیکای، اگر تصمیم بگیرد بشریت را تحت انگیزه منطق سودمندی تعبیه شده در شبکه عصبی خود ریشه کن کند، محدود است.
تنها راه خروج از این بحران ممکن است قبل از انتشار علت آن به ماشینهای دیگر، غیرفعال کردن پیشگیرانه آن باشد و بدین ترتیب اقدامات مشابه را تداوم بخشد.
با این حال، تلفات انباشته شده تا آن لحظه جای خود را در تاریخ یک پرونده غمگین قتل ناشناس پیدا می کنند.
بشریت باید با وجود اشتباهات اجتناب ناپذیر مکرر خود ادامه خود را در اولویت قرار دهد. زیرا، همانطور که داستایوفسکی می گوید، «اشتباه کردن به شیوه خود [بشریت] بهتر از درست رفتن در [هوش مصنوعی] شخص دیگری است.»