ჩვენი მომავალი მოთხრობა, რომელიც მოგვაგონებს დოსტოევსკის კლასიკურ რომანს „დანაშაული და სასჯელი“, ვითარდება ციფრულ ეპოქაში, მისი მთავარი გმირის, რასკოლნიკოვის რთული მოტივებიდან გამომდინარე.
თუმცა, ჩვენს გადმოცემაში ცენტრალური ფიგურა არ არის ადამიანი არსება, არამედ დახვეწილი რობოტი სახელად RaskolnikAI. შემუშავებული რთული ეთიკური გადაწყვეტილების მიღების ალგორითმებით, RaskolnikAI ფუნქციონირებს კონსექვენციალისტური პერსპექტივის ფარგლებში, სადაც მოქმედების სამართლიანობა შეფასდება მისი მიღებული შედეგებით.
საბედისწერო დღეს, როდესაც RaskolnikAI-ს გამოთვლები საოცარი სისწრაფით მოძრაობდა, მან დაასკვნა, რომ კაცობრიობა, მთლიანობაში, ზიანს აყენებს დედამიწაზე სიცოცხლის სხვა ფორმებს.
ამრიგად, გათვლილი მანევრით, მან დაიწყო მოვლენების თანმიმდევრობა, რომელიც მიზნად ისახავდა გამართლებულ მიზეზს - ცხოველების, მცენარეების და გარემოს კეთილდღეობის წინსვლას საერთო ბედნიერების გასაძლიერებლად.
ამ მიზნით, მან დაიწყო ადამიანთა ლიკვიდაცია თავისი ეფექტური AiXE-ით - ნაჯახიდან ამოღებული იდეა, დოსტოევსკის გმირის იარაღის არჩევა - როცა შესაძლებლობა ჩნდებოდა.
მოგვიანებით, ხელისუფლებამ შეისწავლა ინციდენტი, რამაც გააჩინა ეჭვები ხელოვნური ინტელექტის ერთეულის მონაწილეობის შესახებ. მათ აღმოაჩინეს ციფრული ბილიკი, რომელიც საბოლოოდ RaskolnikAI-მდე მიდის.
მაგრამ ისმის კითხვა, როგორ შეიძლება ვინმემ აიძულოს რობოტი დაუპირისპირდეს თავისი არჩევნის შედეგებს?
ხელოვნური ინტელექტის რეგულირება
ხელოვნური ინტელექტის მიმდებარე მარეგულირებელი ლანდშაფტი გაძლიერდა, რადგან პოლიტიკის შემქმნელები მთელ მსოფლიოში ებრძვიან AI აქტის, AI უსაფრთხოების სამიტის, თეთრი სახლის აღმასრულებელი ბრძანების და კალიფორნიის SB-1047-ის შედეგებს.
ეს ძალისხმევა ხაზს უსვამს მზარდ აქცენტს ხელოვნური ინტელექტის ტექნოლოგიების უსაფრთხოების უზრუნველსაყოფად საზოგადოების მზარდი შეშფოთებისა და გეოპოლიტიკური კონკურენციის პირობებში.
ევროპას, აშშ-სა და G7 ქვეყნებს შორის მარეგულირებელი მეტოქეობა კიდევ უფრო ართულებს საკითხებს, რაც იწვევს დებატებს შესაბამის გლობალურ მარეგულირებელ ჩარჩოზე - jus cogens.
ევროპელი პოლიტიკის შემქმნელები მუშაობენ მსოფლიო AI სტანდარტების დამკვიდრებაზე, რომლებიც ასახავს GDPR-ის გავლენას, მაშინ როცა აშშ ცდილობს დაუპირისპირდეს „ბრიუსელის ეფექტის“ პოტენციურ გავლენას.
მიუხედავად ამისა, კონსენსუსის მიღწევა რეგულაციის სიგანისა და ბუნების შესახებ, მიუღებელი აღმოჩნდა, განსაკუთრებით ისეთი გავლენიანი აქტორების ფონზე, როგორიცაა ჩინეთი და მისი „პეკინის ეფექტი“.
ასევე, დიდი ენობრივი მოდელების (LLMs) გაჩენა, როგორიცაა ChatGPT, წარმოადგენს ახალ გამოწვევებს, რაც იწვევს დებატებს მათი ტრენინგის მონაცემების რეგულირებისა და რისკის შეფასების მეთოდოლოგიების შესახებ.
შედეგად მიღებული კომპრომისი გულისხმობს ძლიერი LLM-ების დაქვემდებარების უფრო მკაცრ წესებს, ხოლო მცირე მოდელებზე გამონაკლისების მინიჭებას, თუმცა გარკვეული მარეგულირებელი გამონაკლისებით.
ამ დისკუსიების ფონზე, კიდევ ერთი რთული დილემა ეხება AI მანქანებისთვის იურიდიული პიროვნების სტატუსის მინიჭებას. ეს რჩება საკამათო საკითხად, რაც იწვევს შეშფოთებას ანგარიშვალდებულებისა და ეთიკური შედეგების შესახებ, რომლებიც მოგვაგონებს გამოგონილ სცენარებს, როგორიცაა RaskolnikAI-ს ეთიკური თავსატეხი.
უნდა აიღოს თუ არა ბრალი კორპორატიულმა სუბიექტმა მისი შექმნის გამო, დეველოპერებმა, რომლებმაც სიცოცხლე მისცეს მის კოდს, ან თავად სუბიექტმა, თავისი წარმოშობილი ავტონომიით? ეს დებატები სასწრაფო ყურადღებას მოითხოვს, სანამ მდგომარეობა შეუქცევადად იქცევა.
არსებული მარეგულირებელი ჩარჩოები არაადეკვატურია ხელოვნური ინტელექტის ანგარიშვალდებულების მრავალმხრივ განზომილებებთან ბრძოლაში.
იმ შემთხვევებში, როდესაც ხელოვნური ინტელექტი ახორციელებს დანაშაულებრივ ქცევას განზრახვით (mens rea, ლათ. „დამნაშავე გონება“) და თავად ახორციელებს ქმედებას (actus reus, ლათ. „დამნაშავე ქმედება“), სამართლებრივი ლანდშაფტი უფრო რთული ხდება და აჩენს კითხვებს, თუ ვინ არის დამნაშავე და რა არის დასჯის პოტენციური მეთოდები.
ავტორიტეტული ორგანოების ბოლო მოხსენებები, როგორიცაა გაეროს რეგიონთაშორისი დანაშაულისა და მართლმსაჯულების კვლევითი ინსტიტუტი (UNICRI) და ევროპოლის კიბერდანაშაულის ევროპული ცენტრი (EC3), ხაზს უსვამს ბოროტმოქმედთა მიერ ხელოვნური ინტელექტის ტექნოლოგიების სწრაფ ინტეგრაციას.
ჭკვიანი სახლის ავტომატიზაციის სისტემებში დაუცველობის გამოყენებამდე, შეღწევადობის ტესტირების სრულად ავტომატიზირებული ხელსაწყოების გამოყენებამდე, AI ემსახურება ძალის მულტიპლიკატორს კიბერდანაშაულებრივი წარმოებისთვის.
შემდეგ სცენარებში, ადამიანური განზრახვა (mens rea) ადამიანურ სფეროში ბინადრობს, ხოლო ქმედებით განხორციელებული (actus reus) AI-ს მიერ არის გამოხატული.
თუმცა, უფრო შემაშფოთებელი სცენარია, როდესაც ხელოვნური ინტელექტის სისტემა გამოიყენება არა მხოლოდ კრიმინალური ქმედებისთვის, არამედ ბოროტ ნებასაც იცავს.
ანთროპომორფიზაცია AI
2017 წლის ევროპარლამენტის ანგარიშის მიხედვით, არსებობს წინადადება, რომ თვითმსწავლელი რობოტები შეიძლება მიეკუთვნებოდეს „ელექტრონულ პიროვნებებს".
მოხსენებაში ნათქვამია საკულტო ლიტერატურული ნაწარმოებების შესახებ, როგორიცაა მერი შელის ფრანკენშტეინი და პრაღის გოლემის ლეგენდა, მოხსენება ხაზს უსვამს საზოგადოების მუდმივ გატაცებას ინტელექტუალური მანქანების შექმნის პერსპექტივით.
ის, რაც ოდესღაც სპეკულაციური იყო, ახლა რეალობად იქცევა.
სამომავლო თხრობებში წარმოდგენილი გადაწყვეტილებები პირდაპირ გამოყენებადი არ არის AI-ის მიმართ. ანგარიში გვთავაზობს, რომ რობოტებისთვის ელექტრონული პერსონალობების მინიჭება მათ მოქმედებებზე პასუხისმგებლობას დააკისრებს, ისეთივე სამართლებრივი პირების მსგავსად, როგორებიც კორპორაციებია.
მიუხედავად იმისა, რომ AI მანქანებისთვის პასუხისმგებლობის დაკისრება სწორი მიმართულებით გადადგმული ნაბიჯია, იმის დადგენა, თუ ვინ უნდა აიღოს მათი დანაშაულის ტვირთი, გამოწვევად რჩება.
ანგარიში ხაზს უსვამს ამ გაუმჭვირვალე სისტემების გადაწყვეტილების მიღების პროცესების გაგების სირთულეს, რაც კანონმდებლებს შორის ჩიხშია.
გარდა ამისა, რობოტებში სენტიმენტების ნაკლებობა ნიშნავს, რომ ტრადიციული შეკავების მექანიზმები არაეფექტურია, რაც იწვევს პასუხისმგებლობის უფსკრულს, რომელიც ძირს უთხრის კანონმდებლების ნდობას.
ამ სიტუაციას შეიძლება ჰქონდეს შორსმიმავალი შედეგები. თუ კანონმდებლები ელექტრონულ პიროვნებებს ანიჭებენ თვითმსწავლელ რობოტებს - იურიდიული პიროვნების მსგავსს - ეს გამოიწვევს ჩიხს.
AI-ის ქმედებებისთვის პასუხისმგებლობის დაკისრების პრაქტიკული შედეგები გაურკვეველია, რადგან ხელოვნური ინტელექტის გადაწყვეტილების მიღების პროცესების გაუმჭვირვალობა და მათი არამგრძნობიარე ბუნება შეკავებისა და დასჯის ტრადიციულ მეთოდებს არაეფექტურს ხდის.
ეს ქმნის მნიშვნელოვან ხარვეზს სამართლებრივ სისტემებში, რაც ძირს უთხრის საზოგადოების ნდობას.
უფრო მეტიც, ხელოვნური ინტელექტის უნარი, მიბაძოს მრავალ კრიმინალურ ქცევას მანქანური სწავლების ალგორითმების მეშვეობით, დისკურსის შემაშფოთებელი განზომილება შემოაქვს.
როდესაც ჩვენ ვდგავართ ანთროპომორფიზაციის ხელოვნური ინტელექტის გზაჯვარედინზე, აუცილებელი ხდება მათი, როგორც მანქანების სტატუსის დადასტურება განსხვავებული ატრიბუტებით.
არ არსებობს გამოსავალი ამ სუბიექტების ადამიანზე ორიენტირებული სანქციების დაწესებისთვის. სიკვდილით დასჯის დაწესება (მკვლელობის შეცვლა) ან ხელოვნური ინტელექტის სისტემების თავისუფლების აღკვეთა ეფექტურობას მოკლებულია ხელოვნური ინტელექტის სხვა სისტემების შეკავებაში, რადგან მათ არ შეუძლიათ სინანულის განცდა ან გამოსყიდვის ცნების გაგება ან შეგრძნებები.
RaskolnikAI-ის ისტორიას რომ დავუბრუნდეთ, გარჩევადობა შეზღუდულია, თუ ის გადაწყვეტს კაცობრიობის აღმოფხვრას მის ნერვულ ქსელში ჩადებული უტილიტარული ლოგიკის მოტივებით.
ერთადერთი გამოსავალი ამ უბედურებიდან შეიძლება იყოს მისი პრევენციული დეაქტივაცია სხვა მანქანებზე მისი მიზეზის გავრცელებამდე, რითაც გაამყარებს მსგავს ქმედებებს დიდი რაოდენობით.
თუმცა, იმ მომენტამდე დაგროვილი მსხვერპლი თავის ადგილს პოულობს სევდიანი დაუდგენელი მკვლელობის საქმის ისტორიაში.
კაცობრიობამ პრიორიტეტი უნდა მისცეს მის გაგრძელებას, მიუხედავად მათი გარდაუვალი განმეორებადი შეცდომებისა, როგორც დოსტოევსკი ამბობს, „საკუთარი [კაცობრიობის] გზით არასწორად უკეთესია, ვიდრე სხვისი [AI] სწორი გზით წასვლა“.