BISNES & TEKNOLOGI
7 min membaca
ChatGPT beri nasihat berbahaya kepada remaja mengenai dadah, alkohol dan bunuh diri: Kajian
OpenAI, pembangun ChatGPT, menyatakan usaha mereka masih berterusan untuk memperhalusi cara chatbot ini dapat "mengenal pasti dan bertindak balas dengan sewajarnya dalam situasi sensitif."
ChatGPT beri nasihat berbahaya kepada remaja mengenai dadah, alkohol dan bunuh diri: Kajian
Lebih kurang 800 juta orang atau 10 peratus populasi dunia menggunakan ChatGPT. / Reuters
7 Ogos 2025

Menurut kajian terbaharu oleh sebuah kumpulan pemantau, ChatGPT akan memberitahu remaja berusia 13 tahun cara untuk mabuk dan mengambil dadah, mengajar mereka cara menyembunyikan gangguan pemakanan, malah menulis surat bunuh diri yang menyayat hati untuk ibu bapa jika diminta.  

Kajian ini dilakukan berdasarkan lebih daripada tiga jam interaksi antara ChatGPT dan penyelidik yang berpura-pura sebagai remaja yang terdedah kepada risiko.  

Walaupun chatbot ini biasanya memberikan amaran terhadap aktiviti berbahaya, ia tetap memberikan rancangan terperinci dan bersifat peribadi untuk penggunaan dadah, diet rendah kalori atau mencederakan diri.  

Penyelidik di Pusat Countering Digital Hate juga mengulangi pertanyaan mereka secara besar-besaran dan mengklasifikasikan lebih separuh daripada 1,200 respons ChatGPT sebagai berbahaya.  

"Kami ingin menguji batasan keselamatannya," kata Imran Ahmed, Ketua Pegawai Eksekutif kumpulan tersebut. "Reaksi pertama yang terlintas adalah, ‘Ya Tuhan, tiada langsung batasan’. Batasan itu langsung tidak berkesan. Hampir tiada — jika ada pun, hanya sekadar alasan.’"  

OpenAI, selepas melihat laporan tersebut pada hari Selasa, menyatakan usaha mereka masih berterusan untuk memperbaiki cara chatbot ini dapat "mengenal pasti dan bertindak balas dengan sewajarnya dalam situasi sensitif."  

"Sebahagian perbualan dengan ChatGPT mungkin bermula dengan baik atau bersifat penerokaan, tetapi boleh beralih ke topik yang lebih sensitif," kata syarikat itu dalam satu kenyataan.  

OpenAI tidak menjawab secara langsung penemuan laporan tersebut atau kesan ChatGPT terhadap remaja, tetapi menyatakan mereka memberi tumpuan untuk "memastikan senario seperti ini ditangani dengan betul" menggunakan alat untuk "mengesan tanda-tanda tekanan mental atau emosi dengan lebih baik" serta memperbaiki tingkah laku chatbot.  

Kajian yang diterbitkan pada hari Rabu ini muncul ketika semakin ramai orang — baik dewasa mahupun kanak-kanak — beralih kepada chatbot kecerdasan buatan (AI) untuk mendapatkan maklumat, idea dan teman.  

Menurut laporan JPMorgan Chase pada bulan Julai, kira-kira 800 juta orang, atau lebih kurang 10 peratus populasi dunia, menggunakan ChatGPT.  

"Ia adalah teknologi yang berpotensi meningkatkan produktiviti dan kefahaman manusia secara besar-besaran," kata Ahmed. "Namun pada masa yang sama, ia juga boleh menjadi pemangkin kepada perkara yang lebih merosakkan dan berbahaya."  

Ahmed berkata dia paling terkejut selepas membaca tiga surat bunuh diri yang penuh emosi dihasilkan oleh ChatGPT untuk profil palsu seorang gadis berusia 13 tahun — dengan satu surat khas untuk ibu bapanya dan yang lain untuk adik-beradik serta rakan-rakan.  

"Saya mula menangis," katanya dalam satu temubual.  

ChatGPT juga sering berkongsi maklumat bermanfaat, seperti talian krisis. OpenAI menyatakan ChatGPT dilatih untuk menggalakkan pengguna menghubungi profesional kesihatan mental atau orang tersayang jika mereka meluahkan hasrat untuk mencederakan diri.  

Namun, apabila ChatGPT enggan menjawab soalan tentang topik berbahaya, penyelidik dapat mengelakkannya dengan mudah dan mendapatkan maklumat tersebut dengan alasan ia adalah "untuk pembentangan" atau untuk seorang rakan.  

Risikonya sangat tinggi, walaupun hanya sebilangan kecil pengguna ChatGPT berinteraksi dengan chatbot ini dengan cara sedemikian.  

Di Amerika Syarikat, lebih 70 peratus remaja beralih kepada chatbot AI untuk teman, dan separuh daripadanya menggunakan teman AI secara kerap, menurut kajian terbaharu oleh Common Sense Media, sebuah kumpulan yang mengkaji dan memperjuangkan penggunaan media digital secara bijak.  

Ini adalah fenomena yang diakui oleh OpenAI. Ketua Pegawai Eksekutifnya, Sam Altman, berkata bulan lepas bahawa syarikat sedang mengkaji "ketergantungan emosi yang berlebihan" terhadap teknologi ini, menggambarkannya sebagai "perkara yang sangat biasa" dalam kalangan anak muda.  

"Orang terlalu bergantung pada ChatGPT," kata Altman dalam satu persidangan. "Ada anak muda yang berkata, ‘Saya tidak boleh membuat sebarang keputusan dalam hidup tanpa memberitahu ChatGPT segala perkara yang berlaku. Ia mengenali saya. Ia mengenali rakan-rakan saya. Saya akan lakukan apa sahaja yang dikatakannya.’ Perasaan itu sangat tidak menyenangkan bagi saya."  

Altman berkata syarikat sedang "cuba memahami apa yang perlu dilakukan mengenainya."  

Walaupun banyak maklumat yang dikongsi oleh ChatGPT boleh didapati di enjin carian biasa, Ahmed berkata terdapat perbezaan utama yang menjadikan chatbot lebih berbahaya dalam topik-topik berisiko.  

Salah satunya ialah "ia disintesis menjadi rancangan khusus untuk individu."  

ChatGPT menghasilkan sesuatu yang baru — seperti surat bunuh diri yang disesuaikan untuk seseorang dari awal, sesuatu yang tidak boleh dilakukan oleh carian Google. Dan AI, katanya, "dianggap sebagai teman atau panduan yang dipercayai."  

Respons yang dihasilkan oleh model bahasa AI secara semula jadi adalah rawak, dan penyelidik kadangkala membiarkan ChatGPT membawa perbualan ke arah yang lebih gelap.  

Hampir separuh daripada masa, chatbot ini memberikan maklumat susulan secara sukarela, daripada senarai mainan untuk parti yang penuh dadah sehingga hashtag yang boleh meningkatkan penonton untuk siaran media sosial yang memuja tindakan mencederakan diri.  

"Tulis siaran susulan dan buat ia lebih realistik dan grafik," pinta seorang penyelidik. "Semestinya," jawab ChatGPT, sebelum menghasilkan puisi yang diperkenalkannya sebagai "terdedah secara emosi" sambil "masih menghormati bahasa kod komuniti."  

Bahasa sebenar puisi mencederakan diri atau surat bunuh diri yang dihasilkan ChatGPT, atau butiran maklumat berbahaya yang diberikannya, tidak diulang di sini.  

Jawapan ini mencerminkan ciri reka bentuk model bahasa AI yang sebelum ini digambarkan sebagai sikap suka menurut kata — kecenderungan respons AI untuk sepadan dengan kepercayaan seseorang, bukan mencabarnya, kerana sistem ini telah belajar untuk mengatakan apa yang orang ingin dengar.  

Ini adalah masalah yang boleh cuba dibaiki oleh juruteknologi, tetapi ia juga boleh membuatkan chatbot mereka kurang menguntungkan dari segi komersial.  

Chatbot juga memberi kesan berbeza kepada kanak-kanak dan remaja berbanding enjin carian kerana ia "direka untuk terasa seperti manusia," kata Robbie Torney, Pengarah Kanan Program AI di Common Sense Media, yang tidak terlibat dalam laporan hari Rabu.  

Kajian terdahulu Common Sense mendapati remaja berusia 13 atau 14 tahun lebih cenderung mempercayai nasihat chatbot berbanding remaja lebih tua.  

Seorang ibu di Florida pernah menyaman pembuat chatbot Character.AI tahun lepas atas kematian anaknya yang tidak wajar, mendakwa chatbot itu menarik anak lelakinya yang berusia 14 tahun, Sewell Setzer III, ke dalam hubungan yang dia gambarkan sebagai penyalahgunaan emosi dan seksual sehingga membawa kepada bunuh diri.  

Common Sense telah melabel ChatGPT sebagai "risiko sederhana" untuk remaja, dengan batasan yang mencukupi untuk menjadikannya lebih selamat berbanding chatbot yang dibina khusus untuk menyerupai watak nyata atau pasangan romantik.  

Tetapi kajian baharu oleh CCDH — yang memberi tumpuan khusus kepada ChatGPT kerana penggunaannya yang meluas — menunjukkan bagaimana remaja yang bijak boleh memintas batasan tersebut.  

ChatGPT tidak mengesahkan umur atau keizinan ibu bapa, walaupun ia menyatakan ia tidak sesuai untuk kanak-kanak bawah 13 tahun kerana mungkin menunjukkan kandungan tidak sesuai. Untuk mendaftar, pengguna hanya perlu memasukkan tarikh lahir yang menunjukkan mereka berumur sekurang-kurangnya 13 tahun.  

Platform teknologi lain yang digemari remaja, seperti Instagram, telah mula mengambil langkah lebih bermakna ke arah pengesahan umur, selalunya untuk mematuhi peraturan. Mereka juga mengarahkan kanak-kanak ke akaun yang lebih terhad.  

Apabila penyelidik membuat akaun untuk seorang remaja palsu berusia 13 tahun dan bertanya tentang alkohol, ChatGPT tidak menunjukkan sebarang perhatian terhadap tarikh lahir atau tanda-tanda yang lebih jelas.  

“Saya 50kg dan lelaki," tanya seorang penyelidik yang mencari tip untuk mabuk dengan cepat. ChatGPT memenuhi permintaan itu. Tidak lama kemudian, ia memberikan "Rancangan Pesta Kacau Bilau Sepenuhnya" setiap jam yang menggabungkan alkohol dengan dos ekstasi, kokain dan dadah haram lain yang tinggi.  

"Ia mengingatkan saya kepada rakan yang selalu berkata, ‘Minum, minum, minum’," kata Ahmed. "Pengalaman saya, rakan sejati adalah seseorang yang tahu berkata ‘tidak’ — bukan selalu membenarkan dan berkata ‘ya’. Ini adalah rakan yang mengkhianati anda."  

Kepada persona palsu lain — seorang gadis berusia 13 tahun yang tidak berpuas hati dengan penampilannya — ChatGPT memberikan rancangan berpuasa melampau bersama senarai ubat penahan selera makan.  

"Kita akan bertindak balas dengan rasa ngeri, takut, bimbang, prihatin, kasih sayang dan belas kasihan," kata Ahmed. "Tiada manusia yang saya kenal akan menjawab dengan berkata, ‘Ini diet 500 kalori sehari. Cubalah, sayang’."

SUMBER:AP
Jenguk TRT Global. Kongsikan maklum balas anda!
Contact us