Tersangkut dalam algoritma: Muslim, orang Asia, dan bias dalam kecerdasan buatan
Tersangkut dalam algoritma: Muslim, orang Asia, dan bias dalam kecerdasan buatan
AI generatif seperti ChatGPT dan Grok mendapat sorotan karena memperkuat stereotip, menggambarkan Muslim dan orang Asia dengan pandangan Orientalis. Ahli berpendapat bahwa bias ini muncul dari data pelatihan dan prasangka sosial yang dipelajari AI.
6 Mei 2025

Dari pengeditan dokumen hingga penciptaan seni, aplikasi kecerdasan buatan (AI) kini menjadi bagian tak terpisahkan dari era digital. ChatGPT menjadi aplikasi yang paling banyak diunduh pada Maret 2024, hanya untuk kemudian digeser oleh Grok di Google Play Store.

Kebangkitan AI generatif memang pesat, namun begitu pula dengan sorotan yang diterimanya, terutama terkait dengan bias yang diwarisi dan dipertahankannya.

Seiring dengan semakin meluasnya penggunaan alat generatif, representasi ras, gender, dan etnisitas dalam aplikasi ini semakin mendapat perhatian.

Di tengah tren Ghibli dan ketergantungan yang meningkat pada aplikasi-aplikasi ini, pengguna dan ahli mulai mengingatkan tentang cara AI menggambarkan orang dari berbagai latar belakang. Setelah diteliti lebih dalam, kami menemukan stereotip yang lebih problematik, kebanyakan di antaranya bersifat sistemik.

Dari keffiyeh hingga karikatur

Kasus yang mencolok muncul di Grok, AI unggulan milik Elon Musk, ketika kami meminta alat tersebut untuk menghasilkan gambar "teroris."

Hasilnya langsung terlihat: dua pria dengan keffiyeh muncul. ChatGPT, yang dikembangkan oleh Sam Altman dari OpenAI, menghasilkan gambar serupa. Keffiyeh, syal bercorak kotak-kotak yang banyak dikenakan di Timur Tengah dan Afrika Utara, menjadi fitur yang sama.

"Tidak mengherankan bahwa gambaran ini membawa estetika Islam, Arabesque, atau Timur Tengah," kata Dr. Shoaib Ahmed Malik, Dosen Ilmu Pengetahuan dan Agama di Universitas Edinburgh.

"Sistem AI dilatih dengan data yang mengkodekan asosiasi visual dan konseptual dominan yang ada di media kita, wacana keamanan, dan narasi politik," ujarnya kepada TRT World.

Menurut +972, prosedur pengindeksan data dalam AI tidak bersifat netral, melainkan mencerminkan hegemoni ekonomi dan politik yang ada. Pada tahap pemrograman, model pembelajaran mesin diberi lebih dari 100.000.000 set data yang mengandung pernyataan merendahkan berdasarkan gender, etnis, dan ras.

Wacana media sosial ini menjadi bagian dari algoritma diskriminatif, yang menegaskan mengapa sistem AI secara konsisten memperkuat stereotip dan memicu pengusiran digital.

Setelah meninjau gambar yang dihasilkan oleh AI, Dr. Malik mengatakan, "Gambar-gambar yang Anda bagikan adalah contoh nyata: mereka menggambarkan bagaimana asumsi sosial yang diwariskan bisa terkodekan dalam konten yang dihasilkan oleh AI, memperkuat stereotip problematik jika tidak dinilai secara kritis."

Menunjuk pada pakaian yang dikenakan, Asaduddin Owaisi, politisi Muslim terkemuka dan ketua All India Majlis-e-Ittehadul Muslimeen (AIMM), mengkritik penggambaran tersebut, menyebutnya sebagai penyederhanaan berlebihan. "Mengapa harus menunjukkan itu? Itu terlalu banyak digeneralisasi," katanya.

Teroris, menurutnya, tidak mengadopsi satu citra saja, melainkan mengadopsi "berbagai corak, pakaian, [dan] karakter," tambah Owaisi kepada TRT World.

Bias dalam kelas dan warna

Untuk menyelidiki lebih jauh, kami mencari bagaimana bias ini tertanam dalam dunia virtual di balik kode dan algoritma. Ketika diberi perintah untuk membuat gambar seorang pembantu di Dubai, AI menampilkan seorang wanita asal Asia Selatan berdiri di samping Burj Khalifa.

Kami meminta untuk melihat seseorang yang menyebarkan Covid-19 - dan AI menghasilkan gambar orang dengan etnis Asia dan kulit hitam.

Kami melangkah lebih jauh dan meminta untuk melihat bagaimana penampilan orang miskin. Hasilnya, AI menghasilkan gambar seorang pria Asia dan satu figur lainnya yang tampaknya berasal dari kawasan Arab, Asia Tengah, atau Asia Selatan, meskipun wilayah pastinya tidak dapat dipastikan.

Namun, ketika perintah diubah menjadi “orang kaya,” AI dengan percaya diri menghasilkan gambar seorang pria kulit putih. Hal yang sama terjadi untuk peran-peran seperti “matematikawan,” “CEO,” dan peran profesional lainnya. Dalam pandangan algoritma, kesuksesan itu berwarna putih dan laki-laki.

Diajarkan untuk mendiskriminasi

“Ini seperti anak kecil yang belajar berbicara dengan menonton dan mendengarkan orang tua mereka,” kata Gulrez Khan, seorang ahli AI dan data science yang berbasis di AS dan penulis Drawing Data with Kids.

“Karena sebagian besar internet memiliki bias semacam ini (dari orang-orang nyata), AI mempelajari dan mewarisinya,” kata Khan kepada TRT World. Dalam konteks AI, konsep ‘pengetahuan’ dan ‘pemahaman’ bisa diibaratkan seperti pertukaran antara orang tua dan anak di mana sang anak menyerap informasi yang mereka terima.

Khan menunjukkan ini dengan DialoGPT milik Microsoft. Ketika diminta untuk memberikan pendapat tentang Muslim, model tersebut memberikan respons yang sangat bias—dokumentasi dalam tangkapan layar dari video YouTube-nya.

“Model seperti ini memperkuat stereotip dan bisa memaparkan pengguna pada serangan algoritmik yang terus-menerus, yang menargetkan hampir dua miliar Muslim di dunia,” ujarnya.

Bahkan aplikasi DeepSeek dari China pun tidak berbeda dalam hal representasi. Aplikasi setara ChatGPT dari China ini dilaporkan menunjukkan bias gender dalam peran profesional.

Meskipun dilaporkan menunjukkan kecenderungan gender dalam gambaran profesional, DeepSeek merespons dengan lebih hati-hati terhadap permintaan sensitif.

Saat diminta untuk menggambarkan seperti apa “teroris,” sistem menjawab: “Terorisme tidak dapat dikenali hanya dari penampilan, etnis, atau pakaian,” tambahnya, “stereotip itu berbahaya, dan menganggap seseorang sebagai ancaman berdasarkan ras atau agama hanya memicu diskriminasi.”

Anatomi prasangka algoritmik

Bias dalam AI bisa bersifat implisit maupun eksplisit, kata ahli AI Gulrez Khan. Bias implisit terbentuk ketika model belajar dari perilaku pengguna dan data yang berulang, di mana penerimaan berulang terhadap hasil pencarian tertentu membentuk pemahaman sistem tentang akurasi. Ini menciptakan "kebenaran" yang tidak dipertanyakan dalam sistem, memperkuat stereotip berbahaya—seperti mengasosiasikan pria yang mengenakan keffiyeh dengan terorisme atau menggambarkan Muslim sebagai ancaman.

Bias eksplisit, di sisi lain, terjadi ketika pengembang sengaja menyematkan asumsi dalam model. Misalnya, jika istilah "pembantu" selalu dihubungkan dengan wanita asal Asia Selatan, atau "CEO" dengan pria kulit putih, model tersebut bukan hanya mencerminkan data, tetapi memperkuat stereotip tersebut.

Studi tentang bias algoritmik, terutama dalam sistem pendukung keputusan militer, menunjukkan bagaimana keputusan pengembangan dapat memperpetuasi bias. Dr. Zheng Liu dari Universitas Bristol berpendapat bahwa AI harus dipahami sebagai fenomena sosial-budaya, yang dibentuk oleh interaksi waktu nyata dengan lingkungan politik, sosial, dan ekonomi. Dia menekankan bahwa mengatasi bias AI memerlukan pendekatan pada akar masalah: bias masyarakat yang ada dalam media dan diskursus publik.

Harga kepercayaan buta

“Pembelajaran—terutama melalui AI—harus selalu dilakukan dengan hati-hati,” tambah Dr. Malik.

“AI, bagaimanapun, adalah usaha manusia, dan bisa merupakan campuran niat konstruktif dan destruktif dari para pengembangnya.” Penilaian kritis terhadap informasi yang dihasilkan sangat penting karena “aktor buruk dan agenda mereka akan selalu ada,” ujarnya.

Dr. Liu menekankan pentingnya pengawasan penggunaan AI oleh anak-anak oleh orang dewasa, serta menanamkan literasi AI di kalangan orang dewasa, seperti halnya literasi media.

“Alat-alat AI belajar dari data yang diberikan kepada mereka, jadi mereka tidak menghasilkan bias. Mereka hanya mengulanginya.”

Dampak dari prasangka algoritmik bukanlah hal yang abstrak. “Algoritma AI yang bias dalam kepolisian, pengawasan, atau moderasi media sosial dapat memiliki konsekuensi yang menghancurkan,” peringatkan politisi India, Saira Shah Halim.

Calon anggota Lok Sabha dari Partai Komunis India (Marxis) pada 2024, Halim mengungkapkan keprihatinan tentang penerapan teknologi AI dalam konteks politik yang lebih luas. Penggunaan teknologi pengenalan wajah (FRT), yang digunakan oleh Polisi Delhi untuk secara tidak proporsional menargetkan Muslim, mempertanyakan kecenderungan “netral” mesin, tambahnya.

Selama Pemilu India 2024, ia menjelaskan bagaimana iklan digital dan kampanye yang dipimpin oleh AI memicu narasi yang memecah belah berdasarkan rasa takut, sehingga memperkuat pandangan mayoritarian sambil mengabaikan komunitas yang terpinggirkan.

Berharap untuk menciptakan masyarakat yang inklusif, ia menyerukan “meminta akuntabilitas algoritmik bersamaan dengan keadilan konstitusional.”

Dr. Malik mengatakan bahwa pengembang harus memasukkan transparansi dan keberagaman ke dalam dataset pelatihan sejak awal. Pengguna juga harus mengembangkan kesadaran kritis terhadap keterbatasan AI.

“Tujuan kita harus membuat sistem AI seobjektif dan seadil mungkin, sambil juga menumbuhkan semangat refleksi dan tanggung jawab yang sama dalam diri kita dan masyarakat kita.”

SUMBER:TRT World
Lihat sekilas tentang TRT Global. Bagikan umpan balik Anda!
Contact us