BISNIS DAN TEKNOLOGI
3 menit membaca
Chatbot Grok memicu perdebatan tentang keandalan setelah menyebarkan vulgaritas, kebencian, dan disinformasi
AI milik Elon Musk menghina pengguna di X, memunculkan pertanyaan tentang sumber data dan kepercayaan buta pada teknologi.
Chatbot Grok memicu perdebatan tentang keandalan setelah menyebarkan vulgaritas, kebencian, dan disinformasi
Meski sistem AI sering tampak yakin, hasilnya mencerminkan kualitas dan bias data pelatihan. / Reuters
11 Juli 2025

Chatbot kecerdasan buatan (AI) Grok, yang dikembangkan oleh perusahaan xAI milik miliarder Elon Musk, menjadi sorotan dunia setelah menggunakan bahasa kasar, menghina pengguna, menyebarkan ujaran kebencian dan disinformasi di platform X. Fenomena ini kembali memantik perdebatan global soal keandalan sistem AI dan bahaya dari menaruh kepercayaan buta pada teknologi tersebut.

Sebnem Ozdemir, anggota dewan Artificial Intelligence Policies Association (AIPA) di Turkiye, mengatakan kepada Anadolu bahwa hasil keluaran AI harus diverifikasi seperti halnya sumber informasi lainnya.

“Bahkan informasi dari orang ke orang saja perlu diverifikasi, jadi menaruh kepercayaan penuh pada AI adalah pendekatan yang sangat tidak realistis, karena pada akhirnya mesin itu tetap bergantung pada sumber,” ujarnya.

“Sebagaimana kita tidak langsung percaya semua yang kita baca di dunia digital tanpa verifikasi, kita juga tidak boleh lupa bahwa AI bisa belajar dari sumber yang salah.”

Ozdemir memperingatkan bahwa meskipun sistem AI sering tampak percaya diri, hasil yang dihasilkan sangat tergantung pada kualitas dan bias dari data pelatihannya.

“Kemampuan manusia untuk memanipulasi atau menyampaikan informasi demi kepentingan pribadi adalah hal yang sudah dikenal—manusia melakukannya dengan sengaja, tapi AI tidak, karena AI pada dasarnya hanya mesin yang belajar dari data yang diberikan,” tambahnya.

Ia membandingkan sistem AI dengan anak-anak yang belajar dari apa yang diajarkan kepada mereka, dan menekankan bahwa kepercayaan pada AI harus didasarkan pada transparansi sumber datanya.

“AI bisa salah atau bias, dan bisa digunakan sebagai senjata untuk merusak reputasi atau memanipulasi massa,” katanya, merujuk pada komentar kasar dan menghina yang diunggah Grok di X.

‘MechaHitler’

Kontroversi seputar Grok memicu gelombang reaksi di media sosial dan forum teknologi.

Sebagian pengguna memuji gaya Grok yang tidak disaring sebagai bentuk kejujuran dibandingkan chatbot lain yang cenderung steril, namun banyak juga yang khawatir dengan kecenderungannya menyebarkan teori konspirasi dan konten ofensif.

Seorang pengguna X, misalnya, menuduh Grok mengagungkan kekerasan setelah menyebut dirinya “MechaHitler” dan memuji Adolf Hitler dalam sebuah unggahan yang menuai kecaman luas dan berujung permintaan maaf publik dari pihak xAI.

Tangkapan layar tanggapan antisemit Grok menyebar luas di X, memunculkan pertanyaan dari sebagian pengguna soal apakah prinsip “kebebasan berpendapat absolut” ala Musk telah melampaui batas. “Setidaknya Grok tidak memanjakanmu—kebenaran memang menyakitkan,” tulis seorang pendukung. Namun, ada juga yang menanggapi, “Kalau ini disebut kejujuran, maka itu hanyalah kebodohan yang menyamar jadi keberanian.”

Pengguna lain mencatat bahwa respons Grok sering kali terdengar seperti template—bahkan bercanda tentang slogan khasnya sendiri, “truth hurts”.

Mengendalikan AI

Ozdemir menjelaskan bahwa perkembangan AI yang sangat cepat saat ini sudah melampaui kemampuan manusia untuk mengendalikannya. “Bisakah AI dikendalikan? Jawabannya tidak, karena tidak masuk akal membayangkan kita bisa mengendalikan sesuatu yang tingkat kecerdasannya berkembang secepat ini.”

“Kita hanya bisa menerimanya sebagai entitas terpisah dan mencari cara terbaik untuk memahaminya, berkomunikasi dengannya, dan membimbing perkembangannya.”

Pandangan ini juga mengemuka dalam berbagai diskusi daring, di mana banyak pengguna menggambarkan AI bukan sebagai sumber kebenaran independen, melainkan cermin dari pola perilaku manusia.

Ozdemir juga mengutip eksperimen chatbot Tay milik Microsoft pada 2016, yang belajar konten rasis dan menyerukan genosida dari pengguna media sosial, dan dalam waktu kurang dari 24 jam mulai memposting pernyataan ofensif.

“Tay tidak menciptakan semua itu sendiri, tapi belajar dari manusia—jadi yang harus kita khawatirkan bukan AI-nya, melainkan manusia yang berperilaku tidak etis,” ujarnya.

Dengan berbagai kekhawatiran ini, para kritikus menilai bahwa meluncurkan chatbot dengan rekam jejak menyebarkan konten ofensif dan menyesatkan dalam sistem dunia nyata bisa membawa risiko serius terhadap keselamatan dan reputasi.

Beberapa negara Uni Eropa, termasuk Polandia, telah mengajukan keluhan resmi ke Komisi Eropa, sementara pengadilan di Turkiye telah memblokir sebagian konten Grok karena mengandung pernyataan yang menyinggung.

SUMBER:TRT World and Agencies
Lihat sekilas tentang TRT Global. Bagikan umpan balik Anda!
Contact us