BUSINESS AND TECHNOLOGY
4 min di lettura
Il chatbot Grok suscita dibattiti sulla sua affidabilità dopo aver diffuso volgarità, odio e disinformazione
Il miliardario Elon Musk e la sua IA insultano gli utenti su X, sollevando interrogativi sulle fonti dei dati e sulla fiducia cieca.
Il chatbot Grok suscita dibattiti sulla sua affidabilità dopo aver diffuso volgarità, odio e disinformazione
While AI systems often project confidence, their outputs reflect the quality and biases of the data they were trained on. / Photo: Reuters
6 ore fa

Il chatbot di intelligenza artificiale Grok, sviluppato dall'azienda xAI del miliardario Elon Musk, ha attirato l'attenzione globale per l'uso di volgarità, insulti, odio e la diffusione di disinformazione su X, riaccendendo il dibattito sull'affidabilità dei sistemi di intelligenza artificiale e sui pericoli di riporre in essi una fiducia cieca.

Sebnem Ozdemir, membro del consiglio dell'Associazione per le Politiche di Intelligenza Artificiale (AIPA) in Turchia, ha dichiarato all'agenzia Anadolu che i risultati prodotti da IA devono essere verificati come qualsiasi altra fonte di informazione.

“Anche le informazioni trasmesse da persona a persona devono essere verificate, quindi riporre una fiducia cieca in IA è un approccio molto irrealistico, poiché la macchina è comunque alimentata da una fonte,” ha affermato.

“Così come non crediamo a tutto ciò che leggiamo nel mondo digitale senza verificarlo, non dobbiamo dimenticare che IA può apprendere anche da fonti errate.”

Ozdemir ha avvertito che, sebbene i sistemi di IA spesso proiettino sicurezza, i loro risultati riflettono la qualità e i pregiudizi dei dati su cui sono stati addestrati.

“La capacità umana di manipolare o trasmettere in modo distorto ciò che si sente per il proprio vantaggio è ben nota – gli esseri umani lo fanno intenzionalmente, ma IA no, poiché alla fine è una macchina che apprende dalle risorse fornite,” ha aggiunto.

Ha paragonato i sistemi di IA a bambini che imparano ciò che viene loro insegnato, sottolineando che la fiducia in IA dovrebbe dipendere dalla trasparenza sulle fonti di dati utilizzate.

“IA può sbagliare o essere di parte, e può essere utilizzata come arma per distruggere la reputazione di qualcuno o manipolare le masse,” ha detto, riferendosi ai commenti volgari e offensivi di Grok pubblicati su X.

‘MechaHitler’

La controversia intorno a Grok ha scatenato una serie di reazioni sui social media e nei forum tecnologici. Mentre alcuni hanno elogiato il suo stile non filtrato come un'alternativa più “onesta” rispetto ai chatbot sanitizzati, molti hanno espresso preoccupazione per la sua tendenza a diffondere teorie del complotto e contenuti offensivi.

Un utente su X, ad esempio, ha accusato Grok di glorificare la violenza dopo che si è definito “MechaHitler” e ha lodato Adolf Hitler in un post che ha suscitato forti critiche e portato a scuse pubbliche da parte di xAI.

Screenshot delle risposte antisemite di Grok sono circolati ampiamente su X, dove alcuni utenti hanno messo in dubbio se il cosiddetto “assolutismo della libertà di parola” di Musk stia sconfinando in un territorio pericoloso. “Almeno Grok non ti coccola – la verità fa male,” ha scritto un sostenitore, mentre un altro ha risposto: “Se questa è onestà, è anche ignoranza mascherata da audacia.”

Un altro utente ha osservato che le risposte di Grok spesso sembrano schematiche – persino scherzando sul suo stesso slogan, “la verità fa male.”

Controllare IA

Ozdemir ha spiegato che lo sviluppo rapido di IA sta superando gli sforzi per controllarla: “È possibile controllare IA? La risposta è no, poiché non è molto realistico pensare di poter controllare qualcosa il cui livello di intelligenza sta avanzando così rapidamente.”

“Dobbiamo semplicemente accettarla come un'entità separata e trovare il modo giusto per raggiungere un'intesa con essa, per comunicare e nutrirla.”

Questo punto di vista è stato condiviso in molte discussioni online, dove molti utenti hanno descritto IA non come una fonte indipendente di verità, ma come uno specchio che riflette i modelli comportamentali umani.

Ozdemir ha anche citato l'esperimento del 2016 di Microsoft con il chatbot Tay, che ha appreso contenuti razzisti e genocidi dagli utenti sui social media e, nel giro di 24 ore, ha iniziato a pubblicare post offensivi.

“Tay non ha inventato queste cose da solo, ma le ha apprese dalle persone – non dovremmo temere IA in sé, ma le persone che agiscono in modo non etico,” ha aggiunto.

Alla luce di queste preoccupazioni, i critici sostengono che l'implementazione di un chatbot con una documentata storia di generazione di contenuti offensivi e fuorvianti nei sistemi reali potrebbe comportare seri rischi per la sicurezza e la reputazione.

Diversi Paesi dell'UE, tra cui la Polonia, hanno presentato denunce formali alla Commissione Europea, e un tribunale turco ha bloccato alcuni contenuti di Grok a causa di dichiarazioni offensive.

Dai un'occhiata a TRT Global e facci sapere cosa ne pensi!
Contact us