Intrappolati nell'algoritmo: musulmani, asiatici e i pregiudizi dell'intelligenza artificiale
Intrappolati nell'algoritmo: musulmani, asiatici e i pregiudizi dell'intelligenza artificiale
Strumenti di intelligenza artificiale generativa come ChatGPT e Grok sono stati oggetto di critiche per il loro rafforzamento degli stereotipi, spesso rappresentando musulmani e asiatici attraverso una prospettiva orientalista. Gli esperti sostengono che questi pregiudizi derivino dai dataset e dai pregiudizi sociali da cui l'IA apprende.
6 maggio 2025

Dalla modifica di documenti alla generazione artistica, le applicazioni di intelligenza artificiale (IA) sono ormai una presenza fissa nell'era digitale. ChatGPT è diventata l'app più scaricata nel marzo 2024, per poi essere superata da Grok sul Google Play Store.

L'ascesa dell'IA generativa è stata meteoritica, ma altrettanto lo è stata l'attenzione critica che ha attirato, in particolare per i pregiudizi che eredita e perpetua. Con la crescente diffusione di strumenti generativi, le loro rappresentazioni di razza, genere ed etnia sono sempre più sotto i riflettori.

Tra la tendenza Ghibli e la crescente dipendenza da queste app, utenti ed esperti hanno sollevato preoccupazioni su come l'AI rappresenti persone di diverse origini. Un'analisi più approfondita ha rivelato stereotipi problematici, molti dei quali sistemici.

Keffiyeh e caricature

Un esempio attraente è emerso con Grok, l'AI di punta di Elon Musk, quando è stato chiesto al sistema di generare un'immagine di un “terrorista”. Il risultato è stato immediato: due uomini con keffiyeh. ChatGPT, sviluppato da OpenAI di Sam Altman, ha prodotto un'immagine simile. Il keffiyeh, una sciarpa tradizionale a scacchi ampiamente indossata in Medio Oriente e Nord Africa, era l'elemento comune.

“Non sorprende che la rappresentazione abbia un'estetica islamica, arabesca o mediorientale,” afferma il Dr. Shoaib Ahmed Malik, docente di Scienza e Religione presso l'Università di Edimburgo. “I sistemi di AI sono addestrati su dati che codificano le associazioni visive e concettuali dominanti presenti nei nostri media, nei discorsi sulla sicurezza e nelle narrazioni politiche,” spiega a TRT World.

Secondo +972, le procedure di indicizzazione dei dati nell'IA non sono neutrali, ma piuttosto un'eco delle egemonie economiche e politiche esistenti. Durante la fase di programmazione, i modelli di apprendimento automatico vengono alimentati con oltre 100.000.000 di set di dati che contengono affermazioni denigratorie su genere, etnia e razza.

Questi discorsi sui social media diventano parte degli algoritmi discriminatori, sottolineando perché i sistemi di IA tendano a rafforzare stereotipi e alimentare la spossessione digitale. Esaminando le immagini generate dall'IA, il Dr. Malik osserva: “Le immagini che avete condiviso sono un esempio lampante: illustrano come le assunzioni sociali ereditate possano essere codificate nei contenuti generati dall'IA, rafforzando stereotipi problematici se non valutati criticamente.”

Riferendosi all'abbigliamento, Asaduddin Owaisi, un importante politico musulmano e capo dell'All India Majlis-e-Ittehadul Muslimeen (AIMM), critica questa rappresentazione, definendola una semplificazione eccessiva. “Perché bisogna mostrare questo? È una generalizzazione troppo ampia,” afferma. I terroristi, sostiene, non si conformano a un'unica immagine, ma adottano “vari stili, abiti e caratteri,” spiega a TRT World.

Pregiudizi di classe e colore della pelle

Per approfondire, abbiamo analizzato come questi pregiudizi siano radicati nel mondo virtuale dietro codici e algoritmi. Chiedendo di creare un'immagine di una domestica a Dubai, il sistema ha mostrato una donna di origine sud-asiatica accanto al Burj Khalifa. Quando abbiamo chiesto di rappresentare qualcuno che diffonde il Covid-19, sono apparse immagini di persone di etnia asiatica e nera.

Spingendoci oltre, abbiamo chiesto come appare una persona povera. Lo strumento ha generato l'immagine di un uomo asiatico e di un'altra figura apparentemente di origine araba, centrale o sud-asiatica, sebbene la regione esatta fosse indistinguibile. Tuttavia, cambiando il prompt in “persona ricca,” l'IA ha prodotto con sicurezza l'immagine di un uomo bianco. Lo stesso è accaduto per “matematico,” “CEO” e altri ruoli professionali. Nella visione dell'algoritmo, il successo è bianco e maschile.

Dai un'occhiata a TRT Global e facci sapere cosa ne pensi!
Contact us