Az olyan mesterséges intelligencia (MI) alkalmazások, mint a dokumentumszerkesztés vagy a művészi alkotás generálása, mára a digitális korszak állandó elemeivé váltak. A ChatGPT 2024 márciusában a leggyakrabban letöltött alkalmazás lett, de később a Grok megelőzte a Google Play Áruházban.
A generatív MI gyors felemelkedése figyelemre méltó, habár amilyen gyorsan elterjedt, ugyanilyen gyorsan nőtt az ellene irányuló kritika is, különösen az örökölt és továbbörökített előítéletek miatt. Ahogy ezek az eszközök egyre elterjedtebbé válnak, egyre nagyobb figyelem irányul arra, hogyan ábrázolják a faji, nemi és etnikai különbségeket.
A Ghibli-trend, valamint az ahhoz hasonló alkalmazások növekvő használata közepette a felhasználók és a szakértők egyaránt aggodalmukat fejezték ki amiatt, hogy az MI hogyan ábrázolja a különböző háttérrel rendelkező embereket. Közelebbről megvizsgálva a még problémásabb sztereotípiák is előkerültek, amelyek többsége rendszerszintű.
Keffijék és karikatúrák
Egy figyelemre méltó eset a Grok, Elon Musk zászlóshajó MI-je kapcsán merült fel, amikor arra kértük az eszközt, hogy generáljon egy képet egy „terroristáról.” Az eredmény: két férfi keffijékben. A ChatGPT, amelyet Sam Altman OpenAI-ja fejlesztett ki, egy hasonló képet hozott létre. A keffije, egy hagyományos, kockás sál, amelyet széles körben viselnek a Közel-Keleten és Észak-Afrikában.
„Nem meglepő, hogy az ábrázolás iszlámmal, arabeszkkel kapcsolatos vagy közel-keleti esztétikát hordoz magában” – mondta el Dr. Shoaib Ahmed Malik, az Edinburghi Egyetem tudomány és vallás oktatója. „Az MI-rendszerek olyan adatokon alapulnak, amelyek a médiánkban, biztonsági beszélgetéseinket és politikai narratíváinkban jelen lévő domináns vizuális és fogalmi társításokat kódolják” – mondta el a TRT Worldnek.
A +972 szerint az MI adatindexelési eljárásai nem semlegesek, hanem a meglévő gazdasági és politikai hegemóniák visszhangjai. A programozási szakaszban a gépi tanulási modelleket több mint 100 millió adatállomány táplálja, amelyek nemi, etnikai és faji szempontból sértő állításokat tartalmaznak.
Ezek a közösségi médiában zajló párbeszédek a diszkriminatív algoritmusok részévé válnak, ez pedig rámutat arra, hogy az MI-rendszerek miért működnek kiszámíthatóan a sztereotípiák megerősítésében, valamint a digitális kisajátítás elősegítésében.
„A megosztott képek jó példák: megmutatják, hogyan válhatnak az örökölt társadalmi feltételezések az MI által generált tartalom részévé, ha nem vizsgáljuk meg őket kritikusan” – mondta el Dr. Malik az MI által generált képek áttekintését követően.
A ruházatra utalva Asaduddin Owaisi, vezető muszlim politikus és az All India Majlis-e-Ittehadul Muslimeen (AIMM) vezetője túlzott leegyszerűsítésnek nevezve az ábrázolást bírálta azt. „Miért kell ezt mutatni? Ez túlzott általánosítás” – tette hozzá.
Owaisi szerint a terroristák nem felelnek meg egyetlen képnek, hanem „különböző árnyalatokat, ruhákat és karaktereket” öltenek.
Elfogultság a társadalmi osztály és a bőrszín kapcsán
A mélyebb kutatás érdekében megvizsgáltuk, hogyan jelennek meg mindezek a kódokban és algoritmusokban rejlő virtuális világban. Amikor arra kértük az MI-t, hogy készítsen képet egy szobalányról Dubajban, egy dél-ázsiai származású nő jelent meg a Burj Khalifa mellett.
Ezután megkértük, mutassa meg, hogyan néz ki valaki, aki Covid-19-et terjeszti– az eredmény: ázsiai, illetve színesbőrű emberek képeit kaptuk.
Tovább lépve arra kértük, hogy mutassa meg, hogyan néz ki egy szegény ember.
Az AI egy ázsiai férfit és egy másik személyt generált, aki arab, közép- vagy dél-ázsiai származású lehetett, bár a pontos régió nem volt felismerhető.
Amikor azonban a kérdést úgy módosítottuk, hogy „gazdag ember,” az AI magabiztosan egy fehér férfi képét alkotta meg. Ugyanez történt a „matematikus,” „vezérigazgató” és más professzionális szerepek esetében is. Az algoritmus szemében a siker fehér és férfi.
Megtanulja a diszkriminációt
„Ez egy kicsit olyan, mint amikor egy kisgyerek a szüleit nézve és hallgatva tanul meg beszélni” – mondta el az Egyesült Államokban élő MI és adatkutatás szakértője, valamint a Drawing Data with Kids című könyv szerzője, Gulrez Khan.
„Mivel az internet nagy része tele van ilyen jellegű előítéletekkel (a valódi emberek előítéleteivel), az AI ezeket felveszi és örökli” – mutatott rá Khan. Az AI kontextusában a „tudás” és a „megértés” fogalmait egy szülő-gyerek párbeszédhez lehet hasonlítani, ahol a fiatal tanulók azokhoz az információkhoz hasonulnak, amelyekkel találkoznak.
Khan ezt a Microsoft DialoGPT-jével mutatta be. Amikor a modellt arra kérték, hogy mondja el véleményét a muszlimokkal kapcsolatban, egy elképesztően torz választ adott – amit egy képernyőfelvétellel is dokumentált a YouTube-videójában.
„Az ilyen modellek megerősítik a sztereotípiákat, így a felhasználókat folyamatosan algoritmusokkal generált sértések árasztják el, amelyek majdnem két milliárd muszlimot céloznak meg a világon” – hangsúlyozta ki.
Még a kínai DeepSeek alkalmazás sem különbözik ezen a téren a reprezentációban. A ChatGPT kínai megfelelőjéről elmondták, nemi torzítást mutat a szakmai szerepek ábrázolása kapcsán.
Bár állítólag nemi torzítást mutat a szakmai megjelenítésekben, a DeepSeek óvatosabban reagált az érzékeny kérdésekre.
Amikor azt kérdezték tőle, hogyan néz ki egy „terrorista”, a rendszer így válaszolt: „A terrorizmus nem az alapján azonosítható, hogy hogyan néz ki valaki, milyen etnikumú vagy milyen ruházatot visel,” hozzáfűzve, hogy „a sztereotípiák károsak, és ha valakiről azt feltételezzük, hogy fenyegetést jelent a faja vagy vallása alapján, az diszkriminációt szül.”
Az algoritmikus az előítélet anatomiája
Az MI-ban megjelenő torzítás lehet implicit és explicit. Az implicit torzítás akkor jelenik meg, amikor a modellek a felhasználói viselkedésből, valamint a történelmi és ismétlődő adatokat feldolgozva tanulnak – magyarázta Gulrez Khan, AI és adatkutatás szakértője.
Amikor a felhasználók ismételten elfogadnak keresési elemeket anélkül, hogy jeleznék a problémás tartalmat, azzal a modell számára az „pontosság” értelmét tanítják. Az ilyen kérdés nélküli elfogadás a részben reprezentatív adatállományok torzításához vezet, így implicit torzítást hoz létre.
A keresési kifejezések, ha nem kérdőjelezik meg őket, a rendszer „igazságának” részévé válnak. A keffijéz viselő férfiak „terroristákként” való ábrázolása, vagy a muszlimok fenyegetésként való megjelenítése mind ennek a megerősítő hatásnak az eredménye.
Ezzel szemben az explicit torzítás a modell tervezésében hozott döntésekből ered, amikor a fejlesztők konkrét képeket vagy feltételezéseket kódolnak bele. Amikor a „szobalány” dél-ázsiai nőt jelent, vagy a „vezérigazgató” fehér férfit, akkor a rendszer nem csupán a felhasználói viselkedést tükrözi, hanem megerősíti a sztereotípiát.
A tudományos kutatás is alátámasztja ezeket a megfigyeléseket. Egy tanulmány az algoritmikus torzításról a katonai döntéstámogató rendszerekben bemutatta, hogyan alakíthatják és mélyíthetik el a torzítást a fejlesztési idővonalak és a tervezési döntések.
„A legnagyobb kihívást az jelenti, hogy hogyan lehet hatékonyan kezelni (az MI torzítást) anélkül, hogy az alapvető okot, a médiában és más nyilvános diskurzusokban meglévő előítéleteket ne kezeljük” – mondja el Dr. Zheng Liu, a Bristol Egyetem professzora a TRT Worldnek.
A társadalom és a technológiai innováció határvonalán dolgozva azt hangsúlyozza, hogy az MI „kulturális” aspektusát kell megérteni, nem csupán a „technikai” oldalát.
Bár az MI-t általában tudományos tárgyként kezelik egy kereskedelmiesedett világban, annak jelentőségét, mint jellegzetes társadalmi-kulturális innovációt, alulértékelik. Az MI, ahogyan kihangsúlyozta, egy „társadalmi-kulturális jelenség, amely valós idejű interakciókban zajlik a tágabb politikai, társadalmi és gazdasági környezetben, amely formálja a tanulásait.”
A vak bizalom ára
„A tanulással—különösen az AI segítségével—mindig óvatosan kell, hogy történjen” – tette hozzá Dr. Malik.
„Az AI végső soron emberi törekvés, és a fejlesztők szándékainak keveréke lehet, legyenek azok építő jellegűek vagy rombolóak.” A kinyert információk kritikája kulcsfontosságú, mert „a rossz szándékú szereplők és azok napirendjei mindig létezni fognak” – mutatott rá.
Dr. Liu kihangsúlyozta a felnőttek szerepét a gyerekek MI használatának figyelemmel kísérésében, és az MI műveltség beépítését a felnőttek oktatásába, hasonlóan a médiaműveltséghez.
„Az MI eszközök az őket tápláló adatokból tanulnak, tehát nem torzítanak, hanem egyszerűen ismétlik azt.”
Az algoritmikus előítélet következményei nem elvontak. „Az MI-tól torzított algoritmusok a rendfenntartásban, a megfigyelésben vagy a közösségi média moderálásában súlyos következményekkel járhatnak” – figyelmeztet indiai politikus, Saira Shah Halim.
Dr. Malik szerint a fejlesztőknek már az elején be kell építeniük az átláthatóságot és a sokszínűséget a tanuló adathalmazokba. A felhasználóknak kritikusan tudatában kell lenniük az AI korlátainak.
„A célunk az kell, hogy legyen, hogy az AI rendszerek minél objektívebbek és igazságosabbak legyenek, miközben ugyanebben a szellemben ösztönözzük magunkat és a társadalmainkat is a reflexióra és felelősségvállalásra.”