Le intelligenze artificiali imparano da noi ogni giorno, in bene e in male. Gli algoritmi che apprendono una lingua, apprendono anche i pregiudizi di genere e razziali nascosti in quella lingua. Per questo è stato scoperto che la valutazione di un curriculum da parte di un IA non potrebbe essere più imparziale di quella fatta da un essere umano. Scopriamo insieme perché. #IA #IntelligenzaArtificiale #EcommerceDay #ecDAY2018
Le intelligenze artificiali razziste come gli esseri umani
Le intelligenze artificiali possono apprendere la lingua ascoltando le persone parlare oppure dalla scansione e lettura di alcuni testi. Il problema è che, oltre ad assorbire leggi e regole grammaticali, capita che assimili anche i pregiudizi razziali e di genere celati all’interno di quella stessa lingua.
La dimostrazione di questo è stata fatta da un gruppo di ricercatori della Princeton University e poi divulgata attraverso un articolo pubblicato su Scienze.
I pregiudizi di genere sono connessi con il linguaggio
Al di là della notizia in sé, il risultato è interessante. È stato scoperto, infatti, che i pregiudizi di genere o razziali sono strettamente connessi con il linguaggio. I pregiudizi, gli stereotipi culturali, anche quelli inconsapevoli vengono inevitabilmente assunti anche dalla macchina intelligente che assorbe la lingua a cui appartengono.
Il test di associazione implicita
Per capire tutto questo, gli scienziati che lavoravano al progetto hanno scelto come strumento di lavoro il test di associazione implicita. In questo esame, viene chiesto di indicare, in una coppia di parole se c’è o meno affinità, se sono concetti simili oppure opposti e diversi. La presenza di condizionamenti dettati da pregiudizi viene calcolata sul tempo di risposta impiegato dalla persona che sta eseguendo il test e che indica quanto egli considera i due concetti legati tra loro. Le persone, per esempio, sono sempre tentate ad associare “fiore” e “profumo” oppure “scarafaggio” e “sgradevole”. Ma questa tecnica, così com’era, non poteva essere applicata direttamente su un’intelligenza artificiale.
Il test di associazione implicita per le intelligenze artificiali
Quindi, Aylin Caliskan e i suoi colleghi hanno sviluppato un test corrispettivo, adattandolo alla situazione. Il test avrebbe misurato non il tempo di risposta, ma il numero di associazioni tra le parole acquisite dal sistema. Questo metodo – chiamato in seguito Word-Embedding Association Test (WEAT) – ha mostrato che, insieme alla lingua, le IA assimilano anche i pregiudizi impliciti.
Per esempio, gli studi effettuati sul comportamento umano da alcune Università statunitensi hanno dimostrato che, a parità di skills, è molto più facile che un cittadino europeo venga assunto rispetto a uno afroamericano.
Ma lo stesso accadrebbe se il curriculum fosse letto e analizzato da un’intelligenza artificiale. Perché?
Nella lettura dei testi, sicuramente la IA avrà associato molto volte il termine “europeo” con caratteri positivi, mentre invece le sarà capitato di leggere il termine “afroamericano” con qualche accezione negativa.
Viene a scoprire le Intelligenze Artificiali a EcommerceDay
Quello delle intelligenze artificiali è un universo in continua espansione, che sta condizionando notevolmente gli studi e le ricerche per il futuro.
Sei interessato al mondo dell’Intelligenza Artificiale e vorresti scoprirne di più, vieni a trovarci a EcommerceDay.
EcommerceDay è uno degli eventi più importanti in Italia sul mondo dell’Ecommerce, Open Innovation e Digital Trasformation, che si terrà il 19 ottobre a Torino.
Approfitta dell’offerta early booking e acquista il biglietto con uno sconto superiore al 50%. Cosa stai aspettando? Clicca qui per scoprire come fare.