L’Intelligenza Artificiale nasconde, neanche troppo, rischi importanti

Anche su queste colonne abbiamo già parlato a iosa delle diverse applicazioni dell’intelligenza artificiale (AI) ed in particolar modo dei sistemi cosiddetti generativi (GenAI) come ChatGPT o Bard. Fino ad oggi ci siamo soffermati sulle prospettive di utilizzo o sulle applicazioni già in essere, questa volta vorrei sollevare l’attenzione su un possibile rischio, non solo etico, ma anche per i ritorni della l’azienda.

La GenAI secondo la definizione di Wikipedia “è un tipo di intelligenza artificiale che è in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste dette prompt. I sistemi di intelligenza artificiale generativa utilizzano modelli generativi, che sono modelli statistici di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente, che nel contesto del data mining è detta variabile target.” Detto in maniera più semplice (e anche semplificata) si tratta di sistemi che analizzano una mole di informazioni già presenti e da essa deducono delle regole per giungere a delle conclusioni. Ad esempio posso dare loro in pasto migliaia di foto di gatti e di cani, specificando quali animali siano, e la GenAI impara a riconoscerli sviluppando dei propri criteri. Qui c’è il fattore critico, l’AI è influenzata dalla base dati con cui si alimenta. Se la base dati è scorretta o alterata da comportamenti umani il rischio è che tragga delle conclusioni errate.

Nel settore del retail è presto per avere casi in ambito vendita, ma non in altri come l’HR. Amazon ha ottenuto risultati deludenti, non solo per l’efficacia, ma perché i sistemi si sono dimostrati sessisti già diversi anni fa secondo anche un articolo pubblicato da BBC News. In sostanza per molte posizioni venivano prediletti gli uomini rispetto alle donne. Si tratta quindi non solo di un mero rischio, ma alla luce dei fatti, di una realtà, le cui cause si possono ricondurre a mio avviso a due macro-motivazioni. Primo, i sistemi generativi si basano su basi dati esistenti, ed oggi la forza lavoro ha già molte discriminazioni sia a livello culturale (“badante”? pensi ad una signora dell’est) sia nelle numeriche (le badanti sono perlopiù signore dell’est). Ora in alcuni casi la correlazione caratteristica-statistica può essere accettabile: cerco una giocatrice di pallacanestro? La maggior parte di quelle di successo sono alte, la cerco anche io alta (ma esistono anche atleti formidabili e di talento di statura inferiore). Il fatto che la maggior parte dei manager di successo siano uomini e bianchi non implica che siano intrinsecamente o geneticamente meglio delle donne o delle persone di etnie diverse. Solamente perché ad oggi sono quelli che in maggioranza rivestono quelle posizioni e quindi numericamente più significativi. I migliori studenti delle università facoltose sono figli di ricchi, ciò non perché i figli delle classi medie o meno agiate siano meno intelligenti, ma solo perché numericamente solo in pochi riescono ad accedere ad un’istruzione di elite e questo ha un diretto impatto sulla statistica. Ed il problema non è solo in campo HR, o di evoluzione della tecnologia, visto che in un altro recente esperimento i robot con l’intelligenza artificiale si sono dimostrati sessisti e razzisti. Pregiudizi che sono già, purtroppo, umani, ma che con l’IA possono addirittura peggiorare. Già, perché mentre si spera che l’umanità sviluppi cultura e mentalità più aperte, gli algoritmi dei computer tendono ad amplificare ogni relazione effetto-causa (pensiamo solo alle bolle informative di oggi) con il rischio che errori simili avvengano anche nel suggerire i prodotti, creare promozioni o generare prezzi personalizzati per singolo cliente o cluster.