NEWSLETTER - IL CAFFE' DIGITALE
Intelligenza artificiale, le domande scomode che dobbiamo porci

Per il problema del pregiudizio nell’intelligenza artificiale, il bias, così come per altre questioni etiche connesse a questa tecnologia, ancora non c’è una risposta semplice. Ma diversi progetti di ricerca stanno elaborando possibili risposte (necessariamente complesse) e azioni correttive per ridurre, se non altro, le distorsioni attualmente presenti nei sistemi di intelligenza artificiale. I big dell’Artificial Intelligence, come Google, Microsoft, Amazon, Apple, Facebook, devono essere disposti ad accettare le critiche e a lavorare per migliorarsi, facendo fede alle proprie dichiarazioni d’intenti su una AI più etica. 

Google, per esempio, in modo esplicito da qualche anno si è impegnata al rispetto di alcuni principi etici: la sua intelligenza artificiale dev’essere inclusiva, benefica per la società, rispettosa della privacy, accessibile democraticamente, sicura a partire dalla sua progettazione, affidabile e credibile. Deve, inoltre, “evitare di creare o rafforzare ingiusti pregiudizi”.

Danni ambientali e pregiudizio nell’intelligenza artificiale 

Dalle dichiarazioni d’intenti alla pratica, però, non sempre tutto fila liscio. A fine 2020 ha fatto discutere la decisione di Google di licenziare una delle sue ricercatrici, Timnit Gebru: la 37enne di origini eritree (con alle spalle un dottorato in computer vision all’Università di Stanford ed esperienze di lavoro in Apple e Microsoft) aveva pubblicato un articolo in cui si criticavano i software di elaborazione del linguaggio, capaci di processare enormi moli di dati e di creare testi di senso compiuto. Gebru e cinque suoi collaboratori, coautori dell’articolo, segnalavano soprattutto due problemi: il pesante impatto ambientale di questi programmi e il rischio che possano veicolare pregiudizi, razzismo e discriminazioni. 

Addestrare un modello di AI di grandi dimensioni richiede un’enorme potenza di calcolo, che si traduce in consumi energetici. Tra il 2017 e il 2017 le emissioni di CO2 e i costi dei progetti di intelligenza artificiale sono esplosi. L’articolo di Gebru cita numerose fonti, tra cui un precedente articolo del 2019 di Emma Strubell (altra ricercatrice di Google) secondo cui il training di un algoritmo di comprensione del linguaggio può generare 284 tonnellate di anidride carbonica, l’equivalente di quanto prodotto in media da un’automobile nel suo intero ciclo di vita. Stando ai calcoli di Strubell, per allenare Bert (Bidirectional Encoder Representations from Transformers, modello introdotto nel 2019 nel motore di ricerca di Google) è stata prodotta una quantità di CO2 pari a quella di un volo aereo di andata e ritorno tra New York e San Francisco.

Bisogno di trasparenza

Discutere di quanto questi “sacrifici ambientali” siano giustificabili è affare complesso. Quello che invece è certamente da biasimare, sotto ogni punti di vista, è l’infiltrazione del pregiudizio razziale e di altre forme di bias all’interno degli algoritmi. Può succedere facilmente quando, come nei casi dei software di comprensione del linguaggio, gli algoritmi vengono allenati su grandi volumi di dati tratti dal Web. In questo calderone possono esserci espressioni che veicolano razzismo, sessismo, odio, volgarità.

Ma come si è giunti al licenziamento di Timnit Gebru? L’articolo scientifico è frutto del lavoro di sei persone, cioè Gebru, Emily Bender (docente di linguistica computazionale all’Università di Washington) e altri quattro ricercatori di Google. In vista della pubblicazione, l’articolo era circolato internamente all’azienda per approvazione, come succede – a detta di Google – per evitare che compaiano all’interno dati sensibili. 

Gebru sostiene di essere stata mandata via da Jeff Dean, vice presidente della divisione AI di Google, perché aveva rifiutato di cancellare dall’articolo il proprio nome e quello degli altri ricercatori dell’azienda, chiedendo invece una maggiore trasparenza sulle procedure di approvazione. In caso contrario, avrebbe rassegnato le dimissioni. E Google non l’ha fermata. Secondo Dean, invece, semplicemente l’articolo non soddisfaceva alcuni criteri, omettendo di parlare dei molti benefici dell’intelligenza artificiale, anche ambientali, e del lavoro fatto all’interno dell’azienda per risolvere il problema del bias. La ricercatrice avrebbe preteso di conoscere i nomi di tutte le persone coinvolte nel processo di revisione, una richiesta non esaudibile.

Che questa sia stata una separazione per dissapori e divergenze d’opinione, o piuttosto una manovra tesa ad allontanare una voce scomoda, difficile dirlo. In una lettera aperta, indirizzata al suo team di ricercatori e poi pubblicata online, Jeff Dean ha sottolineato l’impegno di Google a “continuare la ricerca su temi di particolare importanza per la diversity  individuale e intellettuale, dall’ingiusto pregiudizio sociale e tecnico nei modelli di machine learning, alla insufficiente rappresentatività dei dati di training, fino all’inclusione del contesto sociale nei sistemi di AI”.

Il pregiudizio nelll

Il pregiudizio nell’intelligenza artificiale non è il solo problema

Un’altra voce scomoda, anche in questo caso una voce femminile, è quella di  Kate Crawford, docente della University of Southern California e senior principal researcher di Microsoft Research. Nel suo saggio Atlas of AI vengono evidenziati i processi che avvengono nel dietro le quinte dell’intelligenza artificiale, di cui poco si parla: che impatto materiale e psicologico hanno sul modo di lavorare delle persone, e quali sono i costi ambientali? Come raccontato da Crawford in un’intervista, “Questi sistemi si stanno diffondendo in una moltitudine di settori senza una forte regolamentazione, consenso o dibattito democratico”.

Per mettere in piedi un sistema altamente automatizzato è spesso necessario un grosso lavoro manuale (spesso sottopagato) di raccolta e classificazione dei dati. “L’AI non è né artificiale né intelligente”, ha detto Crawford. “È fatta di risorse naturali e sono le persone che eseguono le attività a far apparire i sistemi autonomi”. C’è poi il problema del bias, anche se il termine potrebbe essere riduttivo, perché “questi sistemi producono continuamente errori: l’affidabilità creditizia delle donne viene giudicata inferiore, i volti di persone di colore vengono male etichettati, e finora la risposta è stata che ci servono più dati. Ma ho cercato di capire le logiche di classificazione più profonde e si intravedono forme di discriminazione non solo quando i sistemi vengono messi all’opera, ma nel modo in cui vengono costruiti e allenati a vedere il mondo”.

Nei dataset usati per allenare gli algoritmi le persone vengono catalogate secondo logiche non inclusive: per esempio esistono due sessi, maschio e femmina, e non c’è spazio per altre identità di genere, mentre i gruppi etnici sono soltanto cinque. Esistono sistemi di AI che correlano le espressioni facciali alle emozioni, considerando però vecchie classificazioni ormai superate. Come una degli anni Settanta, dello psicologo Paul Ekman, che restringeva a rabbia, paura, tristezza, felicità, sorpresa e disgusto il ventaglio delle emozioni deducibili dalle espressioni del volto. Successivamente lo stesso Ekman ampliò questa lista, e studi più recenti hanno sfatato il mito di poter correlare con precisione ciò che si legge sul volto di una persona allo stato d’animo sottostante. Tutte queste politiche di classificazione nel training degli algoritmi sono ormai sedimentate e anche per questo il bias è difficile da estirpare. 

Oltre alle questioni etiche, bisogna poi considerare il problema del potere. “L’etica è necessaria, ma non sufficiente”, ha sottolineato la ricercatrice. “Più utile, per esempio, è chiedersi chi tragga vantaggi e chi venga danneggiato da questi sistemi di AI. E se mettano altro potere nelle mani di chi già è potente. Vediamo continuamente che questi sistemi, dal riconoscimento facciale al tracciamento sui posti di lavoro, stanno dando potere a istituzioni già potenti, grandi aziende, forze militari, forze dell’ordine”.

Un utilizzo responsabile dell’AI

Queste doverose critiche nulla tolgono al fatto che l’AI, se usata responsabilmente, possa essere uno straordinario motore di progresso tecnologico, economico e sociale. Secondo le stime della Commissione Europea, fra il 2019 e il 2025 grazie alla robotica e all’intelligenza artificiale potranno essere creati 60 milioni di posti di lavoro. E proprio la Commissione Europea ha pubblicato lo scorso aprile, dopo anni di dibattito sul tema, una proposta di regolamento che armonizzi l’uso dell’intelligenza artificiale in territorio comunitario, con l’obiettivo di “salvaguardare i valori e i diritti fondamentali dell’Ue e la sicurezza degli utenti”.

La proposta di regolamento vieta espressamente gli utilizzi non trasparenti dell’AI, come l’applicazione di tecniche subliminali per influenzare il comportamento delle persone. Inoltre non si potranno né commercializzare né mettere in azione sistemi di intelligenza artificiale che “sfruttino qualsiasi vulnerabilità di un gruppo specifico di persone, per la loro età o disabilità fisica o mentale, al fine di falsarne in misura rilevante il comportamento in un modo che provochi o possa provocare danni fisici o psicologici agli stessi o ad altri”. L’uso di sistemi di identificazione biometrica in tempo reale dovrà essere limitato a casi particolari in cui il fine giustifica i mezzi, come nella ricerca di bambini scomparsi e nella prevenzione di attacchi terroristici.

ULTIMO NUMERO
ARCHIVIO
LE RUBRICHE
COME NASCE IL CAFFÈ DIGITALE
REGISTRATI
Iscriviti alla Newsletter mensile!
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!

Font Resize
Contrasto