NEWSLETTER - IL CAFFE' DIGITALE
Luci e ombre sull’Intelligenza Artificiale applicata ai social media

N.  Dicembre 2021
        

a cura di Andrea Boscaro 
Partner The Vortex 

 

Gli studiosi di storia dell’arte si sono sempre interrogati sulle ragioni per le quali i mosaici bizantini siano ricchi di personaggi ritratti con fattezze non realistiche, ma soprattutto con gli occhi fissi e sgranati, rivolti verso l’osservatore: alcuni sostengono che questi sguardi vogliono trasmettere l’idea che quelle donne e quegli uomini siano già arrivati alla mèta e, da un luogo senza tempo, ci guardino. Sono loro, a ben vedere, a guardare noi e non viceversa.

Come quei nostri antenati raffigurati nelle basiliche, nei mausolei, nei battisteri di Ravenna, anche gli algoritmi ci osservano mentre li utilizziamo e registrano non solo i nostri comportamenti, ma anche le variazioni di questi ultimi per individuare nuove opportunità da cogliere così da restituire suggerimenti editoriali, commerciali e pubblicitari sempre più pertinenti e coinvolgenti.

Nel corso degli ultimi due anni, due episodi hanno dimostrato come gli algoritmi di intelligenza artificiale applicati al mondo dei social media siano stati utilizzati per adempiere ad obblighi imposti dalla legge anche se con luci e ombre.

Nel provvedimento con il quale il Garante della Privacy italiano ha imposto a TikTok lo scorso 9 febbraio il blocco dei profili degli under 13 si fa esplicito riferimento all’opportunità di avvalersi dell’IA per comprendere l’età degli iscritti e decidere di inibire loro la partecipazione al social network: ne è derivato che dal 21 aprile sono stati più di 12 milioni e mezzo gli utenti italiani ai quali è stato chiesto di confermare di avere più di 13 anni per accedere alla piattaforma e sono stati quasi 550 mila gli utenti rimossi perché probabili under 13: circa 400 mila perché lo hanno dichiarato esplicitamente e 150 mila attraverso una combinazione di moderazione umana e strumenti di segnalazione implementati all’interno dell’app che si sono avvalsi dell’intelligenza artificiale. L’analisi degli interessi desunti dalla visualizzazione dei contenuti e della rete dei collegamenti ha consentito tale intervento e dimostra, anche in termini numerici, il peso con il quale un software è intervenuto in una scelta delicata per i minori e strategica per lo sviluppo del social network.

Ancor più interessante è come sta cambiando l’uso degli algoritmi nella moderazione dei contenuti da parte di Facebook e nell’integrazione con l’attività manuale. Oltre all’Oversight Board indipendente che dallo scorso anno opera da “giudice di ultima istanza”, quindicimila sono infatti i manual checkers che, in tutto il mondo, supportano Facebook nella moderazione dei contenuti. E’ un numero che appare rilevante, ma che si può ben comprendere di fronte alla valutazione che lo stesso social network ha fatto lo scorso autunno: nel 2020 sono infatti stati pubblicati 22,1 milioni di contenuti di incitamento all’odio, 19,2 milioni di immagini violente, 12,4 milioni di foto connotate da nudità infantile e 3,5 milioni di post legati al bullismo ed alle modestie. Se il 94,7% di tale materiale è stato rilevato dai software di intelligenza artificiale, l’apporto umano resta dunque determinante nel valutare il materiale e deciderne la cancellazione, ma anche nell’identificare i casi dei quali gli algoritmi non riescono ad interpretare il significato.

In uno scenario connotato da vere e proprie campagne organizzate ed orientate a obiettivi di propaganda sociale e politica, risulta pertanto chiaro quanto sia importante che il sistema funzioni e che, come chiede il Digital Services Act, siano trasparenti i criteri adottati e tempestivi gli interventi attuati sia nella fase di vaglio prodotta dagli algoritmi che nella fase di revisione manuale da parte dei controllori.

Il responsabile di Facebook, Chris Palow, ha ammesso infatti che la tecnologia manca della capacità di un essere umano di giudicare il contesto di molte comunicazioni online, soprattutto con argomenti come disinformazione, bullismo e molestie per via della mancanza di informazioni precedenti o di fronte a errori di valutazione causati da pregiudizi o fraintendimenti ed ha dichiarato: “Il sistema consiste nel far sposare intelligenza artificiale e revisori umani per fare meno errori”.

Che il futuro veda un maggiore, e non minore, ruolo dell’essere umano è evidente se si pensa all’intento, da parte di Facebook, di affidare all’IA il compito di selezionare e ordinare i contenuti che dovranno essere valutati dai revisori, dall’attuale ordine cronologico ad un diverso ordine improntato alla pericolosità, una combinazione di potenziale gravità dei messaggi in virtù del loro contenuto, di probabilità che il post infranga le regole della piattaforma e di viralità rilevata in termini di reazioni, visualizzazioni e condivisioni maggiori.

Forse anche per questa componente manuale e dunque organizzativa, lo sprone continuo da parte delle istituzioni e dell’opinione pubblica verso un maggiore investimento da parte del social network non è superfluo, ma utile e appropriato.

ULTIMO NUMERO
ARCHIVIO
LE RUBRICHE
COME NASCE IL CAFFÈ DIGITALE
REGISTRATI
Iscriviti alla Newsletter mensile!
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!