Per orientarsi nell’era degli algoritmi serve una nuova sociologia
Il Caffè Digitale


L’intelligenza artificiale non è solo una questione tecnologica: è materia da sociologi. La sociologia dell’intelligenza artificiale non nasce a caso, e basti pensare ai molti impatti dell’AI
sulle nostre vite di lavoratori e privati cittadini, sui modelli organizzativi delle aziende. L’adozione generalizzata dell’intelligenza artificiale sta cambiando e cambierà le relazioni interpersonali, le dinamiche di gruppo e anche il rapporto tra esseri umani e conoscenza. L’AI, come noto, negli ultimi due o tre anni è diventata un fenomeno di massa grazia alla disponibilità di servizi di facile accesso, spesso gratuiti, che non richiedono competenze informatiche per essere usati. L’esempio più ovvio è ChatGPT ma oggi esiste un’intera costellazione di applicazioni simili, più o meno orientata sulla generazione di risposte, di immagini, video o contenuti testuali strutturati.
L’intelligenza artificiale è un ingranaggio fondamentale di quelli che una ricerca pubblicata su Nature ha chiamato “sistemi sociali uomo-macchina”: un intreccio di reti fatte di interazioni tra esseri umani e macchine autonome, intendendo con quest’ultima espressione sia oggetti fisici (come robot e veicoli a guida autonoma) sia i social media, piattaforme Web come Wikipedia e, naturalmente, i Large Language Model dell’AI generativa. Queste reti vivono non solo nella dimensione online ma influenzano anche le relazioni sociali, l’economia delle imprese, la finanza (pensiamo al trading algoritmico), il sistema dell’istruzione e quello dei trasporti.
Da Wikipedia a ChatGPT
“I ricercatori dovrebbero studiare queste comunità con un metodo per sistemi complessi; gli ingegneri dovrebbero progettare esplicitamente un’intelligenza artificiale per interazioni uomo-macchina e macchina-macchina; i legislatori dovrebbero governare la diversità dell’ecosistema e il co-sviluppo sociale di uomini e macchine”, scrivono gli autori della ricerca. Tra essi c’è Taha Yasseri, professore e ricercatore del Trinity College e della Technological University di Dublino, con l’incarico di Workday Full Professor and chair of Technology and Society.
Incontrando la stampa nel quartier generale dublinese di Workday, un colosso del software per le risorse umane e la gestione della contabilità, il ricercatore ha raccontato che il suo interesse per i sistemi uomo-macchina complessi è nato da Wikipedia, piattaforma che utilizzava sia come fruitore sia come contributor. Laureato in Fisica, Yasseri ha iniziato a osservare Wikipedia con l’occhio di un sociologo, studiando le dinamiche dei bot che editano i testi dei contributor, diventati via via più intelligenti e meno prevedibili. “Stiamo entrando in un’era in cui la tecnologia può svolgere attività umane come prendere decisioni e compiere azioni”, ha sottolineato Yasser, alludendo ai software di Agentic AI ma anche a pratiche ormai diffuse come l’uso di ChatGPT nel campo del recruiting, per scrivere annunci di lavoro e curricula.
Lo studio sociologico e psicologico delle interazioni uomo-macchina è vecchio di decenni, ma oggi il mondo è popolato di sistemi artificiali che per certi versi ragionano e agiscono come individui o gruppi di individui. Rispetto agli esseri umani, le macchine intelligenti sono più prevedibili e anche più coerenti nei loro comportamenti, poiché basano le loro scelte solo dati “oggettivi” (o presentati come tali) e sul regole predefinite (nella programmazione), senza emotività. Al pari degli esseri umani, comunque, gli algoritmi “ragionano” e agiscono sulla base di obiettivi da raggiungere.
In questi strumenti risiedono ovvi vantaggi pratici ma anche insidie nascoste, come i bias che tendiamo a ignorare, pur sapendo della loro esistenza. L’esempio citato dall’esperto di Workday è quello della rappresentanza di genere: se non un vero pregiudizio, c’è almeno un qualche tipo di sbilanciamento nei Large Language Model, considerando che il training dei modelli viene realizzato su dati creati soprattutto da uomini e non da donne, come le pagine di Wikipedia e i messaggi di posta elettronica. Questo è solo un esempio delle potenziali insidie racchiuse nei sistemi sociali uomo-macchina, e si tratta di aspetti che andrebbero considerati a monte della progettazione di qualsiasi tecnologia.

Il valore della lentezza
L’innovazione per le aziende (vendor e utenti) è però spesso una rincorsa, dettata dalla volontà di stare un passo avanti agli altri o di recuperare un ritardo. E nell’informatica, rispetto ad altri settori, la velocità è un imperativo ancor più forte. La ricerca può comunque influenzare l’innovazione tecnologica, perché quest’ultima è anche un processo iterativo ovvero costruisce sull’esistente, corregge e migliora il passato, e può (o dovrebbe) tener conto delle lezioni della sociologia.
“L’AI può cambiare la società con modalità e tempi non necessariamente uguali a quelli dell’innovazione nelle aziende”, ha fatto notare Yasseri. “Quando un prodotto viene immesso nel mercato, l’attività di studio e ricerca non si interrompe. Bisogna anche capire come quel prodotto impatti sulla società. La ricerca è un processo molto lento, e credo debba restare tale. Serve tempo per pensare e per comprendere il futuro”.
A proposito di futuro, il fisico e sociologo non si è sbilanciato in previsioni sul suo lavoro ora che con Donald Trump alla Casa Bianca il tema dell’AI responsabile ed etica è uscito dall’agenda politica statunitense. “C’è un po’ di incertezza”, ha ammesso lo studioso. “L’impatto sulla ricerca potrebbe essere, innanzitutto, in termini di finanziamenti”. Si possono però fare previsioni su quali saranno, nei prossimi anni, gli ambiti degni di maggiore attenzione da parte della sociologia. “Credo che le prossime grandi scoperte arriveranno dalla sanità”, ha detto. “Negli anni la sanità è diventata sempre più industrializzata, di massa, e forse l’intelligenza artificiale permetterà di tornare a una maggiore personalizzazione ma a costi sostenibili”.
