NEWSLETTER - IL CAFFE' DIGITALE
Il valore del trust e della qualità: l’approccio dell’Explainable AI

N.  Settembre 2019
        

a cura di Carmen Camarca 
Analyst, The Innovation Group 

 

“I cambiamenti che stiamo affrontando, provocati dal pervasivo sviluppo dell’Intelligenza Artificiale in azienda, sono in realtà dei ricorsi storici. L’Intelligenza Artificiale non è altro che una delle tante buzzword che ci propinano le grandi aziende per distogliere la nostra attenzione su quelli che sono i reali problemi della nostra umanità”. Lo ha affermato Stefano Quintarelli, Member of AI High Level Expert Group, European Commission, intervenuto ad un recente convegno organizzato da The Innovation Group.

In effetti di Intelligenza Artificiale si parla da tempo, ma perché il tema è tornato in auge solo adesso?

A contribuirvi tre fattori:

  1. L’aumento della maturità e dell’efficacia delle tecnologie che permettono lo sviluppo di algoritmi.
  2. Una maggiore capacità di calcolo messa a disposizione dalle piattaforme.
  3. La crescita esponenziale della disponibilità (in termini di quantità) di dati sia interni sia esterni alle aziende.

È proprio su quest’ultimo punto che si vuole soffermare l’attenzione. Disporre di ingenti quantità di dati, infatti, non è la chiave vincente per sviluppare applicazioni predittive e di AI efficaci, ciò che conta è possedere dati di qualità. Se ne è parlato lo scorso 17 luglio in occasione del webinar “Analytics & AI: il valore della qualità e del trust” organizzato da The Innovation Group e a cui è intervenuto Marco Muselli, Chief Technology Officer, Rulex con cui è stato affrontato il tema di come un’Artificial Intelligence trasparente possa rappresentare un asset competitivo di estrema rilevanza per le aziende.

Sempre più, infatti, le decisioni aziendali si basano su modelli sviluppati a partire dai dati: ciò ha portato negli ultimi anni alla nascita di una specifica branca dell’AI definita “Decision Intelligence” che opera, appunto, con lo scopo di combinare informazioni e conoscenze per fare in modo che le attività decisionali siano sempre più adeguate alle esigenze del business. Tale approccio non va a sostituirsi interamente all’uomo, piuttosto rappresenta un’estensione e un potenziamento della capacità umana di poter analizzare le ingenti quantità di dati presenti nel data lake.

Il ruolo della “Decision Intelligence” risulta ancora più importante se si tiene conto che nella realtà si verificano molteplici situazioni in cui le decisioni prese in modo automatico da un sistema artificiale sono ritenute indesiderabili. Per decidere correttamente è necessario che le informazioni di cui si dispone abbiano due caratteristiche essenziali: qualità e fiducia. Si possono verificare, infatti, casi in cui vengono prodotti modelli di elevata qualità ma di scarsa utilità perché non ritenuti “degni di fiducia”.

Per queste ragioni diventa di estrema rilevanza l’approccio dell’Explainable AI che si pone come obiettivo la creazione di algoritmi e modelli che siano comprensibili e che permettano la cooperazione e l’interazione tra l’intelligenza umana e quella artificiale. Tale approccio non si basa sullo sviluppo di modelli black-box (tipico della maggior parte delle metodologie di Machine Learning e retto da equazioni algebriche incomprensibili all’utente) ma su un modello a regole che permette di effettuare analisi di scenari “what-if”, individuando le azioni da intraprendere (cause) per raggiungere obiettivi desiderati (conseguenze). Un simile approccio essendo di facile comprensione per il decision manager si presenta come di elevata fiducia: oltre a fornire misure di tipo quantitativo sull’accuratezza delle previsioni e la possibilità di leggere le regole permette, altresì, di valutare immediatamente la validità del modello dal punto di vista business.

La capacità di sviluppare applicazioni trasparenti, etiche e responsabili è un tema su cui si discute molto negli ultimi tempi e che sta assumendo una sempre maggiore rilevanza internazionale: l’Unione Europea da tempo insiste, infatti, sullo sviluppo di soluzioni di Intelligenza Artificiale “responsabili”, “democratiche” e “on demand”. Dello stesso parere è il neo Presidente della Commissione Europea Ursula von der Leyen che nelle principali strategie disegnate per il periodo 2019-2024 ha previsto la creazione di “una legislazione per un approccio coordinato alle implicazioni umane ed etiche dell’Intelligenza Artificiale”, proseguendo così un approccio già sviluppato dai suoi predecessori e formalizzato nel documento “Building Trust in Human-Centric Artificial Intelligence”, che descrive le linee guida da seguire in ambito comunitario nello sviluppo di applicazioni e sistemi di AI fortemente basati sulla componente umana.

Questi temi verranno trattati il prossimo 3 Ottobre 2019 in occasione dell’”AI & Data Summit”. L’evento, promosso da The Innovation Group, si pone l’obiettivo di fornire ai policy maker e a tutti gli stakeholder coinvolti indicazioni utili per affrontare al meglio gli impatti trasformativi di quello che si pone – a tutti gli effetti – come un vero e proprio cambiamento epocale.

 

 

 

 

 

 

Categorie
FOCUS CYBER
IL CAFFÈ DIGITALE - ARCHIVIO
@TIG_italia