NEWS
Intelligenza Artificiale? Sì, purché etica e responsabile. Le priorità della Commissione Europea

Cresce l’attenzione da parte della Commissione Europea verso lo sviluppo di un’Intelligenza Artificiale etica, responsabile e human centric. Il tema, che sta assumendo una sempre maggiore rilevanza nelle agende politiche delle principali economie mondiali, verrà affrontato il prossimo 3 Ottobre 2019 durante l’”AI & Data Summit” di The Innovation Group.

 

Lo scorso 11 luglio la Commissione Europea ha pubblicato un bando da 50 milioni di euro per affrontare e superare le sfide che ostacolano la piena diffusione di soluzioni basate sull’Intelligenza Artificiale all’interno dell’Unione Europea, nonché per promuovere a riguardo un’azione sinergica tra tutti i Paesi membri.

Attraverso il bando (la cui scadenza è prevista per il 13 novembre 2019), la Commissione Europea esorta tutti i Paesi membri a presentare proposte e progetti per sviluppare una rete europea di centri di ricerca nell’ambito dell’AI, con l’obiettivo di rafforzare la cooperazione per affrontare al meglio le principali sfide che ne ostacolano la piena diffusione. L’iniziativa, che rientra nel programma Horizon 2020, si compone di due parti: la prima, volta a riunire i principali ricercatori in reti europee di centri di eccellenza che lavoreranno su determinati aspetti dell’AI; la seconda, per coordinare i diversi progetti selezionati e altre iniziative pertinenti.

Il bando fa seguito ad un altro annuncio della Commissione di un investimento di 20 milioni di euro per la creazione di AI4EU, piattaforma online per lo scambio di strumenti e risorse di AI in Europa e per sviluppare un ecosistema europeo di AI.

 

La strategia europea per l’AI

Queste due nuove iniziative vanno, dunque, ad aggiungersi alla più ampia strategia promossa dall’UE per un’AI “Made in Europe” basata sullo sviluppo di soluzioni AI che siano “responsabili”, “democratiche” e “on demand”, per mettere l’Europa nelle condizioni di poter competere con le principali economie mondiali (già attivamente impegnate su questo fronte). Le iniziative, del resto, sono perfettamente in linea con la politica del neo Presidente della Commissione Europea Ursula von der Leyen che nelle principali strategie disegnate per il periodo 2019-2024 ha previsto proprio lo sviluppo di tecnologie digitali che permettano all’Ue di emergere in uno scenario globale dominato dai colossi hitech americani e asiatici. Tuttavia, la priorità del Presidente sarà quella di proporre “una legislazione per un approccio coordinato alle implicazioni umane ed etiche dell’Intelligenza Artificiale”, proseguendo così un approccio già sviluppato dai suoi predecessori e formalizzato nel documento “Building Trust in Human-Centric Artificial Intelligence”, che descrive le linee guida da seguire in ambito comunitario nello sviluppo di applicazioni e sistemi di AI fortemente basati sulla componente umana. È dello stesso parere anche la Commissaria UE al digitale Maryia Gabriel che di recente ha presentato le linee guida della UE su un’AI “affidabile”. A tal proposito la Commissaria ha dichiarato che l’approccio europeo sarà “human-centric”, con l’uomo al centro di un processo di cambiamento il cui obiettivo è “migliorare l’agire umano e i suoi diritti e non ridurre la sua autonomia”.

L’importanza e la necessità di sviluppare approcci human centric nell’ambito dell’AI è stata ben evidenziata anche da un recente studio condotto da PWC, comprensivo di un toolkit per aiutare le imprese ad affrontare le principali sfide dell’AI in maniera virtuosa, etica e responsabile. Secondo lo studio, infatti, il potenziale economico dell’AI, stimato in 15,7 trilioni di dollari, potrà realizzarsi pienamente solo quando le aziende integreranno le proprie strategie di AI con principi etici e responsabili. Al riguardo PWC ha individuato cinque aree sulle quali le aziende devono concentrarsi per sviluppare, progettare e impiegare strategie e progetti di AI efficaci:

  • Governance
  • Etica e normative
  • Interpretabilità e capacità esplicativa dei sistemi di IA
  • Solidità e sicurezza dei sistemi di AI
  • Pregiudizi ed equità dei sistemi di AI.

 

 Ai consumatori piace l’Intelligenza Artificiale (etica)…

Tuttavia, se da un lato l’introduzione dell’AI pone nuovi quesiti in termini di affidabilità e responsabilità delle nuove soluzioni implementate, dall’altro sono gli stessi consumatori a promuoverne, seppur in maniera implicita, un utilizzo sempre più pervasivo.

Il notevole potenziale di applicazione dell’AI è, infatti, ben emerso dal Report “State of the Connected Customer di Salesforce, condotto a livello globale su oltre 8.000 consumatori di 16 Paesi, di cui 535 in Italia, dove si sottolinea come siano gli stessi consumatori a chiedere alle aziende di imparare a riprogettare la propria User Experience. Dal Report è, infatti, emerso che il 70% dei clienti si aspetta dalle aziende esperienze connesse e un maggiore livello di engagement, il 74% che le interazioni aziendali avvengano in real time mentre l’81% vorrebbe che le aziende utilizzino nuove tecnologie per creare customer experience migliori. Si tratta di obiettivi difficilmente raggiungibili senza l’applicazione di una ben definita strategia di AI ai processi produttivi e nelle relazioni con il cliente. Ad ogni modo, il Report evidenzia anche come il 71% dei consumatori consideri l’etica aziendale come uno dei principali valori in grado di influenzare le decisioni di acquisto dei consumatori.

 

Del potenziale disruptive dell’AI e delle implicazioni etiche dei suoi sviluppi, si parlerà il prossimo 3 Ottobre 2019 in occasione dell’”AI & Data Summit”. L’evento, promosso da The Innovation Group, si pone l’obiettivo di fornire ai policy maker e a tutti gli stakeholder coinvolti indicazioni utili per affrontare al meglio gli impatti trasformativi di quello che si pone – a tutti gli effetti – come un vero e proprio cambiamento epocale.

Font Resize
Contrasto