NEWSLETTER - IL CAFFE' DIGITALE
Come far evolvere e migliorare l’utilizzo del cloud

N. Luglio 2019
        

a cura di Elena Vaciago 
Associate Research Manager, The Innovation Group

Questo mese abbiamo fatto colazione con…
Giandomenico Oldano, Responsabile Operations ICT di Gruppo in RCS MediaGroup

Giandomenico Oldano, Responsabile Operations ICT di Gruppo in RCS MediaGroup, società leader nel settore Multimedia in Italia e Spagna, ha guidato, a partire dal 2005, un percorso di evoluzione dell’infrastruttura IT di RCS portandola da mainframe centrica a un hybrid cloud. Il Gruppo è quindi passato ad utilizzare soluzioni SaaS, PaaS e IaaS e, in particolare, una Web Farm, interamente su cloud pubblico, che eroga oggi alcuni tra i maggiori siti Web di News italiani (corriere.it, gazzetta.it e altri 350 siti circa) e mobile app. In questa intervista con The Innovation Group viene descritto il progetto di migrazione al Cloud, riprendendo i temi dell’intervento di Giandomenico Oldano durante il DIGITAL INFRASTRUCTURE SUMMIT, che si è svolto a Milano lo scorso 27 marzo 2019.

 

Il business di RCS MediaGroup ruota intorno all’informazione, un prodotto che è fortemente impattato dalla trasformazione digitale in corso, e in particolar modo, dalle mutate aspettative dei clienti. Oggi tutta la competizione si è spostata online: è fondamentale quindi disegnare una strategia di continua innovazione per tenere il passo con il mercato, per rilasciare performance costantemente al passo con i tempi. Come è stata affrontata questa sfida in RCS?

Negli ultimi anni, il passaggio sempre più spinto al digitale ha abilitato un rapporto molto diretto con i clienti. Per gestire a tutto tondo la relazione con il cliente attraverso il cloud, siamo andati da subito verso soluzioni di CRM software-as-a-service. Poi, queste sono state espanse in modo da coprire anche altre aree prima servite da soluzioni on premises: tutta l’automazione della gestione della forza di vendita di pubblicità si è così trasformata in un sistema basato su cloud. In aggiunta, è cresciuta tutta la parte di attività indotta dallo svilupparsi del digitale, ossia, l’enorme mole di dati raccolti ogni giorno, decine di terabyte di informazioni relative ai prodotti digitali in Italia e Spagna. Da qui una forte evoluzione sul fronte degli Analytics, anche questi gestiti sia in cloud con il modello SaaS, sia on premise.

 

Come mantenere elevate prestazioni nel rapporto con i clienti finali?

Il cloud ha portato a virtualizzare il sistema di delivery dei contenuti verso i clienti finali, basandolo su un forte uso di Content Delivery Networks. Questo è stato importante soprattutto per il mercato spagnolo, avendo per questa lingua persone diffuse in tutto il mondo, in particolare America Latina e USA. I nostri contenuti “escono” da un unico public cloud posizionato in Europa, ma tramite CDN, arrivano in tutti i paesi del mondo con le stesse performance. Grazie alle CDN si migliorano anche gli aspetti di sicurezza. Prima eravamo arrivati a subire attacchi DDoS, verso la farm on premises, di varie centinaia di Gigabit al secondo. Fortunatamente avevamo già introdotto misure anti-ddos, che, una volta passati in cloud e adottata la CDN, abbiamo ulteriormente migliorato.

 

Come si è sviluppato il vostro percorso verso il cloud?

Il processo di virtualizzazione è partito prima. Nel 2005, quando sono arrivato in RCS, si era appena passati ai server open dismettendo il mainframe. Poi è arrivata la virtualizzazione dei server fisici on premises, con uso di vari hypervisor, sia industriali sia open source. Quindi, il passaggio a public cloud: all’inizio si è trattato di una trasformazione “lift & shift”, ossia basata su quanto presente on premises, semplicemente passando da VM (virtual machine) in casa a VM in cloud. Poi, con la migrazione della Web Farm della sede spagnola, è stato fatto un ulteriore passo avanti, passando dalle VM ai container. Durante la migrazione abbiamo trasformato tutti i nostri ambienti per operare in versione container: siamo stati facilitati in questo dal fatto che le tecnologie che utilizzavamo potevano facilmente essere “containerizzate”, senza passare da processi di trasformazione pesanti in microservizi.

Abbiamo così “separato” siti diversi dedicando un set di container a ogni sito. Un punto importante nell’utilizzo del cloud è l’efficienza: con l’uso di container, oggi siamo in grado di sfruttare molto meglio il potere di calcolo che abbiamo in cloud ottenendo una maggiore velocità di scaling (un cointainer “parte” in secondi rispetto a una VM che richiede minuti). Riusciamo quindi a evolvere più velocemente facendo upgrade granulari di singoli siti e applicazioni, raggiungendo una maggiore agilità.

Anche nei processi di sviluppo siamo passati al modello Agile, con adozione di DevOps, e i container si sposano perfettamente con questi processi di sviluppo, uniformando la modalità operativa nei tre ambienti: sviluppo, test e produzione. Oggi l’applicazione sviluppata in un container si muove da un ambiente all’altro senza subire modifiche, a differenza del passato in cui ognuno degli ambienti aveva una propria configurazione. Con i container, il deployment è automatizzato in modo più efficiente e si ottiene una maggiore velocità del ciclo di sviluppo, migliorando il time to market.

 

Come incrementare le performance e nel contempo salvaguardare il conto economico?

In questo ambiente distribuito e caratterizzato da grande variabilità, i meccanismi di scaling sono fondamentali, perché l’economicità è fortemente legata a poter variare il potere di calcolo allocato in funzione della richiesta dei servizi applicativi. Quindi, abbiamo sviluppato degli algoritmi di scaling al nostro interno, ottimizzati per i nostri servizi. Oggi stiamo anche cominciando a guardare a meccanismi di machine learning applicati allo scaling, per dotarci di algoritmi predittivi in questo campo. I benefici sono numerosi: ad esempio, se parliamo di eventi sportivi, possiamo prevedere che ci sarà una domanda più elevata in un certo lasso di tempo, e quindi schedulare delle accensioni in prossimità dell’evento. Per notizie generaliste, è più difficile farlo: per queste di solito gli utenti crescono in modo imprevisto. Un algoritmo predittivo però può comunque aiutare a “capire” quando si sta verificando un’eventualità di questo tipo, un picco di domanda, e reagire accendendo i sistemi a bisogna, mantenendo quindi sia elementi di performance che di economicità.

Un ulteriore aspetto che stiamo considerando è l’adozione di soluzioni avanzate per il monitoraggio e la gestione delle configurazioni (CM, configuration management). Se VM e container si accendono e spengono, devo gestire le configurazioni in modo che si possano aggiornare al momento dell’accensione. Se dispongo di molte VM, devo fare l’aggiornamento su quelle accese, per evitare differenze di servizio e malfunzionamenti: quindi serve un CM molto potenziato, e un monitoraggio capillare, in grado di capire in ogni momento cosa succede. Operando su cloud pubblico posso avere malfunzionamenti dell’ambiente che mi ospita, che non è sotto il mio controllo, in ogni caso devo però essere in grado di reagire per mitigare gli effetti sui miei servizi applicativi.

 

 

 

 

Categorie
FOCUS CYBER
IL CAFFÈ DIGITALE - ARCHIVIO
@TIG_italia