I cloud ibridi offrono la flessibilità necessaria per distribuire le app in qualsiasi parte del proprio ambiente per soddisfare al meglio le esigenze aziendali al minor costo, ma richiedono un livello d’analisi molto approfondito per ottenere i risultati desiderati. Vediamone le caratteristiche e gli sviluppi.
L’acquisizione dell’infrastruttura e delle applicazioni per l’implementazione tradizionale del data center segue un rigoroso processo che esamina ogni bit per accertare esattamente cosa viene fornito, come si inserirà nell’ambiente di elaborazione esistente e come potrà soddisfare le esigenze aziendali e le esigenze tecniche.
I cloud ibridi
Tuttavia, poiché le aziende adottano il cloud computing e creano cloud ibridi che collegano cloud privati locali con servizi di cloud pubblico, molte imprese non riescono ad analizzare in modo adeguato la parte pubblica dell’ambiente. Di conseguenza, rischiano di non riuscire a raggiungere le prestazioni, mantenere la sicurezza e risparmiare i soldi come si aspettano.
I cloud ibridi sono ambienti di calcolo unificati. Infrastruttura e servizi cloud privati collegati a cloud pubblici e condivisione di dati, applicazioni, strumenti e processi. Il middleware della piattaforma astrae l’infrastruttura sottostante, pertanto gli sviluppatori di applicazioni non devono adattare le app allo specifico ambiente di distribuzione o sapere quale sarà l’eventuale posizione di distribuzione.
Le pipeline DevOps trasferiscono applicazioni nuove e modificate in qualsiasi parte dell’ambiente ibrido, pertanto le decisioni relative al posizionamento dei carichi di lavoro vengono prese in base alle esigenze del business. E se cambiano le esigenze l’app può essere redistribuita a una sezione diversa del cloud ibrido.
Un tale ambiente sarebbe sembrato un sogno irrealistico qualche anno fa, ma oggi i cloud ibridi possono essere assemblati da componenti open source o implementati tramite software o servizi off-the-shelf di diversi provider. Le soluzioni commerciali esistenti possono collegare il cloud privato a Microsoft Azure, Amazon Web Services, IBM Cloud, Google Cloud Platform, il cloud gestito da Rackspace e altri cloud per creare il tipo di ambiente di elaborazione sopra descritto.
Mentre prima uno specialista dell’infrastruttura IT metteva a dura prova il nuovo hardware prima di acquistarlo, nell’era del cloud, dettagli come l’hardware del processore, la topologia della rete e la larghezza di banda, le protezioni di sicurezza, i benchmark delle prestazioni, la scalabilità, i lock-in dei fornitori e i controlli dei costi sono spesso nascosti dietro le descrizioni generalizzate dei servizi. Raggiungere i risultati desiderati richiede quindi un livello d’analisi ancora più approfondito rispetto a prima.
La disponibilità di potenti processori ottimizzati è fondamentale per il successo di carichi di lavoro in crescita come l’HPC (High Performance Computing), l’elaborazione delle immagini e l’apprendimento automatico.
Per valutare l’idoneità del cloud per il calcolo scientifico, Exabyte ha eseguito uno studio con il benchmark Linpack ottimizzato per configurazioni HPC a 32 nodi in una serie di cloud pubblici e ha confrontato i risultati con un supercomputer in loco. Ha concluso che il cloud offre un’alternativa valida all’acquisizione di costosi sistemi on-site per l’informatica scientifica. La cattiva notizia è però che i risultati benchmark misurati sono altamente variabili fra i fornitori di cloud testati, da meno di 2,5 terflops a oltre 17 terflops, un fattore pari a sette.
Chiaramente, trovare la migliore casa sul cloud per un carico di lavoro HPC richiede un attento esame di ciò che si sta acquistando. Questo vale anche per la nuova generazione di applicazioni che alimentano le imprese digitalizzate: analisi dei big data, streaming di dati dall’Internet of Things e l’applicazione dell’intelligenza artificiale per aumentare l’efficienza e la competitività in quasi tutti i settori.
Quando si esamina il percorso di crescita bisogna determinare se i carichi di lavoro possono essere spostati su processori più potenti ma compatibili. I provider di servizi offrono in genere soluzioni che coprono una vasta gamma di opzioni di prestazioni.
Privacy e sicurezza dei dati nel cloud pubblico
La privacy e la sicurezza dei dati rappresentano probabilmente la principale preoccupazione quando le aziende considerano lo spostamento di dati e applicazioni in cloud pubblici, e per una buona ragione. Per ottenere efficienza, i servizi pubblici IaaS e SaaS si affidano alla multi-tenancy: più clienti condividono la stessa infrastruttura e, nel caso di SaaS, probabilmente la stessa base di dati. Il risultato è una superficie di attacco più grande e più vulnerabile, con un’ampia area fuori dal controllo dell’azienda.
Fortunatamente, i fornitori di cloud pubblici forniscono protezioni e processi di sicurezza estesi. In molti casi la sicurezza che forniscono è più ampia di quella dei data center privati. In ogni caso, capire la sicurezza che il fornitore di servizi offre e avere una chiara definizione delle proprie responsabilità è essenziale quando si mette qualsiasi tipo di dati aziendali nelle mani di qualcun altro. Bisogna analizzare in dettaglio gli strumenti e i processi di monitoraggio della sicurezza utilizzati dal provider, per scoprire come rispondono agli incidenti e come sono ripartite le responsabilità.
Una delle caratteristiche più interessanti dei servizi cloud pubblici è l’elasticità, ovvero la capacità di ridimensionare l’utilizzo verso l’alto o verso il basso secondo le esigenze aziendali, abbinato a un modello di costo “pay-for-what-you-use”. Su questo tema il Wall Street Journal riporta che Boris Goldberg, co-fondatore della controllata Microsoft Cloudyn, ritiene che il 60% dei server software cloud possa essere ridotto o eliminato semplicemente perché le imprese hanno sottoscritto contratti in eccesso. Per evitare un eccesso di spesa, è necessario quindi monitorare e controllare l’effettivo utilizzo del servizio.
Per soddisfare al meglio le esigenze aziendali al minor costo con il cloud ibrido, quindi, è necessario mantenere un programma per valutare periodicamente le decisioni sul posizionamento del carico di lavoro e per determinare se il cambiamento delle esigenze economiche o aziendali suggerisca che le applicazioni distribuite in cloud pubblici debbano essere spostate nei data center proprietari.