Quando John McCarthy dichiarò nel 1961 che il calcolo potrebbe un giorno essere organizzato come un servizio pubblico, indicò il punto di fuga dell’IT: trasformare la potenza di calcolo da bene costoso e proprietario a risorsa on-demand, erogata con la stessa semplicità dell’elettricità.
Oggi, nel 2025, quel modello – il cloud computing – sostiene l’economia digitale globale, abilita l’Intelligenza Artificiale generativa e ridisegna le catene del valore. Ripercorrere le tappe che ci hanno condotto fin qui, dagli anni Cinquanta all’odierna corsa verso il multi-cloud aiuta a comprendere come ogni svolta abbia favorito l’accesso, ridotto i costi e accelerato l’innovazione.
Indice degli argomenti
L’intuizione dell’utility computing e i primi esperimenti
Negli anni Cinquanta l’informatica era patrimonio di pochi atenei e grandi aziende; un’ora di mainframe poteva costare migliaia di dollari. McCarthy coniò il concetto di utility computing: potenza di calcolo distribuita e fatturata a consumo, come gas o acqua. L’idea anticipava due pilastri del cloud moderno – elasticità e astrazione dall’hardware – ma all’epoca era più visione che realtà.
Il time-sharing come precursore dell’elaborazione multitenant
Il primo passo concreto fu il time-sharing. Sistemi pionieristici come il CTSS del MIT (1960) e la linea IBM System/360 (1964) permettevano a decine di utenti di collegarsi simultaneamente allo stesso mainframe, suddividendo la CPU in slice millesimali. L’elaborazione diventava remota e “multitenant”, precorrendo i moderni service level agreement e democratizzando l’accesso al calcolo scientifico.
La virtualizzazione: isolamento e provisioning dinamico
Con gli hypervisor CP-40/CP-67 e poi VM/370 (1972), IBM dimostrò che un unico host poteva presentarsi come decine di computer logici isolati. La virtualizzazione garantiva migliore saturazione delle risorse e sicurezza tra ambienti, oltre a introdurre concetti di provisioning dinamico e migrazione live: senza questi mattoni oggi non esisterebbero né il cloud pubblico né il disaster recovery geografico.
Dal client-server al web: la base del SaaS
Il calo dei prezzi dei microprocessori favorì il modello client-server: database, posta elettronica e file-sharing migrarono dalle sale macchine alle LAN aziendali. Restavano però onerosi patching, upgrade hardware e dimensionamento a picco di carico. L’esplosione del web, nella seconda metà degli anni Novanta, offrì un protocollo universale capace di veicolare quelle stesse applicazioni sotto forma di servizi remoti: l’http.
SaaS e pay-per-use: l’impulso al software via browser
Con il CRM erogato via browser, Salesforce dimostrò che il software enterprise poteva essere fruito in abbonamento, senza licenze perpetue né installazioni locali. Il paradigma Software-as-a-Service (SaaS) trasferiva al provider gli oneri di gestione e inaugurava il modello pay-per-use, aprendo la strada a piattaforme ERP, HR e collaboration totalmente cloud.
EC2 e l’infrastruttura elastica: il salto di Amazon
La discontinuità infrastrutturale arrivò con Amazon Elastic Compute Cloud (EC2): istanze virtuali noleggiabili a minuti che permisero alle start-up di lanciare servizi globali con capitali minimi. Nel 2010 EC2 contava già oltre 100.000 istanze attive; oggi AWS opera in più di 35 Paesi e continua a ridurre il costo medio per vCPU. Google rispose con App Engine, fornendo un runtime gestito che liberava gli sviluppatori da patch, scaling e provisioning, segnando la nascita del Platform-as-a-Service (PaaS).
L’automazione dei dati e il ruolo del DBaaS
Con il Database-as-a-Service (DBaaS) i provider hyperscale hanno spostato nel loro perimetro tutta la manutenzione dei dati — installazione, patch, backup, replica e fail-over — restituendo alle aziende un layer di persistenza che si attiva via API, si paga a consumo e cresce elasticamente con il carico.
Dai motori relazionali di Amazon RDS e Aurora ai key-value di DynamoDB, passando per Google Spanner e Bigtable fino alla piattaforma multimodello Cosmos DB di Microsoft, ogni servizio è ottimizzato per specifici tipi di dato, profili di latenza e requisiti di sovranità; la scelta dipende dunque dal workload (transazionale, analitico, documentale, grafo), dal motore richiesto, dalle policy di compliance e dalla regione di deploy. In un panorama popolato da container, Kubernetes e funzioni serverless, il DBaaS continua a ridurre l’heavy-lifting operativo, accelera il time-to-market e rende sostenibile il multi-cloud, approccio che iggu è utilizzato dal 70% delle grandi imprese, secondo IDC. Questo permette ai team di concentrarsi sul valore applicativo al posto della gestione dell’infrastruttura.
Dal provisioning as-code all’innovazione zero-carbon
L’impatto più tangibile è la compressione del ciclo idea-to-market: calcolo, storage e rete sono disponibili as-code via API. Progetti di AI generativa, digital twin o chirurgia robotica nascono senza investimenti capex, sfruttando GPU, FPGA e TPU on-demand. La competizione fra hyperscaler spinge verso servizi verticali (Quantum-as-a-Service, Digital Sovereignty Zones) e verso data center sempre più efficienti: strutture con PUE inferiori a 1,1 alimentate da rinnovabili riducono l’impronta di CO₂ fino all’80 % rispetto a installazioni on-premise.
Dall’utility computing ai cluster distribuiti su tre continenti, l’elasticità a consumo riduce le barriere economiche, mentre la delega delle attività operative – dal patching dei database alle politiche di fail-over – libera talenti e risorse da reinvestire in innovazione. La sicurezza e la conformità sono oggi integrate nel servizio, grazie a investimenti dei provider in encryption-at-rest, auditing automatizzato e framework di compliance già certificati. In parallelo, le economie di scala del cloud permettono implementazioni più sostenibili dal punto di vista energetico rispetto ai data center tradizionali.
Verso un calcolo invisibile e pervasivo
Sessant’anni di progresso – dal mainframe condiviso alle architetture event-driven distribuite su tre continenti – raccontano una corsa continua a ridurre l’attrito fra idee e tecnologia. Edge computing, AI-as-a-Service e obiettivi zero-carbon promettono di portare il “contatore elettrico” dell’informatica ancora più vicino all’utente, restando fedeli alla visione di McCarthy: un’infrastruttura di calcolo onnipresente, elastica e, idealmente, invisibile.