Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

la riflessione

Ontologie e cloud datacenter, il ritorno dell’antico con nomi nuovi

A differenza di quello che diceva Lavoisier, in informatica si potrebbe sostenere che “nulla si crea, nulla si distrugge, ma tutto si rinomina”. Due esempi su tutti: le ontologie e i cloud datacenter

14 Giu 2018

Riccardo Grosso

metadata architect


Un amico mi ha chiesto di fare qualche riflessione sui cloud datacenter, e sui datacenter tradizionali, sulla differenza tra loro, ammesso che vi sia una differenza.

Mi è subito venuto in mente, per analogia, la legge di conservazione della massa, ovvero il postulato fondamentale di Lavoisier, che recita: nulla si crea nulla si distrugge tutto si trasforma.

Nulla si crea nulla si distrugge tutto si rinomina

Nell’informatica si potrebbe forse audacemente sostenere che nulla si crea nulla si distrugge tutto si rinomina appunto.
Chi è vecchio del mestiere informatico, credo possa concordare di aver toccato con  mano in più di una occasione che concetti a lui poco noti, se studiati attentamente erano riedizioni concettuali di argomenti già visti e approfonditi in passato, modernizzati e resi attuali da nuove tecnologie, e nel frattempo rinominati.
Porterò un paio di esempi, uno a me più noto e di cui ho già parlato, le ontologie, un altro forse meno noto al sottoscritto, ma di grande attualità, i cloud datacenter. Invito tutti ad integrare queste riflessioni con altre analogie, o con espressioni di disaccordo che sono sempre benvenute poiché costruttive.

L’esempio delle ontologie

Quando ho iniziato a lavorare (1980), nessuno si azzardava a parlare di ontologie informatiche; io per primo da giovane (allora) perito informatico non avevo la più pallida idea di qualsiasi filosofia, figuriamoci delle ontologie.

Cominciai come programmatore Fortran, poi Cobol; solo nel 1992 ebbi la fortuna di approdare all’IVECO IT, di scoprire la mia passione, diventata poi eterna, nella progettazione concettuale di dati e processi, in particolare dei dati.

Scoprii la potenza dei modelli concettuali dei dati, formalizzazioni semantiche potentissime per correlare i dati delle basi dati, e contestualmente esprimere in maniera formalizzata i processi legati ai dati.

Fulminato sulla via di Damasco, capii che quella era la mia nicchia preferita nell’informatica. E per tanto tempo progettai modelli dati. Anche perché la cosa più affascinante era quella di poter rappresentare, già allora, graficamente la grammatica che legava i dati esprimendone i processi tra loro correlati.

Questa passione mi fece approdare nel 2001 al CSI-Piemonte, erano interessati alla mia esperienza. Fu solo nel 2004 che, insieme a Carlo Batini, seppi dell’esistenza delle ontologie informatiche, ovvero delle formalizzazioni potentissime dei concetti informatici, formalizzazioni più ricche di semantica, scoprii i formati RDF, OWL, N3 e così via.

Pensai subito di essere approdato in un campo di cui capivo assolutamente nulla (e penso tuttora di capirne poco), anche perché le rappresentazioni complesse in OWL deficitavano parecchio della visualizzazione grafica.

Ma il buon Batini mi rincuorò, mi spiegò un po’ di cose, e con lui grazie al cielo compresi che i cari e vecchi entity-relationship diagram erano la base della modellazione ontologica. Fui rasserenato da questo, e scoprii che le ontologie erano una sorta di rename dei data model.

Per non offendere nessuno, chiamammo “ontologie leggere” gli entity-relationship diagram, e l’aggettivo “leggere” aveva due significati:

  • di umiltà nei confronti della ricerca che era andata avanti negli anni ed aveva prodotto complicate teorie e pratiche relative alle ontologie (“pesanti”)
  • di affermare la leggerezza insita nella rappresentazione grafica, che appunto alleggeriva il nostro modesto concetto di ontologie.

L’esempio dei datacenter

Anche nel caso dei datacenter bisogna partire un po’ da Adamo ed Eva.

Ho iniziato a lavorare negli anni dei mainframe. Ogni azienda (FIAT, IVECO, Comune di Torino) aveva il suo universo di dati e processi implementati informaticamente nei poderosi mainframe (OLIVETTI, IBM, Honeywell, etc.). L’ordine non è casuale, sarà la nostalgia per la recente fiction su Adriano Olivetti. Scherzi a parte, nessuno si azzardava a separare, in ogni azienda, ciò che “dio” aveva perennemente unito nei mainframe. Forse non esistevano ancora tecnologicamente le possibilità di “federare” i mainframe delle aziende, di raggrupparli per aree tematiche (automotive, pubblica amministrazione, etc.), ma di sicuro i mainframe potevano comunicare con i loro simili.

Poi venne l’ora dei sistemi distribuiti, i client server, dove ognuno si faceva i suoi “miniframe” (baby mainframe) a piacere, e quando si cominciò a non capir più nulla nacquero i system integrator.

L’ottica distribuita ha visto nascere, o meglio evolversi, le applicazioni internet, anch’esse distribuite. Internet ha lasciato però intravedere la possibilità di “riunire” concettualmente i “miniframe” distribuiti all’interno delle singole aziende e ricostituire sorte di “mainframe concettuali” di singole aziende, unendo poi la facilità, grazie ad internet appunto, di federare i mainframe concettuali.

Potremmo azzardare questa classificazione condizionata:

  • se il “mainframe concettuale” è il datacenter moderno che con tanti bei server virtualizzati e si rifà al vecchio concetto di mainframe
  • il cloud data center esprime la possibilità di federare per materia i nostri moderni datacenter (anche qui automotive, pubblica amministrazione, e così via).

È un ritorno alle origini, infatti sia i moderni datacenter che le loro federazioni, i cloud-datacenter, necessitano come ai tempi dei vecchi mainframe di essere approfonditamente classificati, catalogati nei loro contenuti, metadatati, concettualizzati, insomma necessitano anche loro di ontologie a sostegno e corredo.

Questo data model in “carta di formaggio” esprime un possibile modello concettuale di un moderno datacenter, istanziato per azienda e materia.

Spero di riuscire in futuro ad attuare in concreto questo modello, che peraltro è composto da parti già esistenti e raggruppabili, che ogni azienda ha o dovrebbe avere: mappa degli assets, mappa degli oggetti informatici, e possibilmente mappa delle entità concettuali tipiche della materia istanziata che l’azienda si trova a rappresentare.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4