Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

scenari

Intelligenza artificiale avanzata per tutti gli utenti: la rivoluzione tra 5-10 anni

La rivoluzione vera è quella che vivremo tra 5-10 anni, quando l’intelligenza artificiale avanzata diventerà disponibile a una platea abbastanza ampia di utilizzatori e quando la potenza di calcolo di sistemi come l’HGX-2 di NVIDIA (2 PFLOPS) sarà integrata nei pc. Ecco come ci siamo arrivati e dove ci porterà

24 Lug 2018

Domenico Marino

Università degli Studi Mediterranea di Reggio Calabria


Si va verso un futuro in cui l’intelligenza artificiale avanzata diventa disponibile per una platea ampia di utilizzatori. La vera rivoluzione si vedrà fra 5-10 anni quando le nuove potenze di calcolo saranno integrate nei personal computer.

Allora le applicazioni di intelligenza artificiale diventeranno probabilmente uno strumento di uso quotidiano per la quasi totalità della popolazione, migliorando le condizioni di vita e aprendo orizzonti che oggi si possono solo immaginare

Si può dire quindi che le applicazioni diffuse dell’intelligenza artificiale stanno cambiando dal punto di vista competitivo l’orientamento strategico delle innovazioni nel campo informatico 

Nella fase iniziale dello sviluppo dei computer si puntava molto sulle capacità di calcolo. I supercomputer di allora, grandi quanto una casa, erano in grado di compiere un numero spropositato di operazioni se confrontate con le capacità della mente umana, ma assolutamente irrilevanti rispetto alle performance anche di un piccolo smartphone Android attuale.

L’evoluzione dei supercomputer

Cray-1 il primo supercomputer della storia, in esercizio dal 1975 al 1989, anno in cui venne dismesso, aveva una performance di 250 MFLOPS dove FLOPS sta per FLoating point Operations Per Second e indica il numero di operazioni eseguite in un secondo dalla CPU.

Cray-2 entrato in esercizio nel 1985 aveva una performance di 1,9 GFLOPS. Un processore installato su uno smartphone di alta gamma oggi è in grado di sviluppare più di dieci MFLOPS e questa è una capacità di calcolo tanto grande da far impallidire uno scienziato degli anni ottanta che considerava il CRAY-2 come un qualcosa di semplicemente fantascientifico.

Nello scenario evolutivo dei computer il primo passaggio è stato quello della miniaturizzazione. L’innovazione principale consisteva nel produrre chip che a parità di prestazioni occupassero sempre meno spazio. I progressi in questo campo sono stati consistenti, ma ad un certo punto, come succede per tutte le innovazioni, superato un certo livello, una maggiore riduzione delle dimensioni non era più in grado di assicurare vantaggi economicamente significativi. Il collo di bottiglia, allora, divenne la capacità di storage e in breve tempo anche la capacità di immagazzinare dati crebbe fino al punto in cui la quasi totalità delle applicazioni aveva una disponibilità di memoria fisica a basso costo sufficiente a soddisfare le tutte necessità.

I colli di bottiglia dell’intelligenza artificiale

Lo sviluppo dell’Intelligenza Artificiale ha cominciato a far sorgere altri due colli di bottiglia. Il primo legato alle capacità di calcolo e in questo senso la competizione fra imprese viene riportata ai temi che avevano costituito la competizione degli anni settanta e ottanta ossia un’enfasi numero di operazioni che un chip è in grado di compiere e il secondo collo di bottiglia costituito dalla capacità di trasmissione di dati senza connessione fisica.

Le applicazioni di Intelligenza Artificiale hanno bisogno di trasmettere e di elaborare grandi quantità di dati in tempi relativamente brevi. Si pensi, ad esempio, ai sistemi di guida automatica che devono elaborare in un lasso di tempo relativamente breve una gran mole di informazioni che sono rilevate dai sensori e dalle telecamere e che vengono desunti dalle mappe satellitari. Il 4G per la trasmissione dei dati è ancora insufficiente a gestire sistemi di guida automatizzata. Il 5G comincerà ad avere una capacità di trasmissione dei dati sufficiente e, quindi, nel giro di due, tre anni questa barriera tecnologica si potrà dire superata. Il vincolo tecnologico più difficile da superare è quello della capacità di calcolo, intesa non come capacità assoluta gestita da un supercomputer, ma come capacità di calcolo diffusa, ossia disponibile ad un costo ragionevolmente basso per un’impresa che voglia sviluppare servizi.

La potenza di Summit

La capacità dei supercomputer ha oggi raggiunto la soglia dei 200 PFLOPS (1015 FLOPS). Nel 2018, infatti, è entrato in funzione Summit, il supercomputer IBM che ha raddoppiato la potenzialità di calcolo dei supercomputer. Il primato prima era detenuto da un computer cinese con 93 PFLOPS. Nel giro di pochi anni è ragionevole pensare che si abbatterà facilmente la soglia degli EFLOPS (1018 FLOPS). Questi supercomputer sono in grado di supportare in maniera efficiente tutte le applicazioni più avanzate di intelligenza artificiale. Tuttavia si tratta di macchine estremamente costose che richiedono investimenti nell’ordine di decine o centinaia di milioni di dollari e che necessitano per funzionare di energie di molti megawatt. Sono pertanto utili per le ricerche avanzate, ma impossibili da utilizzare e irraggiungibili per le esigenze di piccole, medie e anche grandi imprese che debbano sviluppare applicazioni di intelligenza artificiale.

L’innovazione di HGX-2

L’innovazione in questo campo è data da NVIDIA che ha lanciato HGX-2 che è un chip piattaforma in grado di raggiungere una discreta capacità di calcolo di 2 PFLOPS con un costo di tre-quattrocento dollari.

In sostanza la piattaforma HGX-2 è in grado di generare la potenza necessaria per gestire i modelli più avanzati di deep e di machine learning assicurando un addestramento più rapido dell’Intelligenza Artificiale e consentendo inoltre di realizzare significativi risparmi di costi, spazio ed energia.

Questa piattaforma apre la strada ad applicazioni diffuse di Intelligenza Artificiale, poiché i modelli più avanzati e sofisticati diventano accessibili alle imprese di tutte le dimensioni che possono contare su sistemi che non hanno bisogno di elevate energie per funzionare, che sono di dimensioni ridotte e che hanno un costo di investimento accessibile.

Se la competizione sui supercomputer rappresenta la frontiera della ricerca, il miglioramento di piattaforme simili a HGX-2 rappresenta una sfida commercialmente più interessante, perché la platea dei potenziali utilizzatori è abbastanza ampia e può essere resa ancora più ampia diminuendo costi, consumo di energia e dimensioni. HGX-2 quindi apre la strada per quella rivoluzione che probabilmente vivremo nei prossimi cinque-dieci anni.

Articolo 1 di 4