I 25 Paesi membri dell’Unione Europea hanno sottoscritto una dichiarazione congiunta con cui si sono impegnati a coordinare gli sforzi nell’implementazione di sistemi di intelligenza artificiale, focalizzando l’impegno di condividere le best practice nel settore pubblico, di impegnarsi a rendere maggiormente disponibili i dati pubblici, di contribuire a rendere sostenibili ed attendibili le soluzioni, di assicurare la centralità dell’individuo nel loro sviluppo e di favorire lo scambio di opinioni circa gli impatti di queste tecnologie nel mercato del lavoro.
La dichiarazione è successiva alla scadenza della call lanciata dalla Commissione Europea per la costituzione di un gruppo di esperti di alto livello sull’intelligenza artificiale ed alla presentazione del report francese sulla strategia del Paese in tale settore, che ha annunciato investimenti per 1,5 miliardi di euro, nonché al libro bianco pubblicato da AgID sull’adozione di soluzioni di intelligenza artificiale nell’ambito della pubblica amministrazione.
L’intelligenza artificiale sta quindi entrando sempre di più nella nostra vita di tutti i giorni, e con questi trattati europei e internazionali l’Italia, l’Europa e tutto il mondo si preparano alle sfide e complessità che l’intelligenza artificiale porta con se.
Ma prima di vedere come Europa, Usa e Cina si stanno “sfidando” a suon di ricerca sull’AI (Artificial Intelligence), è meglio approfondire e capire più da vicino che cos’è e come funziona l’intelligenza artificiale.
Cos’è e come funziona l’Intelligenza Artificiale
L’intelligenza artificiale è fondamentalmente un insieme di algoritmi. Un robot, un software che gli sviluppatori cercano di rendere “intelligente”, ovvero capace di imparare dai suoi stessi errori, e crescere e migliorare, apprendendo.
Secondo Wikipedia, si definisce come intelligenza artificiale:
« L’intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana. » (Marco Somalvico)
In pratica si sta cercando di ricreare artificialmente l’intelligenza tipica dell’essere umano. Che vuol dire?
Ogni essere umano apprende, grazie all’intelligenza.
L’apprendimento, se ad esempio devo imparare a compiere un’azione e accrescere le mie capacità in quell’azione, consiste nel ripetere l’azione molte volte, commettere errori e imparare dagli errori che si commettono e dall’esperienza.
Con l’intelligenza artificiale si cerca di fare proprio questo. Di creare degli algoritmi che, attraverso loop e iterazioni possano ripetere un’azione più volte, apprendere dagli errori, e quindi imparare sempre di più a fare quell’azione. Se ad esempio ad un robot gli si chiede di giocare in continuazione a scacchi, e di imparare dagli errori. Mettiamo che questo computer stia giorno e notte ad analizzare statisticamente tutte le giocate possibili, e a capire da tutte queste giocate e da tutte le vittorie e sconfitte, per ognuna di essere imparare un po’ di più il gioco degli scacchi.
Arriverà un momento in cui la macchina supererà l’essere umano nel gioco degli scacchi, avendo appreso per tantissimo tempo tutte le mosse possibili.
Per questo l’intelligenza artificiale può essere considerata come l’ “automazione di comportamenti intelligenti”.
Ambiti applicativi dell’intelligenza artificiale per lavoro e società in Italia e nel mondo
I cambiamenti che l’intelligenza artificiale porterebbe alla società sono molteplici. Molti lavori vengono già sostituiti quasi completamente dalle macchine e dall’intelligenza artificiale. “Dare intelligenza” alle macchine permetterebbe di sostituire del tutto alcuni lavori ed attività oggi svolte dall’uomo. Pensa ad esempio ad Amazon, e ai robot che crea per gestire i propri magazzini. Oppure al tuo assistente vocale nel cellulare.
Esempi di intelligenza artificiale
Ecco alcuni esempi di intelilgenza artificiale applicata alla vita di tutti i giorni. Ovviamente gli ambiti applicativi dell’intelligenza artificiale nelle aziende diventano un asset fondamentale per competere. Ora che l’IA è alla portata di tutti, vediamo quindi alcuni esempi di applicazioni che sfruttano l’intelligenza artificiale.
Google Duplex, Assistente AI chiama parrucchiere e prenota
L’intelligenza artificiale dell’assistente Google duplex chiama un parrucchiere e un ristorante e prenota un appuntamento e un tavolo, senza che dall’altro lato del telefono si capisca che c’è un robot.
Boston Dynamics e il robot Atlas
Boston Dynamycs (che all’epoca era stata acquisita da Google) crea robot che sfruttano sistemi di intelligenza artificiale (oltre che riconoscimento facciale, sensori di movimento e molto altro) per creare robot estremamente agili e programmati per fare varie attività, tra cui salti capriole all’indietro.
Sophia, robot umanoide e AGI (Artificial General Intelligence)
Sophia è un robot umanoide creato da Hanson Robotics che sfrutta l’AI di Singularity, una startup che vuole creare AGI (artificial general intelligence).
L’IA generico trova automaticamente modelli e caratteristiche all’interno delle informazioni senza alcun pregiudizio pre-programmato, e impara e categorizza nuovi modelli anomali man mano che vengono rilevati.
Questa proprietà non predeterminata dell’IA generica può avere un’importanza critica nelle applicazioni di sicurezza. Ad esempio, è impossibile per un terrorista o un criminale aggirare l’IA generica sapendo cosa sta cercando, poiché il sistema non ha regole pre-programmate.
Intelligenza artificiale in Europa, Usa e Cina: la sfida
È noto che in questo settore tecnologico oggi la grande sfida si pone tra gli Stati Uniti e la Cina, paesi in cui si stanno diffondendo sempre più applicazioni concrete di utilizzo, sia nel settore pubblico sia in quello privato, con approcci però profondamente diversi.
Gli statunitensi, fedeli alla politica liberale ed alla tradizione di common law, danno ampio spazio alla ricerca privata, anche mediante commesse pubbliche affidate ad aziende, mentre un ruolo assai minore ricopre l’intervento pubblico. La ricerca e sviluppo nel settore tecnologico è sostanzialmente nelle mani delle grandi società di servizi che tutti conosciamo ed i problemi etici, politici e legali sono affrontati solo in seguito ad istanze precise da parte dei gruppi di interesse. Vero è, d’altra parte, che negli Stati Uniti il dibattito coinvolge numerosi soggetti, che hanno anche la capacità di mobilitare l’opinione pubblica, e che sul tema dell’intelligenza artificiale, ma soprattutto dei risvolti delle decisioni automatizzate, vi sono da tempo movimenti di opinione che fanno pressione per l’adozione di specifiche regole (ad esempio, in 22 Stati si è riusciti a far adottare un divieto di utilizzo dei dati relativi all’affidabilità creditizia ai fini della valutazione di canditati a posti di lavoro).
La Cina, d’altro canto, sta adottando un approccio pilotato centralmente. L’estate scorsa il governo cinese ha lanciato la sfida di voler fare del Paese il centro mondiale di innovazione nel settore dell’intelligenza artificiale entro il 2030. A queste parole è seguito un incremento degli investimenti pubblici e negli ultimi anni il numero di brevetti depositati da scienziati cinesi in relazione a tecnologie di intelligenza artificiale è cresciuto del 200% (in applicazioni che coprono l’intero spettro tecnologico, dai chip agli algoritmi). Il governo cinese fa ampio uso delle tecnologie di riconoscimento facciale (recentemente la società cinese SenseTime ha chiuso un round di finanziamento per 600 milioni di dollari, in cui hanno partecipato oltre ad Alibaba anche fondi statali) che vengono utilizzate per applicazioni di sorveglianza in ambito di sicurezza e prevenzione dei reati. L’intelligenza artificiale cinese, inoltre, può contare su un numero impressionante di dati da analizzare (si stima che il numero di cittadini online si aggiri su una cifra intorno ai 750 milioni di persone) visto che ogni applicazione (Baidu, WeChat Taobao, Didi, QQ.com (gestito da Tencent)) conserva e gestisce i dati di tutti i suoi utilizzatori e, per la sostanziale inesistenza di regole a tutela della privacy dei cittadini, può facilmente condividere tali informazioni sia con le autorità governative sia con gli altri attori.
Intelligenza artificiale in Europa (e in Italia)
In questo quadro si introduce ora l’Europa, ponendo l’accento non solo sul punto di vista tecnologico, ma anche etico, sociale e legislativo.
La via europea è, come nella tradizione del Vecchio Continente, orientata ad una cooperazione interstatale tra i Paesi, improntata a favorire lo sviluppo tecnologico attraverso un intervento mirato dei governi che comprenda anche l’accesso ai dati pubblici ed il supporto al settore con investimenti, nel contempo incentivando il confronto sulle regole di salvaguardia per un’intelligenza artificiale “umanocentrica”.
L’attenzione alle esigenze della persona e l’equilibrio tra intervento pubblico ed autonomia privata è ciò che caratterizza da sempre la politica europea in tema di nuove tecnologie e, nello specifico, di intelligenza artificiale.
Nella Risoluzione del Parlamento del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, in cui sono presi in considerazione anche i sistemi di intelligenza artificiale, l’Europa aveva già indicato come temi di attenzione quelli relativi ai risvolti etici e sociali, sottolineando che lo sviluppo della robotica e dell’intelligenza artificiale dovrebbe mirare ad integrare le capacità umane e non a sostituirle.
La citata Risoluzione, pur essendo tesa a fornire delle linee guida in ambito civilistico, in realtà offre numerosi spunti su cui siamo chiamati a riflettere in un’ottica di diffusione di tecnologie intelligenti.
Temi quali la disciplina della responsabilità (secondo criteri di efficace allocazione dei costi) degli agenti intelligenti pongono una sfida nel momento in cui consideriamo che il criterio tradizionale di imputabilità è collegato ad una condotta da parte del soggetto agente (un’intelligenza artificiale pone in essere una sua autonoma condotta nel mondo fisico?), richiama i principi della responsabilità del produttore, che però devono adeguarsi al fatto che tali sistemi assumono capacità decisionale autonoma, e potrebbe coinvolgere anche soggetti diversi dal solo produttore, quali i programmatori o coloro che hanno realizzato gli algoritmi decisionali. Un ulteriore criterio di imputazione della responsabilità potrebbe essere anche rinvenuto nella culpa in vigilando di colui che utilizza il sistema, nel momento in cui può rendersi conto dell’adozione di decisione errate da parte di questo.
La Risoluzione esamina anche il tema dei diritti di proprietà intellettuale, delle particolari esigenze di sicurezza informatica dei sistemi di intelligenza artificiale e della necessità di garantire la protezione dei dati personali.
Se, quindi, la Risoluzione del Parlamento Europeo elenca una serie di punti di attenzione ed anche suggerimenti per arrivare ad una corretta soluzione normativa degli stessi (suggerendo anche l’istituzione di assicurazioni obbligatorie per l’utilizzo degli agenti autonomi) e la Dichiarazione congiunta si pone come un punto di partenza per una piattaforma collaborativa tra i vari Stati membri, sembra che la sfida che l’Europa dovrà affrontare per proporsi come esempio da imitare per gli altri attori (in primis USA e Cina) sarà proprio quella di riuscire in futuro a coniugare la tradizione umanistica europea (su cui si fondano i diritti fondamentali accolti dalla Carta Europea dei Diritti dell’Uomo) con la spinta tecnologica e omologatrice che tali strumenti possono comportare.
GDPR, privacy e intelligenza artificiale
Si tratta, quindi, di regolare ed assicurare l’accountability dei sistemi, richiedendo la trasparenza delle scelte che vengono fatte dagli algoritmi (ad esempio, con appositi diritti come il “right of explanation” citato nel considerando 71 del Regolamento (UE) n. 679/2016 (GDPR) e poi non disciplinato nel testo normativo), l’istituzione di sistemi di tracciatura di ogni scelta effettuata dal sistema, in modo da poter renderlo trasparente, la costruzione di modelli statistici, su cui opera l’intelligenza artificiale, che assumano quale componente fondamentale l’acquisizione del feedback sulle scelte compiute, così da poter effettuare migliori decisioni in futuro.
Oltre al tema della trasparenza del sistema anche quello dei dati che sono trattati dallo stesso assume un’importanza primaria. È noto che in informatica vige il detto “garbage in, garbage out” ed in quest’ottica la qualità e pertinenza del dato su cui un sistema di intelligenza artificiale opera le proprie scelte incide in maniera fondamentale sull’esito delle stesse.
È così necessario che tali sistemi, specialmente se utilizzati per assicurare l’ordine pubblico e la sicurezza sociale, evitino di fondare le proprie valutazioni su dati non attinenti alla singola persona e che possano avere conseguenze sulla stessa (come valutazioni in base al luogo di residenza, al comportamento della comunità, etc.).
Infine, la Dichiarazione sottolinea l’importanza dei dati pubblici. Rendere disponibili tali dati ai soggetti privati che implementano soluzioni di intelligenza artificiale incentiverebbe tali attività, dato che i sistemi di machine learning devono processare ingenti quantitativi di informazioni per poter essere opportunamente istruiti. Però rendere accessibili pubblicamente tali dati, senza opportune misure e cautele, potrebbe avere delle conseguenze negative sulle persone. Si pensi ai dati sanitari, che potrebbero essere utilizzati per sviluppare sistemi di intelligenza artificiale in campo medico per la prevenzione delle malattie (già oggi realizzati), ma al contempo utilizzati per altre finalità, ad esempio per negare l’accesso a posti di lavoro o per negare coperture assicurative.
Siamo convinti che l’Europa potrà assumere un ruolo importante nel settore dell’intelligenza artificiale se rimarrà fedele ai principi etici ed umanistici su cui si fonda, fornendo l’esempio di come la tecnologia debba porsi al servizio delle persone, in un’ottica, si ripete, “umano-centrica”, così come sta accadendo nella recente vicenda che ha coinvolto Facebook e la fuga di dati verso Cambridge Analytica, in cui le regole europee per la protezione dei dati personali sono considerate le più idonee a salvaguardare gli individui, tanto da voler essere prese a modello generale per la gestione dei dati da parte della nota piattaforma social.