il modello

Sovranità digitale, la lezione USA a Europa e Italia



Indirizzo copiato

Le grandi società tecnologiche stanno assumendo un ruolo sempre più vicino a quello di infrastrutture di governo. Dalla lezione americana emerge una domanda cruciale per Europa e Italia, che devono rafforzare sovranità digitale, coordinamento istituzionale e capacità di innovazione autonoma

Pubblicato il 23 apr 2026

Andrea Venanzoni

cultore della materia in diritto costituzionale università Roma Tre e docente diritto pubblico UniPopolare Milano



big tech filiera AI
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Le grandi società tecnologiche sono attori geopolitici ormai strategicamente irrinunciabili per l’interesse nazionale stesso, come riconosce un recente documento del Parlamento Europeo[1].

Paradosso significativo che detto riconoscimento arrivi dal cuore di un sistema istituzionale ed economico privo di quei grandi soggetti, riconducibili ormai quasi esclusivamente agli USA o alla Cina.

Di recente la pubblicazione dell’AI Index Report di Stanford HAI, come ha ricordato Stefano da Empoli[2], oltre a questa dicotomia sempre più cristallizzata e consolidata, con una Europa in grande affanno, ha illustrato nella maniera più potente possibile la ritrovata centralità del ruolo pubblico.

Ed è proprio questo il cuore della lezione americana.

Dalla Silicon Valley al capitalismo politico

Infatti, quei soggetti societari statunitensi non sono più soltanto strumenti serventi, in chiave mercatoria o di soft power, le esigenze dei loro governi, ma si stanno trasformando in qualcosa di decisamente diverso. È il paradigma, portando alle estreme conseguenze la lezione di Max Weber, del ‘capitalismo politico’, per come investigato da Alessandro Aresu[3].

Di recente, interrogandosi sul valore in termini di diritto pubblico di questo processo, Luca R. Perfetti ha sottolineato la nascita di uno Stato parallelo, uno Stato interno allo Stato, perimetrato dalla logica privata del singolo attore societario[4].

Il caso più noto e forte, in questa prospettiva, è quello di Palantir Technologies, società di analisi dei dati fondata da Peter Thiel nel 2003 e diretta da Alex Karp. Trasformatasi nel corso degli anni in un autentico gigante, è una società improntata, sin dalla sua fondazione, a una precisa visione del mondo ben esposta all’attenzione pubblica dal volume di Karp, ‘La repubblica tecnologica[5]’.

Uno dei volumi più importanti degli ultimi anni e che il Wall Street Journal ha descritto come un ambizioso trattato di filosofia politica[6].

È finito il tempo della Silicon Valley esclusivamente consumeristica, annota Karp, i cui prodotti e servizi esulavano, per principio, da qualunque idea di collaborazione organica con il governo americano[7]: ormai è tempo di creare un dispositivo organico che trascenda i limitati confini del partenariato pubblico-privato per sublimarsi in una forma di governo nuova, la ‘repubblica tecnologica’ appunto.

In fondo, la Valley stessa, storicamente, si situa lungo la dorsale dell’interesse militare ed è stata cesellata dai finanziamenti del Dipartimento della Difesa[8]: il fatto che col passare degli anni abbia cercato di scrollarsi di dosso quella origine ingombrante è purissima fictio.

Come la repubblica tecnologica ridefinisce la decisione pubblica

La vicenda di Palantir e di come il governo USA se ne sta servendo presenta una serie di profili di grande interesse anche in prospettiva europea, soprattutto nell’angolazione di analisi di quanto l’uso della IA nei cicli decisionali politico-amministrativi vada rimodellando la fisionomia della forma di governo stessa.

Palantir, è noto, pur nata come società specializzata in analisi massiva dei dati attraverso piattaforme software basate su algoritmi e crittografia mutuati da PayPal, è ormai divenuta un sistema infrastrutturale che mediante l’integrazione organica delle sue piattaforme, come Gotham o Foundry, arriva a definire una ‘Ontology’ attraverso cui passa la nuova decisione esecutiva.

In tutto questo c’è anche un aspetto di natura culturale: Palantir coltiva infatti la dimensione strategica del dislocamento di propri ingegneri presso la singola realtà che utilizza la data piattaforma, procedendo a una definizione di un modello di volta in volta unico.

Il ruolo dei forward deployed engineer

L’ingegnere distaccato, il forward deployed engineer[9], concetto tipicamente militare, è ormai forma largamente utilizzata anche nel settore civile e amministrativo, contribuendo non solo a modellare la piattaforma a seconda di contesto e utilizzatore finale ma anche irradiando una mentalità diversa nel circuito decisionale.

Il processo che ha posto Palantir al centro di governo dell’infrastruttura pubblica americana è stato accompagnato da un intricato reticolo normativo e contrattuale.

Centralizzazione dei dati e potere esecutivo

Con executive order del 25 marzo 2025, l’amministrazione Trump ha dato mandato alle sue strutture di centralizzare il flusso di dati al fine della piena razionalizzazione dell’utilizzo dei dati stessi.

Con contratto del maggio 2025, l’amministrazione federale ha stabilito che le strutture pubbliche utilizzino, in modo centralizzato, l’infrastruttura di Palantir per processare i dati unitariamente raccolti. Il superamento della ritenzione informativa è d’altronde riconosciuto quale specialità di Palantir[10] e si innerva in un lungo iter di definizione di una amministrazione algoritmica[11].

Nel luglio 2025, il Piano federale per l’IA ha inteso superare la competenza legislativa degli Stati dell’Unione, centralizzando in capo al livello federale le politiche in tema di IA, riconosciute come sfida esistenziale.

Questa dinamica di accentramento funzionale, accompagnata da una precisa visione costituzionale del potere esecutivo, conosciuta come teoria unitaria del potere esecutivo[12], è coadiuvata proprio dall’intelligenza artificiale e scandisce le linee di evoluzione, e di emersione, di una sorta di governo start-up.

Si tratta di una visione tipicamente americana e che vanta, in quel Paese, antecedenti concettuali assai precisi[13] ma che presenta alcuni aspetti di interesse anche in una dimensione europea.

Sfrondata degli eccessi e ricondotta ad una latitudine valoriale europea può indicare una strada utile da seguire.

Quale repubblica tecnologica per l’Europa

La lezione americana è preziosa perché non schiude un orizzonte esclusivamente limitato alla sfera di semplificazione, tanto di stock quanto di flusso, della produzione normativa e degli incombenti amministrativi.

Indipendenza tecnologica e sovranità digitale, anche alla luce dell’US Cloud Act, devono divenire imperativi esistenziali e non solo bandiere segnaletiche di policy, accompagnandosi fisiologicamente a un processo di integrazione digitale istituzionale anche per l’Europa politica.

L’integrazione digitale, particolarmente evidente lungo il crinale della cybersecurity[14], può essere definita quale sistema coordinato di politiche tra i vari livelli di decisione[15]: deve accompagnarsi a una road-map empiricamente sostenibile che dal livello europeo promani a quello nazionale, senza che quest’ultimo si trasformi in duplicazione segnaletica e, quindi, in zavorra frenante.

Perché, ed appare ovvio, indipendenza e sovranità si raggiungono e mantengono prioritariamente attraverso innovazione tecnologica propria, che consenta modellazione by design di servizi e prodotti conformi ai principi di diritto europeo.

Perché la repubblica tecnologica europea richiede innovazione propria

Questo aspetto, sovente enunciato ma scarsamente praticato, diviene ancora più indefettibile alla luce di un dato pacifico: la divaricazione sempre più cristallina tra ciò che, per riprender il lessico di un recente, bel libro di Gianfranco Pacchioni[16], possiamo definire scienza ‘chiara’ e scienza ‘oscura’, intendendo quest’ultima quale tutta quella sperimentazione e quella innovazione che avvengono lontano dallo scrutinio del pubblico dibattito.

Innovazione legata al campo della difesa ma ancor più spesso, specie in tema di IA, perché portata avanti nel ventre dei grandi soggetti del Tech.

La scienza ‘oscura’ pone un nuovo tema di consolidamento del potere, recentemente sottolineato da Oreste Pollicino commentando il Project Glasswing di Anthropic[17]; la sottrazione completa di un elemento tecnologico allo spazio pubblico, un fenomeno che conferisce al soggetto privato una rendita di posizione ex ante immane e che appare, ontologicamente, sfuggire a qualunque ipotesi di regolazione possibile.

Uno scenario di questo genere evidenzia nella maniera più evidente quanto e come all’innovazione non possa che prioritariamente rispondersi con innovazione propria, un aspetto questo che d’altronde Mario Draghi aveva ben evidenziato nel suo Rapporto sulla competitività.

Come Palantir, anche nel caso dei Large Language Models siamo in una prospettiva non più puramente mercatoria o concorrenziale o piattaformizzata ma ontologica, infrastrutturale.

Se diamo per assodato che la digitalizzazione di una nazione si fonda su cinque pilastri essenziali, l’adozione delle tecnologie digitali, le infrastrutture abilitanti, l’hardware e il software, i servizi digitali e i dati, ci rendiamo conto di come e quanto la dipendenza europea da player americani sia enorme.

AI Act, governance e limiti del modello multi-partecipativo

Proprio questa necessità di accelerazione, unitamente al processo semplificatorio contenuto nel Digital Omnibus e al tentativo di ridurre la dipendenza in tema di chip, con il Chips Act, che punta a riportare la produzione di semiconduttori al 20% del totale mondiale entro la fine del decennio, riducendo la dipendenza da fornitori esterni, porta a nutrire perplessità sull’approccio di governance multi-partecipativa in tema di intelligenza artificiale.

Come noto, a sovraintendere alla normativa AI Act, in fase esecutiva e di vigilanza e di applicazione, e consultiva, abbiamo un sistema complesso. L’Ufficio europeo per l’IA e le autorità nazionali di vigilanza del mercato individuati sul versante attuativo della normativa de qua, e poi un ecosistema partecipativo di funzione consultiva: il comitato europeo per l’intelligenza artificiale, composto da rappresentanti degli Stati membri dell’UE, il gruppo di esperti scientifici, composto da esperti indipendenti nel settore dell’IA, il forum consultivo, che rappresenta una selezione diversificata di portatori di interessi, sia commerciali che non commerciali.

In considerazione del fatto che l’Unione Europea è un organismo sovra-nazionale non di matrice federale e che pertanto, fisiologicamente, la decisione politica è ripartita in modo pulviscolare tra livello euro-unitario e livello nazionale, risultandone fisiologicamente rallentata, questo sistema deve essere rivisto, sostituendo gli organi con consultazioni aperte.

Del pari è necessario che a livello europeo vi sia un organismo unico chiamato ad occuparsi di IA e che ad esso siano devolute tutte le competenze che, ad oggi, ratione materiae, pur incidenti nel campo IA, sono diffuse in una più estesa costellazione istituzionale: si pensi ad ENISA per quanto concerne il rapporto tra IA e cybersecurity.

Open source e sovranità nella repubblica tecnologica europea

Un altro punto di partenza irrinunciabile deve essere il ricorso massivo all’open source[18].

L’open source è ad oggi l’unico ambito che consenta, realisticamente, di mitigare la dipendenza strategica e digitale da vendor americani.

Non per caso, sia in ambito cloud, edge e IoT, l’Unione ha iniziato a porre forte enfasi su soluzioni open source, nonostante oscillazioni che, a Cyber Resilience Act vigente, hanno portato a parlare di una potenziale fine dell’open source stesso[19].

Gli indirizzi generali sembrano, però, fortunatamente mutare.

Si può citare, a detto proposito, la Dichiarazione di sovranità digitale europea, siglata nel novembre 2025 e che reca una chiara impostazione connessa all’open source.

Un atto politico, non normativo, ovviamente, ma che pure sembra tracciare una strada di favore riconosciuto per soluzioni aperte.

Da ultimo, anche l’elaborazione di un più recente framework cybersecurity appare più sensibile alla dimensione open source[20]. L’elaborazione di una tabella di marcia europea per l’open source è guidata da quattro fattori determinanti: sovranità digitale e tecnologica, sicurezza dei dati e conformità, innovazione e resilienza economica, nonché sostenibilità ambientale.

Ciascuno di questi fattori evidenzia la necessità di una strategia dedicata che sfrutti le tecnologie open source europee per governare le vulnerabilità, superare le lacune infrastrutturali, ottimizzare e razionalizzare la sicurezza e permettere alle organizzazioni europee di agire con piena indipendenza, sicurezza e in chiave sintonica con i valori europei all’interno di un quadro digitale il più affidabile possibile.

Interoperabilità e modelli nazionali in Europa

Definire una ‘repubblica tecnologica europea’ passa innanzitutto mediante la definizione di canoni di interoperabilità di servizi e prodotti digitali; una infrastruttura connettiva che parlando un unico linguaggio superi quello che è uno dei problemi maggiori dello spazio europeo, l’omogeneità.

Anche alcuni Stati membri stanno adottando sul versante interno soluzioni fortemente open source, per lenire la dipendenza da soggetti privati americani.

Ad esempio, in Germania sempre più amministrazioni locali stanno abbandonando software Microsoft, sostituiti con soluzioni open source, e al tempo stesso si stanno definendo soluzioni, normative e fiscali, di favore per le start-up tecnologiche al fine di sviluppare innovazione autoctona[21].

In Francia, si sta sviluppando una piattaforma, Visio, modellata in funzionalità open source, per sostituire le piattaforme di comunicazione americane. Pur avendo intrapreso da anni ormai un processo di digitalizzazione della sfera pubblica, meno ci si era interrogati sul quoziente di dipendenza dalle realtà extra-europee[22].

Un altro aspetto essenziale è potenziare e attrarre investimenti mirati in area europea in tema open source, anche mediante connessioni con realtà societarie e fondazioni europee per l’implementazione concreta di policies in tema.

Aspetto questo che costituisce parte saliente di una ampia e condivisibile riflessione di Luciano Floridi che vede nell’open source applicato a modelli fondazionali IA una via privilegiata per riattivare e rivitalizzare il complessivo progetto europeo[23].

Quale repubblica tecnologica per l’Italia

Uno dei principali problemi italiani è l’eccessiva frammentazione del ciclo decisionale in tema di innovazione digitale.

Ad una produzione normativa sovente episodica, quando non sloganistica, manca una simmetrica impalcatura istituzionale che vigili e attui concretamente gli indirizzi, procedendo quando necessario a una rettificazione empirica delle norme, sul campo.

Si tratta, per vero, di fenomeno risalente e che col passare del tempo ha determinato una stratificazione geologica di norme, con la risultante di disorientare molto spesso persino le stesse amministrazioni[24].

L’abbondanza di norme, riconducibili funzionalmente a istituzioni differenziate, con non banali necessità di coordinamento e di collaborazione, conduce a ciò che è stata definita ‘poliarchia regolatoria[25]’. Quanto poco questo quadro possa coniugarsi con un ecosistema fattivamente devoluto alla reale innovazione appare evidente.

Open source, norme e dipendenza tecnologica in Italia

In quanto alla natura sloganistica di alcune previsioni normative, basta un semplice esempio empirico: nonostante riuso e utilizzo di soluzioni open source siano previsti e definiti dal d. lgs. 7 marzo 2005, n. 82 (codice dell’amministrazione digitale)[26] come obbligatori, prima di procedere all’acquisto di software proprietari, la prassi ci dice ben altro.

Nonostante l’enfasi, anche in questo caso, la vita interna delle amministrazioni e la natura delle loro decisioni legate all’approvvigionamento di dotazioni strumentali concrete segnalano un quadro molto diverso[27]. Quella che a norma vigente dovrebbe essere la deroga, l’eccezione, diviene in via di prassi lo standard. Ma si tratta di standard e di decisioni che hanno aumentato il livello quali-quantitativo di dipendenza tecnologica da soggetti privati extra-europei.

In questo specifico caso, non c’è alcun dubbio che si dovrebbe intervenire normativamente assegnando un arco temporale alle amministrazioni entro il quale, obbligatoriamente, passare dal software proprietario a quello aperto, eliminando in radice la clausola derogatoria.

Non c’è alcun dubbio, poi, che questa frastagliata e balcanizzata modalità di gestione sia figlia di una mancanza di strategia. Un altro aspetto saliente che finisce per rimandare un quadro assai nitido di una carenza di strategia è proprio quello della governance istituzionale dell’IA.

La repubblica tecnologica italiana e il nodo della governance

Se qualcosa l’esempio americano ci insegna, persino in uno Stato a vocazione fortemente federalista e in cui il X emendamento scolpisce un favore per le comunità territoriali particolarmente cogente, è proprio la necessità di eliminare i passaggi intermedi, i layer decisionali, e soprattutto le contraddizioni gestionali che inevitabilmente vengono a crearsi in una stordente polifonia decisionale.

L’Italia, è noto, si è dotata, prima tra tutti i Paesi europei, di una legge sull’intelligenza artificiale, la quale attua, ma non solo, la normativa contenuta nell’IA Act, pur in alcuni casi discostandosene.

Nonostante l’approccio istituzionale scelto sia stato descritto come governo-centrico, la risultante concreta continua, secondo una tradizione italiana schiettamente patologica, a vedere una galassia di soggetti istituzionali, direttamente o indirettamente, chiamati in causa.

Alla luce della legge 23 settembre 2025, n. 132, segnatamente articolo 20, il quadro che ne risulta è quello di un vertice politico, la Presidenza del Consiglio, e due organismi insigniti direttamente della competenza di governance, quali autorità nazionali di IA: Agenzia Nazionale per la Cybersicurezza (ACN), da un lato, e Agenzia per l’Italia Digitale (AgID), dall’altro.

Ma, appare evidente, il quadro non si può esaurire qui.

Troppi profili esulerebbero dalla ipotetica actio finium regundorum, quando si decidesse di scandagliare i profili realmente sostanziali chiamati in causa dall’IA.

Ed è evidente come della partita debbano essere anche il GPDP, l’AGCOM e l’AGCM, ciascuna per il segmento di sua specifica competenza.

Il quadro perfetto, verrebbe da dire, per produrre una seriale sequenza di conflitti di competenze tra agenzie ed enti di governo[28], portando ad una potenziale inerzia.

Ma la complicazione dall’aura labirintica non si arresta qui. Perché l’intero ecosistema digitale, e quindi anche dell’IA, è segmentato in maniera vertiginosa. Competenze in tema ricadono in capo al Dipartimento per la trasformazione digitale o addirittura ai singoli Ministeri, ciascuno con una strategia funzionale localizzata nell’alveo delle proprie attribuzioni.

Come se non bastasse, questa postura diffusa porta a una frantumazione stellare con la istituzione di una serie di tavoli, comitati, commissioni, dalla natura consultiva ma la cui unica risultante è l’aumento esponenziale del rumore di fondo.

Un Ministero dell’IA per una strategia nazionale

Arrivati a questo punto appare indispensabile adottare una strategia gordiana; creazione di un unico organismo di rango ministeriale che assorba ogni aspetto non ricadente nella fisionomia dei compiti di una autorità indipendente.

Tutte le funzioni residue di governo e di implementazione dell’IA devono essere centralizzate in un Ministero dell’IA, il quale, simmetricamente, porti alla immediata chiusura di qualunque struttura duplicata e alla cessazione di qualunque piano particolare, strategia ministeriale, dossier, libri verdi, bianchi.

Del pari, il Ministero dell’IA si farà latore di una reale strategia di formazione culturale, di istruzione e di disseminazione per arrivare all’unico vero obiettivo esistenziale; raccordare mondo dell’istruzione, quello accademico e mercato del lavoro per comprendere, empiricamente, anche quali saranno i settori più incisi e colpiti, e in che modo, dalla diffusione dell’IA.

Il raccordo deve portare al superamento di una visione puramente cartolare, libresca e museale della connessione tra IA e lavoro, elaborando una dimensione che consenta, anche in Italia, e in Europa, di dotarsi di forward deployed engineer che lavorino nelle amministrazioni e che monitorino l’attuazione empirica della normativa e delle politiche pubbliche, customizzino i modelli tecnologici e i servizi digitali.

Non ultimo, la definizione di una politica di incentivazione di finanziamenti e di snellimento procedurale e burocratico al fine di ingenerare un ecosistema idoneo allo sviluppo di start-up innovative.

Perché, appare chiaro, senza capacità di attrarre capitali continueremo ad esportare, e perdere, i nostri talenti.

Note

[1] S. Clapp, Defence and artificial intelligence, in Servizio studi del Parlamento europeo, aprile 2025.

[2] S. da Empoli, L’Europa è schiacciata tra USA e Cina: come uscire dallo scacco, in Agenda Digitale, 17 aprile 2026.

[3] Così Aresu definisce il capitalismo politico, ‘intreccio strumentale e reale tra obiettivi economici ed esigenze di sicurezza nazionale’, A. Aresu, Capire il capitalismo politico, in Aspenia, 20, 2020, pp. 119.

Si veda anche A. Aresu, Le potenze del capitalismo politico – Stati Uniti e Cina, Roma, La Nave di Teseo, 2020.

[4] L. R. Perfetti, Lo Stato parallelo: Brevi considerazioni su P. Thiel, The straussian moment, trad. it., Macerata, Liberilibri, 2025, in Persona e Amministrazione, 2, 2026, pp. 743 e ss.

[5] A. Karp, La repubblica tecnologica, Milano, Silvio Berlusconi Editore, 2025.

[6] J. Bew, ‘The Technological Republic’ Review: Power in a Silicon World, in Wall Street Journal, 287 febbraio 2025.

[7] A. Karp, La repubblica tecnologica, cit., p. 21.

[8] M. O’Mara, The Code. Silicon Valley and the Remaking of America, New York City, Penguin, 2019, specie pp. 24 e ss.

[9] Sull’importanza di questa figura, S. Sankar, Mobilize, New York, Simon & Schuster, 2026.

[10] L. Ulbricht, S. Egbert, In Palantir we trust? Regulation of data analysis platforms in public security, in Big Data & Society, 4 agosto 2024.

[11] AA.VV., Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies, in Administrative Conference of the United States, febbraio 2020.

[12] D. M. Driesen, The Unitary Theory in Comparative Context, in UC Law Journal, 1, 2020, particolarmente critico a pp. 29 e ss.

Molto critici anche J. Crouch, M. J. Rozell, M. A. Sollenberger, The Unitary Executive Theory: a Danger to Constitutional Government, Lawrence, Texas University Press, 2020, in particolare pp. 10 e ss.

C. R. Sunstein, A. Vermeule, The Unitary Executive, Past, Present, Future, in The Supreme Court Review, 2020, pp. 83 e ss., la vedono al contrario come scarsamente eversiva.

[13] R. Hofstaedter, L’odio per gli intellettuali in America, Roma, LUISS University Press, 2024, pp. 233 e ss.

[14] F. Serini, Il sistema europeo di cooperazione informativa per il contrasto alle minacce informatiche. Verso una definizione di cybersicurezza integrata?, in Medialaws, 3, 3023, p. 171

[15] Sia consentito il rinvio a A. Venanzoni, L’ordine costituzionale della cybersecurity, in Forum di Quaderni Costituzionali – Rassegna, 4, 2024, specie pp. 59 e ss.

[16] G. Pacchioni, Scienza chiara, scienza oscura. Ricerca pura, ricerca militare, Big Tech, Bologna, Il Mulino, 2025.

[17] O. Pollicino, Il potere oggi è di chi regola l’accesso al mondo digitale, in Milano Finanza, 15 aprile 2026.

[18] M. Klare, U. Lechner, Digital Sovereignty: Affordances in Open Source Projects, in Software Business, 3, 2025, pp. 20 e ss.

[19] L. Colonna, The end of open source? Regulating open source under the cyber resilience act and the new product liability directive, in Computer Law & Security Review, 56, 2025

[20] J. Tridgell, Open or closing doors? The influence of ‘digital sovereignty’ in the EU’s Cybersecurity Strategy on cybersecurity of open-source software, in Computer Law & Security Review, 56, 2025.

[21] J. Bennink, Germany’s digital minister wants a European Palantir, in Politico, 14 aprile 2026.

[22] K. Yeung, ‘The New Public Analytics as an Emerging Paradigm in Public Sector Administration’ (2022) 27(2) Tilburg Law Review, specialmente p. 28.

[23] L. Floridi, La differenza fondamentale, Milano, Mondadori, 2025, pp. 221 e ss.

[24] S. Ungaro, Non è il Foia promesso, “PA disorientate da eccesso di norme e assenza di guida”, in Agenda Digitale, 2 febbraio 2017.

[25] S. Compagnucci, Energia, salute e TLC: quando troppe regole frenano l’Italia, in Agenda Digitale, 17 aprile 2026.

[26] In particolare, gli articoli 68 e 69 del d. lgs. n. 82/2005.

[27] I. Vignoli, Open source: cresce l’uso nei governi, ma manca visione strategica, in Agenda Digitale, 23 giugno 2025.

[28] C. Morelli, Pro e contro della legge sull’intelligenza artificiale, l’analisi, in Wired, 24 settembre 2025.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x