Tiro a segno all’intelligenza artificiale: perché ora tutti la criticano - Agenda Digitale

IA e Letteratura critica

Tiro a segno all’intelligenza artificiale: perché ora tutti la criticano

I progressi dell’intelligenza artificiale (IA) hanno indotto una naturale proliferazione della letteratura sull’argomento. Negli ultimi anni si stanno diffondendo soprattutto volumi iper-critici, anche in termini aspri e con accenti luddisti. Indagine sul recente tsunami di giudizi negativi sull’IA

13 Set 2021
Alessio Plebe

Università degli Studi di Messina

Tiro a segno sull’Intelligenza Artificiale

Il recente notevole progresso dell’intelligenza artificiale (IA), e la sua sempre più pervasiva applicazione, hanno indotto una naturale proliferazione della letteratura sull’argomento.
Abbondano i libri tecnici, rivolti soprattutto a chi intenda far uso dei nuovi strumenti di IA in una miriade di possibili ambiti, sono piuttosto comuni i testi a carattere introduttivo o divulgativo,
non mancano volumi di riflessione più ampia, economica, sociologica, filosofica, attorno all’IA.

“Atlas of AI”: Power, Politics, and the Planetary Costs of Artificial Intelligence”

Mentre agli inizi del recente successo dell’IA l’atteggiamento prevalente della letteratura era benevolo, negli ultimi anni si intravede una sorprendente inversione di tendenza, con la
pubblicazione di diversi volumi critici, alcuni anche in termini radicali e particolarmente aspri.

Indaghiamo sulla natura delle critiche all’IA

Per capire cosa animi questa sorta di tiro a segno sull’IA, lo spettro di prospettive appare decisamente ampio e variegato. Si possono comunque identificare, pur se con una certa approssimazione e forzatura, alcune categorie prevalenti. Vi sono anzitutto diversi testi che prendono le loro mosse da una valutazione sull’effettivo valore dell’IA e sulla sua prospettiva futura.

digital event, 20 ottobre
Think Digital Summit: strategie, tecnologie, trend e innovazione per competere sul mercato
Big Data
Intelligenza Artificiale

Curiosamente, le critiche arrivano dai due estremi opposti di tale valutazione: sia da coloro che ritengono l’IA realmente proiettata verso la creazione di macchine ad alta intelligenza, sia da quelli che invece la reputano inefficace e fallimentare.

Beninteso, esiste un’ampia letteratura che, valutando l’IA efficace e di successo, la ritiene positiva, tra loro i più estremi sono i cosiddetti “futuristi” come Ray Kurzweil, ma non è di loro che si intende parlare qui. I critici che reputano l’IA potente ed efficace, derivano il loro giudizio dalle stesse considerazioni dei futuristi, ma proprio perché l’IA si prospetta sempre più potente e destinata al successo, ne intravedono una potenziale minaccia per il futuro dell’umanità,
addirittura una delle peggiori possibili minacce.

I critici riesumano Ludd

È opportuno scorporare da questa prima categoria di critici, una sottocategoria che in realtà entra ben poco nel merito dell’effettiva capacità dell’IA, sia per mancanza di competenza specifica che per tipologia di prodotto editoriale: la critica è semplicemente dello stesso genere che ha spesso accompagnato timori ed ostilità verso tecnologie emergenti.

Battaglia senza speranze nella storia

Un esempio italiano è il “Fermate le macchine!” di Francesco Borgonovo, un’accorata perorazione esplicita nel titolo,
che riesuma toni dello storico movimento luddista della seconda decade dell’ottocento. Allora il bersaglio erano i telai tessili automatizzati, e a capo di chi cercava di fermare le macchine c’era il
mitico capitano Ned Ludd.

Un movimento simile seguì l’introduzione dell’elettricità. Si tratta di
innovazioni che implicano una prospettiva di distruzione di interi comparti di lavoro, in questo caso vi rientravano i seicento “accenditori” di New York, il cui unico ma prezioso compito consisteva nell’accendere uno per uno i venticinquemila lampioni ad olio distribuiti nelle strade di questa città.
Contro l’arrivo di elettricità e lampadine, nel 1907 gli operai accenditori scesero in sciopero lasciando la città al buio. Sono chiaramente battaglie senza speranza, sappiamo come è andata a finire con le lampadine, e oggi pochissimi sanno che un tempo era esistito il mestiere dell’accenditore di lumi ad olio.

Negli anni ’70 fu il turno del computer a ridimensionare drasticamente, se non eliminare, diversi mestieri, dalla gestione di ufficio alla tipografia. Ora è il turno dell’IA, e certamente lo spettro della perdita di lavoro è l’argomento più convincente per accendere gli animi in una nuova lotta neo-luddista. Non a caso è un argomento cavalcato da diverse forze politiche populiste, e il libro sopra citato ne è un esempio.

I timori dei fisici teorici: la creazione di una Superintelligenza

Chiusa questa breve parentesi su attacchi anti-tecnologici il cui fil-rouge è la scarsa competenza, la categoria degli allarmi derivanti da una supervalutazione dell’IA, include nomi illustri, tra cui spiccano
fisici teorici. Uno dei libri più famosi è il “Life 3.0: Being Human in the Age of Artificial Intelligence” di Max Tegmark, che prende molto seriamente la possibilità che le macchine in futuro diventino più intelligenti degli uomini stessi.

Tegmark prospetta una serie articolata di scenari possibili, che vanno da una pacifica coesistenza di macchine e uomini, a pericolose espansioni di queste ultime, tali da richiedere un Gatekeeper, una superintelligenza accorta che sorvegli la creazione di superintelligenze artificiali ancor più potenti, per finire a quelle più desolanti come il Zookeeper, in cui i poveri umani sopravvissuti sono rinchiusi in gabbie, contemplabili da curiose entità meccaniche superintelligenti. Si tratta di ipotesi che inevitabilmente fanno sorridere, e pensare all’opera di un fantasioso regista o letterato piuttosto che di uno scienziato.

Sono invece pensieri di una delle più raffinate menti nell’ambito della cosmologia e della meccanica quantistica, che meritano quindi di essere lette con una certa attenzione. L’aspetto singolare è che Tegmark non è una figura isolata, quello che è stato il più popolare divulgatore della fisica, Stephen Hawking, ha condiviso le preoccupazioni di Tegmark, in toni ancor più accorati. In un articolo del 2017 su The Independent a firma, oltre che di Tegmark e Hawking, del premio Nobel per la fisica Frank Wilczek, l’IA veniva considerato l’evento più eclatante in tutta la storia dell’umanità, e tragicamente anche il suo ultimo, se non si riuscirà in tempo a pararne i rischi. Proteggere il futuro dell’umanità da questi rischi è proprio lo scopo che si prefigge il Future of Life Institute, di cui Tegmark è uno dei fondatori, a cui aderiscono oltre che Wilczek anche Elon Musk, uno degli imprenditori che più di tutti ha puntato sull’IA.

Il rischio di elaborare scenari poco plausibili per il senso comune

Pur ribadendo la necessità di dare attenzione a messaggi di allarme che provengono da scienziati di tale fama, emerge il sospetto che i fisici teorici, nella continua necessità di maneggiare universi astratti, sintetizzati in indecifrabili formulazioni matematiche, abissalmente distanti da quella che è la percezione comune della realtà che ci circonda, abbiano sviluppato una facilità ad elaborare scenari, anche dettagliati, poco plausibili per il senso comune.

Robin Hanson è un economista americano, ma con una formazione in fisica, forse questo lo ha allineato a Tegmark e Hawking nel produrre una sua versione di un tragico destino dell’uomo per colpa dall’IA. Il suo curioso libro del 2016, “The Age of EM – Work, Love, and Life when Robots rule the Earth”, ruota interamente attorno ad una ipotetico oggetto di IA, chiamato appunto EM, in breve per brain EMulation. Si tratterebbe di un robot, anche solamente virtuale, il cui controllo è costituito da un computer che emula la struttura computazionale di un cervello reale, la cui rete di neuroni e sinapsi è stata interamente catturata tramite scansione. Il libro è una lunga speculazione su quanto gli umani rischino di passarsela non troppo bene, man mano che il mondo si popolerà di EM. Anche Hanson è impegnato in prima persona ad arginare le minacce dell’IA per l’umanità,
fa parte del Future of Humanity Institute, organizzazione del tutto simile in scopi al Future of Life Institute. Ne è direttore il filosofo Nick Bostrom, un futurista radicale quanto Kurzweil, e come questi fautore dell’inarrestabile progresso dell’IA, non è quindi certamente annoverabile tra i critici, ma non esclude la possibilità che la prossima disponibilità di superintelligenza includa rischi, anche potenzialmente devastanti per l’umanità.

I denigratori del versante diametralmente opposto temono il rischio della stupidità

È il momento di saltare al versante diametralmente opposto, di coloro che invece considerano l’IA di ben poco conto, e per questo la denigrano. Uno dei titoli che meglio esemplificano questa posizione è “The myth of artificial intelligence: why computers can’t think the way we do” scritto da Erik Larson (2021). Il libro inizia spazzando via come fondamentalmente sbagliata la prospettiva della superintelligenza, basata sull’idea che una macchina, una volta superata l’intelligenza dell’uomo, possa produrre macchine più intelligenti di quelle progettabili da ingegneri umani, e così via a catena. Il punto critico è che non vi è al momento nessuna evidenza
di sistemi di IA in grado di progettare altri sistemi, nemmeno i più banali possibili. È un argomento condivisibile, simile a quello articolato da chi scrive insieme a Pietro Perconti, nel 2012, nel saggio “The Slowdown Hypothesis”, ovvero la constatazione e la giustificazione teorica, di come il progressivo avvicinarsi da parte di sistemi artificiali alle capacità di un cervello umano, implichi un accumulo di difficoltà che rallentano sempre più il completo successo.
Larson però oltre a demolire le futuristiche superintelligenze, è drastico nel negare in toto una caratteristica di genuina intelligenza all’IA, e qui i suoi argomenti diventano piuttosto deboli. Si tratta per una certa parte della riedizione di critiche molto datate, riconducibili al padre di tutti i critici dell’IA: il filosofo Hubert Dreyfus, cultore di Heidegger, e autore del celebre “What Computers Can’t Do: A Critique of Artificial Reason” (1972), ribadito nel 1992 con “What Computers Still Can’t Do: A Critique of Artificial Reason”. Vi sarebbero per Dreyfus come per
Larson, proprietà uniche degli esseri viventi, in particolare l’uomo, che li conducono a comportamenti intelligenti, impossibili da tradurre in algoritmi e implementare in software.

La comprensione del linguaggio come caso emblematico. L’esempio del 1960

Entrambi usano la comprensione del linguaggio come caso emblematico. Mentre Dreyfus aveva buon gioco a ridicolizzare le prestazioni dei pionieristici traduttori automatici degli anni ’70, Larson convince decisamente meno nel 2021. Per mostrare come sia ingannevole l’apparenza di un computer che dialoga, rispolvera quel celebre pezzo da museo che è Eliza, lo psicoterapeuta computerizzato che rese famoso Joseph Weizenbaum nel 1966. Indubbiamente il linguaggio umano è un capolavoro di insidie, a Larson ne elenca di appropriate, a partire dal famoso esempio, congegnato dal linguista computazionale Bar-Hillel nel 1960, “The box was in the pen”.
Un sistema automatico produce facilmente la curiosa traduzione “La scatola era nella penna”, mentre in questo caso pen ha un’accezione meno comune di piccolo recinto per animali. Se il computer “comprendesse” non produrrebbe l’errore, considerando che una penna per scrivere non è in grado di contenere una scatola.

Visto che il computer non potrà mai genuinamente “comprendere” Larson profetizza che non potrà mai risolvere le innumerevoli ambiguità che affliggono il linguaggio comune. Anche Dreyfus aveva fatto la sua profezia, che nessun
computer avrebbe potuto sconfiggere un giocatore di scacchi in carne ed ossa. Senza dubbio siamo ancora ben lontani da sistemi con competenze linguistiche vicine a quelle umane, ma la spinta in avanti derivata dai modelli neurali Transformer e le loro abilità a catturare dipendenze lontane tra parole, suggerirebbe prudenza nel dare come inesorabilmente sconfitte le macchine di fronte al linguaggio, ed è piuttosto imbarazzante non
trovare nemmeno un cenno a questi modelli nel libro di Larson.

Technochauvinism: la preoccupazione di sovrastimare le possibilità dell’IA o di applicarla a sproposito

Anche per Meredith Broussard il guaio dell’IA è di non essere per niente intelligente e capire davvero poco, come esplicita subito il titolo del suo libro del 2018, “Artificial Unintelligence: how
Computers Misunderstand the World”. A differenza di Larson, Broussard non dedica attenzione a superintelligenza e simili scenari futuristici, la sua maggior preoccupazione è invece l’attuale tendenza a sovrastimare le possibilità dell’IA, e di conseguenza ad applicarle disinvoltamente, anche quando inutile o poco produttivo.

Broussard ha coniato per questo atteggiamento il termine technochauvinism, e ne ha prodotto una serie di esempi, alcuni dei quali a dire il vero hanno poco a che fare con l’IA, per esempio la convinzione che l’unica cura alle croniche carenze del sistema educativo americano sia nel dotare sempre più gli studenti di strumenti informatici. Indubbiamente invece è proprio il diffuso eccesso di fiducia nell’IA ad aver prodotto l’esplosione delle startup che sperano di risolvere magicamente ogni genere di problematica con un algoritmo. Broussard, forte della sua consolidata esperienza nel giornalismo algoritmico, sa bene quanto sia tutt’altro che immediato e magico far funzionare adeguatamente qualunque genere di software IA che affronti un compito non banale, e la sua impietosa analisi descrive quanto destinate all’improduttività siano molte di queste improvvisate startup. Invece
quando Broussard prende in esame il caso delle auto a guida autonoma, si fa prendere la mano allo stesso modo di Larson nel decretare senza appello la superiorità dell’uomo sulla macchine.

Pro e contro della guida autonoma

Broussard produce un simpatico elenco di stranezze effettivamente riscontrate lungo le strade americane (riprese in video visibili su YouTube), come bambini che giocano a Frogger, il classico videogame in cui occorre aiutare una rana ad attraversare un’autostrada a cinque corsie, in un’autostrada vera, oppure una signora in sedia a rotella che rincorre un’anatra nel mezzo di una strada. Broussard sentenzia che le persone sono intelligenti e quindi possono gestire queste stranezze, i computer non sono intelligenti, e quindi non possono, fine della storia. Ancor più che per il caso del linguaggio, la rapidità impressionante con cui in dieci anni il riconoscimento visivo è progredito, imporrebbero più prudenza nelle profezie.

Chi scrive è pienamente consapevole delle attuali limitazioni della guida autonoma, che nella sua Tesla si sono talvolta concretizzate in fastidiose frenate brusche in assenza di ostacoli visibili, o in correzioni di sterzata automatiche non indispensabili. Ma non può non menzionare un filmato condiviso su un gruppo social di utenti italiani Tesla agli inizi del 2021, in cui in una strada di campagna non illuminata, d’improvviso di vede un giovane a torso nudo sbucare da un cespuglio, ripreso dalla telecamera anteriore dalla Tesla. Senza la sterzata automatica quel giovane avrebbe potuto subire conseguenze gravi, se non letali. Talvolta anche i computer sanno convivere con stranezze umane, e non ci sono motivi per dubitare che possano farlo sempre meglio.

La critica più feroce è contro l’IA attuale: il deep learning

Dopo il capitolo dei critici che considerano l’IA di per sé ben poco intelligente, si può individuare una categoria simile che opera però una distinzione ben precisa: non è l’IA in generale che non piace, ma quella particolare sua forma che sta avendo successo in questi ultimi
anni. Anche Broussard accenna a una distinzione, tra quella che chiama narrow AI, l’attuale, e una general AI, ma è poco precisa su questa distinzione, relegandola ad una transizione storica.

Per meglio comprendere i critici che, dall’interno dell’IA attaccano quella attuale, occorre preliminarmente considerare che l’IA comprende al suo interno una notevole pluralità di metodi e di fondamenti teorici, ma il suo attuale successo è interamente dovuto solo ad una di queste sue componenti: le reti neurali artificiali, nella loro forma evoluta nota come deep learning.

La critica razionalista. Intelligenza “vera” vs. Artifictional (finzione di intelligenza)

Mentre le reti neurali aderiscono ad una filosofia empirista, che vede l’intelligenza derivare dall’esperienza, il versante diametralmente opposto in IA è quello razionalista, che minimizza l’apporto dell’apprendimento, e considera fondamentale per l’intelligenza un impianto di regole di tipo logico.

I critici appartenenti a questa categoria addossano quindi tutti i mali possibili dell’IA al deep learning, sostenendo che un cambio di rotta, lasciando perdere le reti neurali e tornando a regole e logica, conduca all’IA che funziona e di cui ci si può fidare. È precisamente ciò che propone il libro “Rebooting AI: Building Artificial Intelligence We Can Trust” (2019) del campione storico del razionalismo, Gary Marcus, già negli anni ’80 fiero avversario delle prime reti neurali artificiali, quelle non “deep”. Si tratta al momento del testo più autorevole e radicalmente impegnato nella critica al deep learning, ma non ne mancano altri. In “Artifictional intelligence: against humanity’s surrender to computers” (2018), Harry Collins definisce il deep learning in senso dispregiativo artifictional , appunto perché secondo lui non è che una finzione di intelligenza, quella vera dovrebbe essere ben altro, e su basi razionaliste, ma a differenza di Marcus dubita che possa mai esistere. Anche Hector Levesque nel suo “Common Sense, the Turing Test, and the Quest for Real AI” (2017) perora una “vera” IA, non quella del deep learning e la sfida si
giocherebbe, un po’ come per Larson, nell’arena del linguaggio naturale.

Il pessimismo che deriva dall’impatto dell’intelligenza artificiale sul mondo del lavoro

Una diversa categoria di libri critici non entra in merito alla validità e al successo dell’IA nell’approssimare forme di intelligenza umana, prende invece di mira il suo impatto sul mondo
del lavoro
. Si è detto all’inizio come questa sia la preoccupazione su cui fanno facilmente leva anche gli attacchi di stampo neo-luddista, ma è anche un fenomeno che, comprensibilmente, ha
suscitato serie attenzioni da parte di economisti e sociologi. Spesso più che attacchi diretti contro l’IA, vi sono analisi più sfumate delle criticità conseguenti alla sua adozione su vasta scala, e anche ricette su come transitare nel migliore dei modi ad una concezione futura diversa di lavoro.

Sono di questo tono, per esempio, testi come il “The Technology Trap: Capital, Labor, and Power in the Age of Automation” (2019) di Carl Benedikt Frey, direttore del progetto Future of Work e uno dei più attenti ed autorevoli analisti del settore. Nel “Surviving the Machine Age – Intelligent Technology and the Transformation of Human Work” (2017), curato da Kevin LaGrandeur e James Hughes sono accolti sia contributi decisamente pessimisti e critici, che altri più sfumati e
propositivi, come quello si Scott Santens che perora l’adozione del reddito di base universale come assetto ottimale di un mondo futuro in cui il lavoro automatizzato sia prevalente.

Nettamente più critico è “Augmented Exploitation – Artificial Intelligence, Automation And Work” (2021) di Phoebe Moore and Jamie Woodcock. Non ci si sofferma qui su questa categoria, alcuni aspetti sono stato trattati più ampiamente in articoli già pubblicati [“Reddito di cittadinanza, perché ha senso (secondo le neuroscienze)” e “Intelligenza Artificiale e lavoro: così nasce il ‘cyber-proletariato’”].

Nemmeno si entrerà nel merito della vasta, fin troppo vasta, categoria di critiche riguardanti aspetti etici e morali dell’IA, certi specifici aspetti sono stati approfonditi nell’articolo “Intelligenza artificiale e i volti del razzismo: così la tecnologia eredita i nostri difetti“.

Un atlante fuori catalogo

Sia l’impatto dell’IA sul lavoro che le sue ricadute etiche e morali trovano spazio in “Atlas of AI” (2021) di Kate Crawford, ma questo è un libro davvero singolare, troppo singolare per essere
collocato in una categoria. Volendo rendere giustizia all’autrice si potrebbe aderire al suo titolo e quindi classificarlo come “atlante”, ed effettivamente il libro è organizzato come un assieme di luoghi diversi, a scale variabili, entro cui esplorare le sfaccettature dell’IA. Spesso i luoghi sono anche luoghi del mondo, come Clayton Valley in Nevada, dove si trova una enorme miniera di litio, o Baotou in Mongolia, dove si è formato un esteso lago nero dall’accumulo di scorie dovute all’estrazione di altri minerali usati nella costruzione di componenti digitali.

Per Crawford l’IA è anzitutto un’impresa “estrattiva”, per il suo dipendere strettamente dalla disponibilità di minerali
quali litio, neodimio, disprosio, terbio. La rigorosa documentazione offerta da Crawford sugli effetti ambientali e sullo sfruttamento umano connessi a queste esigenze estrattive rivela un lato
poco noto e inquietante. In diversi altri luoghi che compongono l’atlante si possono fare scoperte nuove anche per chi, come chi scrive, riterrebbe di avere una visione piuttosto completa dell’IA. Soffermandosi fugacemente giusto in un paio di punti dell’atlante, si apprende come il passaggio dalle miniere ai luoghi di produzione coinvolga un ulteriore imponente livello,
costituito da navi cargo, di cui un migliaio all’anno naufragano portando sul fondo del mare il loro carico altamente inquinante, e contribuiscono per il 3% all’emissione globale di anidride
carbonica
. Viene narrato il proliferare della cosiddetta fake AI, ovvero l’offerta di risponditori automatici e assistenti personali, che in realtà non sono affatto automatici, ma gestiti da migliaia di lavoratori invisibili sottopagati. Non è una novità, l’intera seconda parte del libro di Moore e Woodcock citato sopra è dedicato a questo, ma Crawford lo sintetizza in modo efficace e
puntuale. L’atlante include pure una deviazione in Nuova Guinea, luogo dove lo psicologo americano Paul Ekman aveva messo a punto sperimentalmente la sua celebre – quanto controversa – teoria sulle espressioni emotive umane. Volendo dar credito alla teoria di Ekman,
le espressioni che denotano genuine emozioni sono universali, condivise da ogni popolazione sulla terra. È questa la pericolosa assunzione che sta alla base dei sempre più pervasivi sistemi di riconoscimento visivo di emozioni collegati ad impianti di videosorveglianza.

Conclusioni

Viene infine da chiedersi come emerga l’IA da questo tiro a segno incrociato. Non troppo male dalle prime due categorie qui prese in esame, per la loro proprietà di elidersi a vicenda. Se hanno
ragione quelli che, dando credito ai futuristi, lanciando allarmi per l’incombente minaccia della superintelligenza, allora quelli della categoria opposta, che tacciano l’IA di stupidità sono in errore. Viceversa, se l’IA è una grande montatura dietro cui non c’è e non potrà esserci nulla di intelligente, allora quelle paventate minacce si sbriciolano nel nulla.

Se si volesse adottare il buon senso di porre l’IA in una via di mezzo tra le due posizioni estreme, allora sia gli allarmismi per ipotetiche dominazioni di entità superintelligenti, che le sue denigrazioni come
vacua sarebbero quantomeno drasticamente ridimensionate.

Merita un discorso a parte la categoria dei critici all’attuale IA connotata da una filosofia empiricista, questi vorrebbero sostituirla con una di tipo razionalista. Queste critiche hanno il merito di evidenziare punti deboli del deep learning, per esempio le difficoltà ad amalgamare le
conoscenze incorporata da modelli su domini diversi, a rappresentare relazioni logiche elementari, ad apprendere in modo incrementale nuove conoscenze.

Beninteso, non c’è nulla in questi libri che non sia già ben noto alla comunità scientifica del deep learning, impegnata attivamente nel cercare di porre rimedio a queste limitazioni, esporle in modo sistematicamente critico è comunque pregevole. Il punto realmente debole è la proposta di alternative, perché rimane puramente speculativa. Occorre ricordare che ad inizio secolo l’IA, quando la sua linea prevalente era razionalista, si trovava in una profonda crisi. Addirittura in diverse comunità di ricerca, come l’elaborazione delle immagini, la linguistica computazionale, l’esplorazione di dati
massivi, i ricercatori preferivano evitare di classificarsi come componenti dell’IA, in quanto denigrante. È stato il deep learning a ribaltare in un decennio la situazione, e ora le aziende
fanno a gara a vantare l’impiego di IA, anche giocando sporco come raccontato da Crawford.

L’approccio empiricista delle reti neurali ha progressivamente sostituito qualunque alternativa in quasi ogni possibile angolo applicativo dell’IA, semplicemente perché funziona incomparabilmente meglio. Pertanto riproporre approcci razionalisti perché costituirebbero la via verso una “vera” IA ha senso solamente nel momento in cui questa strada dimostrasse nei fatti una sua superiorità, almeno in qualche ambito, altrimenti rimane una sterile presa di posizione ideologica.

Il quadro articolato e inquietante messo in luce dall’atlante di Crawford è forse l’insieme di strali più acuminati contro l’IA, le cui implicazioni con potere economico, politica, mondo militare appaiono costitutive. Occorre dire che si ha spesso l’impressione che il mondo messo a nudo dall’atlante sia in realtà più ampio dell’IA, e riguardi il mondo dell’elettronica digitale (e persino
analogica) nel suo complesso. Risulta difficile isolare, per esempio, quanto sia l’effettivo contributo della sola componente di IA nello sforzo estrattivo dedicato alla costruzione di componenti elettronici o di batterie.

WHITEPAPER
Security as a service, scopri le soluzioni più innovative della sicurezza gestita
Intelligenza Artificiale
Sicurezza dei dati
@RIPRODUZIONE RISERVATA

Articolo 1 di 4