L‘intelligenza artificiale merita uno sguardo critico e distaccato, lontano dall’hype mediatico e dalle promesse mirabolanti dei CEO del settore tech. Mentre i media celebrano ogni nuovo annuncio come una rivoluzione epocale, i fatti raccontano una storia molto diversa fatta di investimenti senza ritorno, tecnologie inaffidabili e un marketing che nasconde una realtà ben più prosaica.
Indice degli argomenti
La prospettiva cosmica come antidoto al caos mediatico
Mi capita, purtroppo abbastanza spesso, di essere travolto da un senso di inutilità cosmica. Mi è successo anche oggi, leggendo le notizie da Gaza e da Los Angeles. In questi casi, apro Celestia, il simulatore astronomico, e mi metto in orbita intorno ad Eris, il pianeta nano due volte più lontano di Plutone, a circa quattordici miliardi di chilometri dal Sole. Da quella distanza, tendendo il braccio, l’orbita della Terra è più piccola della punta del mignolo. E me ne resto lì a godermi la prospettiva di dio.
Dopo una mezzoretta a fissare lo schermo, la rotazione di Eris sotto di me è appena percepibile, mentre lo stato del sistema solare, a questa scala, è assolutamente identico. E io mi sento molto meglio.
Non tanto perché da quattordici miliardi di chilometri le nostre piccole magagne terrestri sono insignificanti. Ma perché non ho alcuna voce in capitolo. E quindi per contrappasso mi ritrovo motivato a fare qualcosa dove, invece, ho voce in capitolo. Anche se, da quattordici miliardi di chilometri di distanza, la differenza non sarà percepibile. Ma per parafrasare il libro dell’Ecclesiaste, così è la vita.
Una delle soddisfazioni è quando suona il telefono, che ovviamente metto in silenzioso, cosi quando richiamo posso dire, “scusa, ero su un altro pianeta”
Va detto, alcune volte non basta nemmeno Eris, che è pur sempre in orbita attorno al Sole.
Allora mi metto a cavallo del Voyager I, attualmente a 25 miliardi di chilometri da noi, in allontanamento a 17 chilometri al secondo. Da quella distanza l’intero sistema solare è indistinguibile e se non sai qual è, non riesci nemmeno a distinguere il Sole dalle altre stelle. Mi bastano dieci minuti per riprendere a respirare meglio, il che è tutto dire, perché sul Voyager non c’è aria.
Quindi, motivato da questa gita siderale, oggi voglio guardare una prospettiva un po’ più ampia. Senza esagerare, ma quanto basta per rendere insignificanti gli ego che rendono tossica l’atmosfera quando si parla di tecnologia.
Il circo mediatico dell’intelligenza artificiale
È inevitabile parlare di AI, perché non si parla d’altro. Più i lanci stampa di OpenAI ripropongono le solite fesserie in un colore diverso per la nuova stagione, più tutti i media si spendono in esegesi che sarebbe meglio riservare ai manoscritti biblici.
E se non è l’annuncio di una nuova rivoluzione immaginaria è l’ultima uscita di Altman, Musk, o un CEO qualsiasi del settore, sempre oltre i limiti dell’assurdo, sempre capace di far perdere la pazienza a un santo.
E questo è il problema. L’industria del digitale ormai si distingue dallo show business solo perché lo show business produce risultati più affidabili. Se vai a vedere l’ultimo Mission: Impossible, non sarà Godard, ma almeno ti diverti. La stessa cosa non è garantita se abbocchi all’ultima idea meravigliosa dei signori del digitale.
A parte questa differenza, nel digitale conta solo far parlare di sé, non importa a quale riguardo, di continuo, in modo che l’idiozia che dici oggi copra quella detta ieri.
E tutto questo funziona. Perfino fare la figura dell’imbecille, senza peraltro precludersi la possibilità di esserlo davvero, porta l’acqua al tuo mulino. La sola cosa che conta è che si parli di te, sempre e comunque, in modo che qualsiasi cosa venga riferita a te, e che alla fine il dibattito sia solo attorno alla tua visione del futuro, e che tutti gli sforzi vengano sprecati nel confutare la tua ultima uscita scandalosa, fino a che non arriverà la prossima, ancora più assurda, ventiquattrore dopo.
Tutto questo è sfinente e, soprattutto, serve solo a riempire quelle raccolte di pettegolezzi che oggi passano per giornalismo.
Io invece voglio guardare da una distanza sufficiente a considerare queste sciocchezze come il nulla che valgono, cogliere la visione d’insieme e soprattutto occuparmi di altro fino a quando non succederà qualcosa di davvero rilevante.
I nove motivi per cui l’intelligenza artificiale è una bufala
Dalla mia distanza preferita, tutto questo teatrino dell’Intelligenza Artificiale sembra più che altro una gran bufala. Considerate questo: l’IA ci viene presentata da chi la propone come un’industria rivoluzionaria, foriera di cambiamenti epocali, capace di sostituire lavori a centinaia e lavoratori a milioni.
Ma questa è la proposizione di marketing. Tutto, e dico tutto, quello che sappiamo, in contrapposizione a quello di cui alcuni sono convinti, ci parla di una realtà diversa.
- La prima cosa che sappiamo è che “AI” non è una tecnologia omogenea, anche se alla fine è quasi tutto machine learning. Il machine learning a volte funziona, a volte funzionicchia, volte no.
Individuazione e tracciamento di bersagli in un sistema antimissile? Sistemi ABS? Regolazione intelligente? Funziona benissimo.
Guida automatica di automobili, riconoscimento facciale? Diciamo benino se in condizioni controllate, male in generale.
E i modelli linguistici? I modelli linguistici sono dimostrabilmente pessimi in qualunque caso d’uso; per costruzione non hanno alcun vincolo di realtà, e i tanto strombazzati Large Reasoning Models non ragionano affatto.
- La seconda cosa che sappiamo è che la cosiddetta “industria” dell’AI, numeri alla mano, è OpenAI e basta. Gli altri sfruttano l’onda, come Anthropic, o confondono le acque, come Google e Microsoft che includono a forza le AI nei propri prodotti per gonfiare i numeri.
- La terza cosa che sappiamo è che i modelli linguistici sono talmente rivoluzionari che a tre anni dal lancio nessuno sa cosa farci. Esiste un fiorente mercato di consigli elargiti sulla base di aneddoti, che per definizione non sono riproducibili: siccome i modelli linguistici funzionano in modo non deterministico, non c’è mai alcuna garanzia che a uguali input corrispondano uguali output. Detto in altre parole: qualsiasi “metodologia” vogliano vendervi, è una bufala.
Allucinazioni, fomo e perdite economiche dell’industria AI
- La quarta cosa che sappiamo è che chiamare “allucinazioni” certi output significa fare apologetica dei venditori di fumo: un modello linguistico produce tutto il proprio output nello stesso modo, senza alcun vincolo di realtà; è solo l’utente a poter dire, se è in grado di accorgersene, che un certo output non corrisponde alla realtà dei fatti.
- La quinta cosa che sappiamo è che fra i CEO il primo driver d’acquisto è la FOMO, il timore di essere visti come non sufficientemente all’avanguardia e di perdersi “qualcosa”, nella remota possibilità che qualcuna delle promesse dei venditori dovesse realizzarsi. Permettetemi di citare direttamente lo studio di IBM, perché poi sembra che uno le cose se le inventi:
Il 64% dei CEO intervistati riconosce che il rischio di rimanere indietro spinge a investire in alcune tecnologie prima di avere una chiara comprensione del valore che apportano all’organizzazione (IBM, CEO Study, “5 mindshifts to supercharge business growth”).
Quindi come ha detto Cory Doctorow, “l’AI non può fare il tuo lavoro, ma un commerciale può convincere il tuo capo a sostituirti con una AI che non sa fare il tuo lavoro.”
- La sesta cosa che sappiamo è che questa “industria rivoluzionaria” è incapace di produrre profitto. A oggi il solo attore degno di questo nome, OpenAI, la startup più finanziata della storia, è in perdita su ogni query, in qualsiasi fascia di servizio. E per ammissione dello stesso Altman, non sarà in grado di produrre profitti prima del 2029, e che per arrivare al 2029 serviranno almeno altri 40 miliardi di dollari dai finanziatori.
In altre parole, se state “investendo” in AI, non avete idea di quali saranno i vostri costi fra uno, due o tre anni. Bell’investimento davvero.
Danni ambientali ed epistemici dei modelli linguistici
- La settima cosa che sappiamo è che i modelli linguistici sono un disastro tanto dal punto di vista ambientale, quanto dal punto di vista epistemico:
- il loro addestramento richiede il furto su scala globale di tutti i dati disponibili su Internet;questo, a sua volta, porta aumenti vertiginosi di richieste ai server, funzionalmente equivalenti a attacchi DDOS;il loro uso continuato causa il declino delle capacità di analisi critica;
- e se tutto questo non bastasse, il loro funzionamento richiede quantità inimmaginabili di energia.
- L’ottava cosa è che i modelli linguistici hanno già fatto danni enormi nell’ambito delle professioni e soprattutto nell’ambito della didattica, e continueranno a farne fino a che non li fermiamo.
La realtà nascosta dietro gli annunci mirabolanti
- La nona cosa che sappiamo è che, mentre le startup si fanno grosse un giorno sì e l’altro pure con annunci mirabolanti sul futuro dell’intelligenza artificiale, aziende hanno fatto enormi investimenti sull’AI ma che devono rispondere agli investitori in profitti, e non in appetibilità, raccontano una storia molto meno meravigliosa:
- Apple Intelligence ancora non funziona, Apple ha enormi difficoltà ad aggiornare Siri perché è difficile avere risposte univoche da un motore stocastico come un modello linguistico;
- Alexa+, il GPT con l’Alexa intorno, lanciata a febbraio scorso ancora non si vede all’orizzonte, nonostante il CEO di Amazon abbia giurato agli investitori che ha oltre 100mila utenti.
L’intelligenza artificiale come cocaina digitale
Fin qui i fatti, quello che sappiamo. Questi fatti però non spiegano l’insistenza con cui persone altrimenti razionali e competenti continuano, contro ogni evidenza, a usare i modelli linguistici e perfino, in alcuni casi, a sostenerne l’utilità.
Ci viene in soccorso, come sempre, Douglas Adams, uno dei più geniali osservatori (e critici) delle tecnologie digitali. parlando dei prodotti dell’immaginaria Compagnia Cibernetica Sirio, Adams dice:
“È facile lasciarsi accecare dalla sensazione di soddisfazione che si prova nel riuscire a farli funzionare anche solo una volta, e non vedere la loro essenziale inutilità. In altre parole, i loro difetti di progettazione fondamentali sono completamente nascosti dai difetti di progettazione superficiali.”
— Douglas Adams, “Addio, e grazie per tutto il pesce”, cap. 35
È a questo passaggio che ho pensato quando ho letto un Substack di Sergio Visinoni intitolato “Is GenAI Digital Cocaine?“
E la risposta è sì, la cosiddetta “Intelligenza Artificiale Generativa” ha tutti i tratti della cocaina:
- ti fa credere in grado di fare cose che non sei in grado di fare;
- ti gratifica immediatamente con qualcosa che di volta in volta va più o meno bene, e
- ti porta a pensare che tutto verrà risolto col prossimo prompt.
Incidentalmente, questi sono anche i cardini dell’ingegneria comportamentale, quella che si occupa di creare prodotti in grado di creare dipendenza (chi è forte di stomaco può leggere “Hooked –How to Build Habit-Forming Products” di Nir Eyal, in italiano pietosamente rititolato come “Catturare i clienti”).
E OpenAI è nata dopo che il design di prodotti digitali aveva scoperto e apprezzato i principi dell’ingegneria comportamentale e il ruolo della dipendenza nel successo delle grandi piattaforme social.
Questo spiega l’insistenza degli zeloti e la loro resistenza a qualsiasi calcolo del rapporto costi/benefici.
La strategia per creare dipendenza dal mercato AI
Quindi la situazione è questa:
- investimenti di dimensioni senza precedenti;
- in prodotti di dannosità ambientale ed epistemica certe, di utilità quanto meno dubbia, in grado di generare dipendenza negli utenti;
- forzati in azienda per non far sembrare che il CEO sia “indietro” rispetto alla moda del momento.
In tutto questo, il CEO di Klarna, quello di Anthropic e quello Microsoft cantano concordi che l’AI spazzerà via talmente tanti colletti bianchi da causare addirittura una recessione.
Perché lo fanno? Per portare acqua al proprio mulino, come sempre. Se abbastanza amministratori crederanno a questa favola, le aziende si ritroveranno in tutto e per tutto dipendenti dai fornitori di AI generative, indipendentemente dalla bontà dei risultati. A quel punto i fornitori potranno fare i prezzi che vogliono a un mercato captive. Nel frattempo, chi si sarà visto rimpiazzare da una IA, dovrà trovare un qualche tipo di assistenza da parte dello Stato (non a caso tutti i CEO del digitale sono grandi fan del Reddito universale di base), salvo poi rientrare in azienda come “assistente umano” col compito di ritoccare i risultati dell’IA.
E di sicuro, se continuiamo a credere ai loro deliri mistici privi di qualunque base reale, di AI che fanno di tutto, rischiamo che vada così.
Come valutare realmente l’intelligenza artificiale in azienda
Oppure.
Oppure possiamo riconoscere che queste persone stanno soltanto cercando di difendere i loro enormi investimenti in una tecnologia che si sta rivelando sbagliata. E mentre da un lato cercano di contenere le perdite (Microsoft e Amazon hanno disdetto contratti per nuovi data center), dall’altro cercano di alzare la posta, perché se il loro bluff dovesse essere chiamato le loro teste di “innovatori visionari” salterebbero.
Non vi chiedo di credere al mio scetticismo. Semplicemente, non prendete come oro colato quello che vi dicono i venditori.
Fate i vostri conti. Quanto davvero vi fa “risparmiare” adottare la GenAI? Tenendo conto che ogni risultato lo dovete ricontrollare a mano, ovviamente.
Quanto know-how interno vi fa perdere trasformare i vostri lavoratori in scimmie? Quanto potranno aumentare i prezzi della IA prima che smetta di essere conveniente? Perché i prezzi aumenteranno, ci sono miliardi di dollari investiti che devono rientrare.
Soprattutto, quanto vi fa perdere in qualità, creatività e iniziativa chiedere ai dipendenti di usare contenuti di sintesi, uguali a quelli di qualsiasi altro?
E come cambia il vostro prodotto con la IA? Siete sicuri che gli utenti continueranno ad apprezzarlo?
Perché il CEO di Duolingo ha fatto il ganzo facendo fuori i creatori di contenuti e dichiarandosi “AI first”. Poi ha scoperto che agli utenti i contenuti prodotti a macchina non piacciono proprio, e sta tornando sui suoi passi a calci nel sedere.
Idem quello di Klarna, che ha rimpiazzato 700 dipendenti con l’AI, per poi accorgersi che il servizio clienti fatto da chatbot è di “qualità inferiore”
Voi siete sicuri che la vostra testa e la vostra azienda sopravviverebbero a un dietro-front del genere?
Io, personalmente, sono stanco di dover smontare ogni nuova frescaccia dei venditori di fumo come Altman, Musk, Nadella, Amodei e compagnia cantante.
Se vogliono che adotti la loro IA possono fare come si è sempre fatto: dimostrarmi che funziona. Davvero. Negli ultimi tre anni non ci sono nemmeno andati vicino. Ma con la prossima versione…