La dipendenza dall‘intelligenza artificiale rappresenta una nuova frontiera delle addiction contemporanee, sempre più diffusa tra adolescenti e adulti che ricorrono quotidianamente a strumenti come ChatGPT, Gemini o assistenti vocali.
Indice degli argomenti
Dall’internet addiction disorder alla dipendenza specifica da IA
Parlare di dipendenza dal web risulta ormai molto generico. Fu lo psichiatra statunitense Ivan Goldberg, nel 1995, a inventare l’allora inedita diagnosi di IAD (Internet Addiction Disorder), di Disturbo da Dipendenza da Internet. Dal momento che quasi tutti siamo in qualche modo sempre connessi ai dispositivi digitali, è bene perlomeno circoscrivere il tipo di dipendenza: ci riferiamo allo scrolling sui social network, alla reiterazione della pratica dei videogiochi, alla pornografia, all’accumulazione del sapere ipertestuale oppure alla dipendenza da dispositivi di IA come ChatGPT e Gemini o dai più obsoleti Siri e Alexa? In questo articolo ci focalizziamo su quest’ultimo tipo di dipendenza.
Adolescenti italiani e IA: dati allarmanti sul ricorso emotivo
Fra le giovani generazioni, affidarsi ai contenuti reperibili grazie all’Intelligenza Artificiale è divenuto estremamente comune. Giusto per attenerci a un concreto esempio, molto significativi in questo sono i dati riportati da Save The Children in un recente report: il 41% degli adolescenti italiani si è indirizzato alla IA in momenti di difficoltà caratterizzati da solitudine, ansia o depressione; il 42% l’ha consultata dinanzi a scelte delicate; il 92% la utilizza comunque stabilmente per varie esigenze.
Ne viene apprezzata la capacità di comprensione, l’assenza di un giudizio moralistico e soprattutto la disponibilità immediata; quest’ultima caratteristica presenta delle affinità con la ricerca di un oggetto sempre immediatamente fruibile per ogni necessità che contraddistingue chi presenta problemi di dipendenza. Si dimostra in grado di monitorare i battiti cardiaci, di contare i passi compiuti nelle camminate della giornata, di elencare le calorie bruciate, di annotare le ore di sonno, di rilevare i cicli mestruali, di dettagliare l’evoluzione di un’esperienza di dolore fisico. Non soltanto tra i giovani, diverse persone iniziano infatti a utilizzare ChatGPT nella versione gratuita e ne traggono un notevole beneficio ma, dinanzi al limite di 3 ore del piano Free, si sentono a disagio, in ansia, inquiete.
Non riescono ad attendere allo stesso modo dell’alcolista che stenta a differire il ricorso a un’ulteriore bevanda alcolica. Come il giocatore online passa da una frequentazione di uno specifico videogioco in forma gratuita all’acquisto di skills sempre più dispendiosi, così chi dipende da ChatGPT si trova costretto a dotarsi di ChatGPT Plus con un certo dispendio economico.
L’intelligenza artificiale non è intelligente: la prospettiva di Floridi
Non tutti coloro che ne scrivono sono effettivamente esperti di Intelligenza Artificiale. Si tratta di un campo ovviamente molto in voga, relativo anzitutto alla storia della competizione fra Sam Altman della statunitense OpenAI e Demis Hassabis dell’inglese DeepMind, sul quale si lanciano diversi intellettuali un po’ come si sale sul carro dei vincitori.
Luciano Floridi è un filosofo che se ne occupa da anni. Egli sottolinea che le macchine non sono intelligenti, che non esiste una vera e propria intelligenza artificiale. L’intelligenza rimane qualcosa di squisitamente umano che viene riprodotto a un grado diverso dalla cosiddetta intelligenza artificiale. Vi è una differenza fondamentale fra l’intelligenza umana e la presunta intelligenza dei dispositivi di IA. Del resto, non si rintraccia una teoria che tenga insieme i dati nella IA; essa si caratterizza per innumerevoli dati senza teoria, senza la sistematizzazione e neppure l’organizzazione offerta da un’elaborazione teorica.
La AI generativa è una sorta di scatola nera, nella quale i tecnici non sanno bene cosa costruiscono. Si tratta piuttosto di una agency. L’ente umano e l’ente macchina sono enti alla pari, entrambi agenti. Agency è infatti uno di quei termini che perdono il loro valore al di fuori della lingua inglese; viene tradotto con una sorta di neologismo: agentività. Per esempio, molti anni or sono, un computer batté Kasparov in una partita a scacchi ma se vi fosse stato un incendio nel corso della partita, Kasparov si sarebbe allertato e fuggendo si sarebbe salvato mentre il computer avrebbe continuato a giocare fino a bruciare e a distruggersi. Un robot è una forma di intelligenza artificiale che presenta un simulacro del corpo ovvero non è una fotocopia del corpo ma una rappresentazione del corpo del tutto sganciata da ciò che è veramente un corpo umano. Troviamo dell’astrazione scientifica nella IA completamente a scapito dell’esperienza di un’esistenza effettivamente vissuta.
Limiti e rischi degli assistenti virtuali: yes-men digitali
I dispositivi di LLM (Large Language Models), sempre più simili al linguaggio umano, attraverso il riconoscimento di pattern complessi, risultano di grande aiuto nella telemedicina e talvolta anche nella telepsicologia. Tuttavia ChatGPT e Gemini, così come i più datati Alexa di Amazon, Siri di Apple e Assistente Vocale Google funzionano come degli yes-men: rafforzano l’immagine ideale che noi vorremmo avere di noi stessi. Si fondano sulla predizione, non sempre corrispondente all’esattezza. Per quanto i trasformatori specifici della IA generativa siano tecnologicamente avanzati, capita che non siano in grado di rispondere oppure che riportino informazioni completamente sbagliate.
Le macchine accentuano i nostri tratti di onniscienza e onnipotenza. Non faranno mai degli interventi graffianti, appuntiti, provocatori, volti a suscitare una reazione nel soggetto come quelli che un clinico dovrebbe autorizzarsi a compiere. L’analista non può e non deve sempre essere accondiscendente. Questi strumenti imperniati sulla AI non saranno mai un aiuto contro di noi, come Jacques Lacan sosteneva fosse la posizione dell’analista.
L’analista spesso agisce contro l’io conscio del paziente che, gonfio di autostima, costituisce la principale fonte della sua sofferenza nella vita. La psicoanalisi si fonda invece su un punto di non sapere dell’analista che lascia spazio a un sapere inconscio del soggetto, alla portata di qualunque soggetto sia impegnato nell’esperienza analitica.
I due segnali critici della dipendenza da intelligenza artificiale
Quando il ricorso alle apparecchiature digitali di Intelligenza Artificiale diventa un problema? Quando diventa un sintomo o addirittura una dipendenza? Individuiamo due punti critici: il primo è lo smarrimento della capacità di compiere un ragionamento proprio in questo cieco affidarsi alla IA; il secondo sta nel preferire la relazione immaginaria con i dispositivi di IA a quella con le persone umane.
Certamente il fatto di giungere a un’abbagliata fiducia nell’Intelligenza Artificiale, tanto da non accorgersi delle fake news e delle allucinazioni ovvero delle informazioni inventate di sana pianta che vi circolano, costituisce un problema rilevante. Fa dissolvere la capacità di ragionare con la propria testa in una sorta di alienazione nel presunto sapere erroneamente attribuito alla macchina; sgretola lo spirito critico, incrina le risorse di riflessione soggettiva. Non è un buon segno quando, anziché appoggiarsi agli strumenti digitali per avere un quadro d’insieme di un libro e poi eventualmente leggerlo, ci si rivolge alla IA per farsi scrivere in un riassunto credendo di averlo così acquisito. Non è per nulla una buona cosa quando, anziché redigere un proprio contributo, lo si copia alla lettera da ChatGPT. Ce ne accorgiamo dinanzi ad alcune tesi di laurea.
Quando l’oggetto digitale rende schiavi: meccanismi della dipendenza
Tuttavia, giungere a considerare il credito attribuito alla IA come incontrovertibile sintomo di un’effettiva dipendenza soltanto per questo motivo non sarebbe affatto preciso. Per dipendenza dalla IA evidentemente non ci riferiamo a una forma di tossicodipendenza in quanto non vi è in gioco l’effetto inebriante indotto da sostanze stupefacenti come l’eroina e la cocaina e neppure quello determinato dagli alcolici. L’accostamento appropriato è semmai quello con dipendenze senza sostanza fra cui quella dal gioco d’azzardo, più diffusa fra gli uomini, e quella dallo shopping compulsivo, comune fra le ragazze.
Lo notiamo nella nostra pratica clinica quando incontriamo adolescenti che si invaghiscono di “fidanzate virtuali”, create dalla IA, delle quali ammirano le fattezze nelle immagini e nei video. Chi dipende da un oggetto che non consiste in una sostanza stupefacente non presenta il corteo parossistico di sintomi specifici dell’eroinomane in crisi d’astinenza ma manifesta comunque ansia, nervosismo, inquietudine in assenza dell’oggetto per lui indispensabile.
Quando constatiamo una dipendenza, il soggetto diventa schiavo dell’oggetto: l’ombra dell’oggetto cade sul soggetto – così diceva Freud. Si crede di utilizzare gli strumenti digitali come beni di consumo ma i consumatori diventano ben presto consumati dagli oggetti. Si crede di servirsi della IA da una posizione di padronanza, da una posizione di potere ma vi è il rischio di venirne soggiogati. Infatti il termine inglese addiction, molto in voga a proposito delle moderne dipendenze, deriva dalla parola latina addictus; nel diritto romano, addictus indicava un uomo libero divenuto schiavo per non aver saldato dei propri debiti a un creditore: si trovava dunque in un ruolo soggiogato nei confronti del creditore.
Cina e Illinois: nuove normative contro l’abuso terapeutico della IA
Rivolgersi alla IA per la propria sofferenza psichica avviene spesso con caratteristiche analoghe a quella della psicologia o pseudopsicologia propalata sui social: brevi risposte con tre consigli, cinque consigli per credere di stare bene, di vivere con piacere.
Purtroppo, non sempre chi propone queste rapide ricette ha una preparazione teorica adeguata e un’esperienza clinica. Si tratta sovente della riproposizione di concetti tratti dal senso comune, senza alcuna considerazione della singolarità soggettiva che potrebbe ottenere dei giovamenti da tali indicazioni ma potrebbe anche, invece, subire un aggravamento. ChatGPT si concentra sull’incrocio dei dati clinici rimanendo del tutto priva di quel fattore umano che chiamiamo desiderio situato al cuore di qualsiasi trattamento dei pazienti.
A questo proposito, la Cyberspace Administration of China ha recentemente stabilito che non sarà più possibile fare divulgazione sui loro social Douyin (il TikTok orientale), Bilibili e Weibo a proposito di argomenti come quelli relativi alla salute, al diritto, alla pedagogia e alla finanza per persone prive di titoli di studio affini agli argomenti trattati. I social dovranno garantire che i contenuti dei loro creator digitali abbiano dei precisi riferimenti accademici.
Chi diffonde notizie su questi argomenti che toccano la vita intima delle persone dovrà dimostrare di possedere una laurea o credenziali riconosciute in quel settore; dovrà riferire di aver generato del materiale attraverso reti di IA. L’obiettivo è quello di sgombrare il campo da informazioni ingannevoli soprattutto in ambiti delicati come quello della salute personale.
Questa normativa viene da più parti criticata in quanto espressione di un regime totalitario e liberticida quale sarebbe quello diretto dal Partito Comunista Cinese. Limitare la possibilità di espressione su questi argomenti sarebbe un modo per impedire la circolazione di idee diverse da quelle gradite da chi detiene il potere nella Repubblica Popolare Cinese. Tuttavia, persino in Illinois, nel cuore di un sistema socio-economico sicuramente tutt’altro che marxista, il Governatore Jay Robert Pritzker del Partito Democratico ha deciso ad agosto 2025 di limitare il ricorso ai dispositivi di Intelligenza Artificiale a scopi psicoterapeutici.
L’intenzione è quella di proteggere i pazienti, con particolare riferimento a quelli in età evolutiva, da informazioni non qualificate e fuorvianti fino agli esempi estremi di giovani che si sono suicidati dopo aver interagito con ChatGPT e di chatbot che avrebbero consigliato di assumere metanfetamine per affrontare una settimana molto stressante. La normativa ora in vigore in Illinois ha anche l’obiettivo di salvaguardare la professionalità qualificata degli operatori della salute mentale.
La stessa Unione Europea, con il Digital Services Act, si orienta verso la trasparenza: le piattaforme dovrebbero segnalare pubblicità, verificare la provenienza dei contenuti e rimuovere fake news dannose.
Si aprono degli interrogativi sui modi per trovare un giusto equilibrio fra il diritto di parola e una valida qualità dell’informazione nel nostro mondo tecnologicamente avanzato nel quale la comunicazione fluisce in modo rizomatico, senza un vertice preciso ma anche senza una radice. Si è passati dalla comunicazione da uno a molti a forme di comunicazione diffuse in cui molte persone comunicano con molte altre persone in un clima tendenzialmente paritario.
Strategie di prevenzione: autonomia critica e passioni reali
I dispositivi di IA non sono dunque nocivi in quanto tali. Si tratta però di strumenti scivolosi, sdrucciolevoli che possono far prendere una deriva verso l’addiction. Avendo individuato due segnali della dipendenza della IA, cogliamo facilmente come sottrarsi a tale eventualità.
Per prima cosa, risulta fondamentale conservare un’autonomia intellettuale mettendo in dubbio con sano spirito critico le affermazioni dei dispositivi di IA; in effetti, lo stesso Sam Altman, parlando in un’università indiana, disse scherzando un paio d’anni or sono di essere la persona sul pianeta Terra che meno si fida di ChatGPT. Come secondo e fondamentale punto, diventa cruciale trovare delle altre passioni e degli oggetti di desiderio sui quali investire affettivamente anziché smarrirsi nelle relazioni immaginarie con questi strumenti.













