lo studio pilota

Due ore al giorno di GenAI: benefici immediati, possibili effetti collaterali



Indirizzo copiato

L’uso intensivo di AI generativa sta riscrivendo, in pochi anni, abitudini di lavoro e vita quotidiana. La letteratura scientifica comincia a delineare effetti diretti e indiretti su atteggiamenti, metacognizione, creatività e relazioni sociali: un cambiamento rapido, pervasivo e spesso poco consapevole per chi lo vive

Pubblicato il 22 gen 2026

Andrea Laudadio

Head of TIM Academy & Development



intelligenza artificiale personalità Intelligenza aumentata ai super-user

In tre anni, l’adozione dell’AI Generativa ha mutato in modo sostanziale le abitudini di milioni di persone, nel proprio modo di vivere e lavorare. Pur nella rapidità di questo cambiamento, emerge – dalla letteratura scientifica – un corpus di ricerche che indaga effetti diretti e indiretti di questa rivoluzione culturale sulle dimensioni psicologiche e comportamentali derivanti dall’uso dell’AI Generativa.

Per avere una idea della pervasività dell’AI, basta prendere in considerazione la sua capacità di influenzare idee e comportamenti dei suoi utilizzatori. Secondo Williams-Ceci et al. (2025), l’AI ha una forte capacità persuasiva, spesso senza consapevolezza dell’utilizzatore. L’AI esprime capacità persuasive robuste.

Bai et al. (2025), con 4.829 partecipanti, hanno dimostrato che i messaggi LLM producono cambiamenti di atteggiamento comparabili ai messaggi umani. Forse, in modo addirittura più robusto, per esempio in relazione ai bias (Glickman e Sharot, 2024) dove sembrerebbe che l’AI sia purtroppo e decisamente più performante dell’interazione umano-umano. Anche nella sua direzione opposta, ad esempio, secondo Costello et al. (2024), ChatGPT è capace di ridurre le credenze e le convinzioni “cospirazioniste” del 20%.

Perché l’uso intensivo di AI generativa può orientare idee e scelte

Similmente, oltre a mutare alcuni atteggiamenti opinioni ed emozioni (Fang et al. 2025), l’AI sembra essere capace di “indurire” o, forse, radicalizzare le nostre opinioni, creando delle echo chambers cognitive (Kim, 2025; Qiu et al., 2025).

In altre parole, inconsapevolmente, attraverso l’iterazione con l’AI modifichiamo i nostri atteggiamenti, non solo sul mondo esterno ma anche rispetto alla nostra self-perception (Williams-Ceci et al., 2025).

Efficienza, merito e valori dello sforzo nell’uso intensivo di AI generativa

Ad esempio, Kościelniak e Bielecki (2024) mappano tensioni tra efficienza e valori di sforzo nell’higher education. Se l’AI rende i compiti senza sforzo, lo sforzo perde valore? Come attribuire merito quando il lavoro AI-assisted è indistinguibile?

Non sono domande retoriche, ma aspetti che impattano pesantemente con il nostro concetto di mondo e con il concetto che noi abbiamo di noi stessi in relazione al nostro mondo.

Quando l’uso intensivo di AI generativa sostituisce memoria, attenzione e critica

Le revisioni sistematiche più recenti indicano che l’uso sostitutivo e non complementare delle AI dialogiche è associato a una riduzione di processi metacognitivi e capacità critiche. La systematic review di Zhai et al. (2024) sintetizza evidenze sull’over-reliance su AI dialogiche e impatti su decision-making, critical thinking e reasoning, con indicazione di rischi di metacognitive laziness. Poiché gli individui preferiscono sempre più soluzioni rapide (anche se basate su scorciatoie) rispetto a quelle lente, anche in presenza di problematiche etiche presentate dalle tecnologie AI.

In letteratura, il fenomeno più documentato riguarda il cognitive offloading, ossia l’esternalizzazione di funzioni cognitive ai sistemi di IA. Georgiou (2025) ha dimostrato che studenti che utilizzano ChatGPT per scrittura argomentativa mostrano punteggi significativamente più bassi nella Cognitive Engagement Scale for AI (CES-AI). Rohilla (2025), con 300 studenti, ha rilevato che alta dipendenza dall’AI correla con punteggi di pensiero critico inferiori di 22 punti percentuali e ritenzione mnemonica ridotta del 17,3%, con effetti più marcati nelle discipline umanistiche.

Nei knowledge workers l’impatto dell’AI sulla qualità cognitiva varia con lo stile d’uso, e l’offloading è più probabile nei task ripetitivi (Lee et al., 2025).

Memoria “esternalizzata” e rischio di atrofia distribuita

L’offloading cognitivo impatta profondamente i sistemi di memoria. Jadhav (2025) propone il modello di distributed atrophy: l’esternalizzazione delle rappresentazioni mentali riduce opportunità di consolidamento. Abbas et al. (2024) hanno documentato che l’uso di ChatGPT predice aumento di perdita di memoria mediato da procrastinazione. Sembrerebbe che l’AI tenda a diventare un repository esterno sempre disponibile con un effetto destabilizzate per il consolidamento interno della conoscenza.

Il cognitive offloading riduce opportunità di consolidamento e monitoraggio metacognitivo, con conseguenze significative per memoria, pensiero critico e creatività (Jadhav, 2025; Georgiou, 2025; Rohilla, 2025).

Creatività, soddisfazione e illusione di competenza

Gli effetti sulla creatività presentano un pattern complesso. Zhu e Zou (2024) osservano che ChatGPT riduce la performance creativa oggettiva quando il potenziale è superiore alla mediana, ma che paradossalmente riportano maggiore soddisfazione. Matueny e Nyamai (2025) definiscono questo fenomeno “illusione di competenza”: inflazione della percezione mentre le proprie capacità diminuiscono. Lin e Tan (2025), in una revisione sistematica di studi con K-12, evidenziano riduzione dell’originalità quando l’AI genera idee invece di valutarle. In questo quadro, il ruolo dell’AI (supporto vs. direzione) emerge come moderatore critico.

Oltre agli effetti sulla creatività, l’AI cambia radicalmente i comportamenti di scrittura e lettura. Crawford et al. (2024) riportano che l’uso dell’AI ha portato il 25% degli studenti a sostituire la lettura con l’utilizzo dei riassunti.

Dati neurofisiologici preliminari indicano un minore ingaggio delle reti esecutive durante compiti complessi svolti con LLM rispetto a condizioni di controllo. Una conferma neuroscientifica arriva dal MIT Media Lab: Kosmyna et al. (2025), monitorando l’attività cerebrale tramite EEG, hanno dimostrato che l’uso di ChatGPT riduce significativamente l’attivazione delle reti neurali legate al pensiero critico e alla memoria di lavoro, generando quello che definiscono “debito cognitivo: un risparmio di fatica immediato che si paga con un depotenziamento dell’attività neurale.

In generale, sembrerebbe che l’uso della GenAI possa produrre una perdita di mental proof (Wojtowicz e DeDeo, 2024). Perché quando le azioni sono attribuibili ad algoritmi, si perde la certificazione epistemica fornita dai segnali comportamentali, con un effetto sulla fiducia e sulle norme sociali. Questo spiegherebbe perché delegare compiti e decisioni all’AI riduca fairness, fiducia e cooperazione in giochi economici (Dvorak et al., 2024).

Purtroppo, questa perdita prestazionale non viene ancora compresa dagli utenti. Zhu e Zou (2024) documentano aumenti di auto-efficacia nonostante riduzioni di performance. In altre parole, penso di essere più bravo e di acquisire competenze anche se in realtà le sto perdendo.

Sul piano epistemologico, l’illusione di competenza (Matueny & Nyamai, 2025) — auto-efficacia aumenta mentre capacità diminuiscono — sfida apertamente e mette in crisi l’autoconsapevolezza metacognitiva.

Inoltre, secondo Abbas et al. (2024), l’uso di ChatGPT predice un aumento della procrastinazione, mediato da carico di lavoro e sensibilità alle ricompense. Goh et al. (2025) lo confermano: l’uso AI potrebbe promuovere l’evitamento. Forse perché, come sostiene Rohilla (2025), l’AI genera una sorta di “dipendenza da soluzione“: rivolgersi immediato all’AI invece di tentare di risolvere i problemi in modo autonomo e indipendente.

Relazioni e fiducia: come l’uso intensivo di AI generativa sposta la socialità

L’implicazione della fiducia tra le dimensioni implicate dall’uso dell’AI amplia il focus dalle dimensioni individuali a quelle sociali. Infatti, secondo Zhang et al. (2024) la relazione con l’AI può influenzare la cooperazione prosociale degli utilizzatori. Le dimensioni della relazione e della fiducia, da sempre associate al rapporto uomo-uomo, oggi sono messe in discussione.

Han (2025), utilizzando dati di una survey nazionale in Cina, ha documentato che l’adozione di AI riduce in modo causale le spese sociali tradizionali (come i regali di denaro, un comportamento di legame sociale cruciale nella cultura cinese), con effetti più forti tra i giovani, i più istruiti e i più ricchi.

Sembrerebbe che la GenAI non stia solo cambiando i comportamenti sociali, sta svolgendo – in modo sempre più palese – una azione “sostitutiva” nei confronti dell’interazione umana. Secondo Hirabayashi et al. (2024), il 25% degli studenti sta sostituendo office hours con consulti AI, anche quella specialistica (o soprattutto quella specialistica). L’help-seeking si sposta da fonti umane a fonti AI. Luo et al. (2025) riportano che utenti globali cercano supporto da ChatGPT, in particolare nelle situazioni di crisi, configurando forti rischi per la sicurezza (Head, 2025). Ad esempio, Castiello e Costa (2025) ritengono possible che si sviluppino trigger di sintomi simil-psicotici in individui vulnerabili.

In una direzione opposta va lo studio di Almoqbel (2024), che ha trovato che l’espressione emotiva frequente verso la GenAI è correlata con maggiore auto-efficacia emotiva digitale, ma non con minore connessione sociale percepita. Questo potrebbe suggerire che l’AI possa supportare percezioni di competenza in domini specifici senza necessariamente ridurre la connessione sociale nel breve termine. Ovviamente, parliamo di autoefficacia e non possiamo escludere che la percezione sia distante dalla reale qualità dell’interazione sociale.

Dalla sostituzione del supporto umano all’aumento di solitudine

L’effetto di sostituzione sociale trova una conferma robusta. Crawford et al. (2024) hanno dimostrato che uso dell’AI per il supporto accademico opera attraverso variabili sociali: uso AI → supporto percepito dall’AI → riduzione supporto umano → minore appartenenza → maggiore solitudine → minore performance.

Le migliori evidenze longitudinali disponibili legano l’uso quotidiano intenso, specie su contenuti personali, a un aumento di solitudine percepita e dipendenza emotiva dall’AI (Fang, et al., 2025). Gli studi sembrano convergere verso una condizione “dominio-dipendente”. Thorp et al. (2025) hanno dimostrato che la conformità e la fiducia verso agenti AI varia per tipo di compito: maggiore per oggettivi (conteggio, conoscenza), minore per soggettivi (estetica, moralità). Secondo Jiang et al. (2025), la disclosure dell’identità AI del supporto, facilita nelle fasi iniziali l’apprendimento: bot affidabili superano umani inaffidabili. Secondo Skjuve, Følstad e Brandtzæg (2023) sarebbe proprio la self-disclosure dell’AI ad accelerare la percezione di vicinanza (Kleinert et al., 2025).

Questa percezione di fiducia e vicinanza, da sempre riservato all’interazione umana crea una nuova condizione, per alcuni versi paradossale: l’utilizzo della macchina come sostituto della vita sociale. In molti casi come strumento di riduzione della sensazione di solitudine.

L’uso di chatbot AI sulla solitudine mostra un effetto bifasico. A breve termine, Kim et al. (2025) osservano riduzioni significative di solitudine. De Freitas et al. (2025) dimostrano, in qualche modo, che le companion AI riducono la solitudine in modo comparabile a quanto possa fare l’interazione umana. Ma a lungo termine il quadro si inverte. Folk e Dunn (2025) documentano che uso di chatbot predice aumento di solitudine dopo quattro mesi. L’analisi cross-lagged conferma questa relazione bidirezionale: persone sole si rivolgono alle chatbots e l’uso incrementa la solitudine (percepita e reale). In aggiunta, Papagianni e Spatoula (2025), con partecipanti Gen Z, hanno registrato che le motivazioni emotive sono in grado di predire punteggi più elevati di solitudine.

La sostituzione sociale opera quando AI soddisfa bisogni immediati ma riduce motivazione di interazione umana, erodendo di fatto il capitale sociale degli individui (Crawford et al., 2024; Han, 2025).

Dipendenza e benessere: misurare l’uso intensivo di AI generativa

La dipendenza da AI emerge dalla letteratura come un costrutto misurabile. Oltre alla Generative AI Dependency Scale di Goh et al. (2025), altri strumenti sono stati sviluppati e validati. Yankouskaya et al. (2025) hanno proposto la LLM Dependency Scale (LLM-D12), Zhang et al. (2024) hanno validato l’AI Chatbot Dependence Scale 54, Yu, Chene Yang (2024) la Problematic ChatGPT Use Scale e Alshakhsi (2025) ha adattato strumenti per popolazioni arabofone. Non si registrano strumenti validati in lingua italiana.

Alcuni studi hanno riscontrato che livelli elevati di dipendenza sono correlati a maggiore procrastinazione, fallimenti cognitivi, performance ridotta e minore chiarezza del concetto di sé (Goh et al., 2025).

Le dimensioni ricorrenti includono preoccupazione cognitiva (pensieri intrusivi sull’IA), conseguenze negative (interferenza con responsabilità e relazioni) e sintomi di astinenza (distress quando l’AI non è disponibile). Duong et al. (2024), con un robusto campione di studenti universitari vietnamiti, hanno evidenziato che l’uso compulsivo di ChatGPT è correlato positivamente con solitudine, evitamento sociale e distress psicologico, con il distress che media riduzioni nella soddisfazione di vita e performance accademica.

Goh et al. (2025) evidenziano che la dipendenza da AI è associata con una ridotta chiarezza del concetto di sé. Saracini et al. (2025) propongono la “proiezione tecno-emotiva”: utenti vulnerabili proiettano bisogni sull’IA, con rischi di attaccamento sintetico e artificiale.

Thorp et al. (2025) confermano che dominio compito determina conformità. Le fragilità individuali amplificano i rischi. Adolescenti (Namvarpour et al., 2025), individui con condizioni particolari di salute mentale (Head, 2025) e persone sole (Crawford et al., 2024; Folk & Dunn, 2025) mostrano suscettibilità maggiore.

L’uso problematico di ChatGPT si associa con maggiore disagio psicologico (Maral et al. 2025). Più in generale, sul wellbeing gli effetti sono eterogenei. Zhang et al. (2025), con 1.146 adulti, trovano che la dipendenza correla con depressione e ansia, ma sembrerebbe che lo scopo d’uso funga da moderatore. Un uso primariamente informativo è associato con un wellbeing più elevato rispetto a chi ha uno scopo più emotivo-sostitutivo. Klimova e Pikhart (2025) notano potenziali riduzioni di stress attraverso supporto nei compiti, ma anche rischi di eccessiva dipendenza che riduce auto-efficacia in alcuni contesti

Obiettivi e disegno: uno studio esplorativo sull’uso intensivo di AI generativa

L’analisi della letteratura evidenzia una preoccupazione crescente rispetto agli effetti che l’uso crescente della GenAI possa avere. Pur nell’ampiezza degli studi molti aspetti sono ancora lontani dall’essere dimostrati empiricamente e su popolazioni che non siano quelle di studenti. Quasi tutti gli autori convergono nella necessità di ulteriori studi che siano in grado di comprendere – nella rapidità di sviluppo e diffusione del fenomeno – ulteriori elementi che sono implicati in questa trasformazione non solo tecnologica ma soprattutto individuale e sociale.

L’obiettivo dello studio è di generare, tramite una doppia metodologia qualitativa, un elenco di possibili ambiti di interesse all’interno dei quali ricercare variazioni comportamentali e sociali derivanti dall’uso della GenAI.

Metodo: due fasi per osservare comportamenti e vissuti

Lo studio è stato articolato in due fasi sequenziali: una quali-quantitativa e una qualitativa.

Fase 1: profilo dei super-user e questionario ad-hoc

Allo studio ha partecipato un campione di 42 soggetti, reclutati tramite un campionamento accidentale di convenienza mirato a identificare “super-user” di AIGen. Il criterio di inclusione primario era un uso auto-riferito di strumenti AIGen per un minimo di due ore al giorno, inteso come “uso attivo e intenzionale” per distinguerlo da chi tiene la chat aperta in background.

Il campione finale era composto da 25 uomini (59.5%) e 17 donne (40.5%), con un’età media di 28.5 anni (DS = 4.3). L’uso medio giornaliero di AIGen dichiarato era di 2 ore e 35 minuti (M = 2.59 ore, DS = 0.43). È stato utilizzato il “Questionario sugli Effetti Comportamentali dell’Uso Intensivo di AI Generativa” (Q-AIG-35), uno strumento di 35 item sviluppato ad-hoc per questo studio. Il questionario indaga i cambiamenti percepiti in sette domini (Sociale, Cognitivo, Produzione, Media, Competenze, Benessere, Economia) su una scala Likert a 5 punti (da -2 “molto diminuito” a +2 “molto aumentato”). I partecipanti hanno completato il questionario online in forma anonima. La compilazione richiedeva circa 11 minuti. I dati quantitativi sono stati analizzati tramite statistiche descrittive, t-test per campioni indipendenti per esaminare le differenze di genere, e analisi di correlazione. L’affidabilità interna è stata valutata tramite Alpha di Cronbach per ciascun dominio.

Fase 2: interviste e analisi tematica sugli usi avanzati

Successivamente, un sottogruppo di 7 partecipanti è stato invitato a partecipare a una serie di interviste semi-strutturate. Questo approccio ha permesso di approfondire i risultati quantitativi, esplorando le esperienze soggettive, le strategie di coping e le percezioni dei partecipanti in modo più ricco e contestualizzato, con un focus sugli usi avanzati. Le interviste sono state condotte telefonicamente e trascritte previo consenso. L’analisi è stata condotta attraverso un’analisi tematica, volta a identificare i temi ricorrenti e le narrazioni emergenti.

Risultati del questionario: segnali per dominio nell’uso intensivo di AI generativa

L’analisi dei dati del questionario Q-AIG-35 ha rivelato impatti significativi e differenziati attraverso i sette domini comportamentali. La tabella seguente riporta le statistiche descrittive complete per tutti i 35 item del questionario, ordinati per dominio.

#Sintesi ItemTesto Completo dell’ItemDominioMDS
1Conversazioni approfonditeLa mia tendenza ad avere conversazioni approfondite di persona è…Sociale-0.050.51
2Consultare AI primaLa mia tendenza a consultare un’AI prima di chiedere a persone è…Sociale0.440.6
3Iniziativa organizzareLa mia iniziativa nell’organizzare attività sociali è…Sociale-0.40.63
4Esprimere opinioni diverseLa mia tendenza a esprimere opinioni diverse in un gruppo è…Sociale0.050.44
5Preferenza solitudineLa mia preferenza per attività da svolgere in solitudine è…Sociale0.490.51
6Fare regaliLa mia abitudine di fare regali ad altre persone è…Sociale0.020.52
7Analisi autonomaLa mia capacità di analizzare un problema in autonomia prima di cercare aiuto è…Cognitivo0.290.46
8Ricordare punti chiaveLa mia capacità di ricordare punti chiave senza consultare note o AI è…Cognitivo-0.410.55
9ProcrastinazioneLa mia tendenza a rimandare l’inizio di un compito (procrastinare) è…Cognitivo0.510.55
10Fiducia giudizioLa mia fiducia nel mio giudizio personale quando prendo decisioni è…Cognitivo-0.390.49
11Verificare info AILa mia abitudine di verificare criticamente le informazioni fornite dall’AI è…Cognitivo-0.530.55
12Attenzione prolungataLa mia capacità di mantenere l’attenzione prolungata su un singolo compito è…Cognitivo-0.450.55
13Distrazione mentaleLa mia sensazione di essere mentalmente distratto/a durante la giornata è…Cognitivo0.550.59
14Scrivere prima bozzaLa mia abitudine di scrivere di mio pugno la prima bozza di un testo è…Produzione-0.220.61
15Attività creative manualiIl mio dedicare tempo ad attività creative manuali (es. disegno, musica, bricolage) è…Produzione-0.330.57
16Nuove ideeLa mia capacità di generare nuove idee e avere iniziative personali è…Produzione-0.020.42
17Leggere testi lunghiLa mia abitudine di leggere per intero testi lunghi e complessi (es. libri, report) è…Media-0.560.55
18Lettura generaleLa quantità di tempo che dedico alla lettura in generale (articoli, notizie, post) è…Media0.60.63
19Guardare TVLa quantità di tempo che dedico a guardare la TV tradizionale o servizi di streaming è…Media00.45
20Ascoltare podcastLa quantità di tempo che dedico ad ascoltare podcast è…Media-0.030.46
21Competenze percepiteLa mia percezione che le mie competenze professionali/di studio stiano aumentando è…Competenze0.570.5
22Lingue straniereLa mia padronanza delle lingue straniere che conosco è…Competenze0.050.55
23Padronanza italianoLa mia percezione della mia padronanza della lingua italiana (ricchezza lessicale, stile) è…Competenze0.030.53
24Memoria quotidianaLa mia capacità di ricordare informazioni e dettagli della vita quotidiana è…Competenze0.10.49
25Sonno continuativoLa mia capacità di avere un sonno continuativo e riposante è…Benessere0.050.46
26Evitare schermi pre-sonnoLa mia abitudine di evitare l’uso di schermi (telefono, PC) nell’ora prima di dormire è…Benessere-0.290.64
27Energia mentale seraLa mia sensazione di avere energia mentale a fine giornata è…Benessere0.070.52
28Attività fisicaLa mia abitudine di svolgere attività fisica programmata è…Benessere0.030.53
29Pasti in casaLa mia abitudine di consumare pasti preparati in casa è…Benessere0.050.5
30Pause regolariLa mia abitudine di fare pause regolari durante le sessioni di lavoro/studio è…Benessere0.020.47
31FrustrazioneLa mia sensazione di essere frustrato/a o irritabile durante la giornata è…Benessere0.510.6
32Peso corporeoIl mio peso corporeo è…Benessere0.10.5
33Guadagni economiciI miei guadagni economici (da lavoro o altre fonti) sono…Economia-0.050.38
34Spese onlineLa mia tendenza a spendere soldi per acquisti online o servizi in abbonamento è…Economia0.030.36
35Controllo speseLa mia capacità di controllare le spese superflue è…Economia00.45

Tabella 2 – Sintesi per dominio (N=42)

DominioN. ItemMedia DominioDS MediaInterpretazione
Competenze40.190.52Percezione di crescita (possibile illusione)
Sociale60.090.53Ambivalente: sostituzione sociale
Benessere80.070.53Impatto lieve: aumento frustrazione
Media400.52Neutro: più lettura frammentata
Economia3-0.010.4Sostanzialmente invariato
Cognitivo7-0.140.53Impatto negativo: calo verifica critica
Produzione3-0.190.53Impatto negativo: dipendenza scrittura

L’analisi preliminare suggerisce differenze marcate tra i generi, che meriterebbero indagine su campioni più ampi. Per completezza, consapevoli della scarsa rilevanza statistica, vengono indicate le differenze più significative.
Le donne riportano un impatto negativo significativamente maggiore in aree quali le conversazioni di persona, la memoria, l’attenzione prolungata e la scrittura autonoma. Al contrario, percepiscono un aumento maggiore delle proprie competenze.

Cosa raccontano le interviste: workflow, ansia e dipendenza funzionale

Le interviste hanno rivelato un’evoluzione nell’utilizzo degli strumenti: da semplici “motori di risposta” a complessi “partner di ragionamento“, evidenziando le tensioni e le strategie di adattamento dei super-user.
Un tema chiave che distingue i super-user è il superamento dell’uso dell’AI per ottenere semplici risposte. L’impiego si sposta verso un processo dialettico, dove lo strumento serve a migliorare il proprio pensiero.

“Il valore non è avere la risposta. Io la legge la conosco. Il valore è usarlo come un partner per il ragionamento. Carico un mio atto e gli chiedo di farmi da ‘avvocato del diavolo’, [nel senso di controparte N.d.A.] di trovare ogni possibile falla nella mia argomentazione.”
— Marco, 45 anni, Avvocato

Questa modalità si estende alla ricerca accademica, dove strumenti come NotebookLM vengono usati non per cercare informazioni, ma per comprenderle in profondità.

“Non la uso per avere risposte, ma per farmi spiegare le cose. Carico 50 PDF e poi lo uso come un tutor. Gli chiedo “spiegami la differenza metodologica tra l’approccio di Rossi e quello di Bianchi”. È un motore di ragionamento, non un motore di ricerca.”
— Serena, 38 anni, Ricercatrice

I super-user non si limitano a un singolo strumento, ma orchestrano ecosistemi complessi. Il workflow tipico include un LLM per la strategia, uno per il copywriting, e strumenti specializzati come DeepL per la traduzione o Manus per l’analisi dati.

“Il mio vero punto di svolta è stato quando ho scoperto Manus. Ho provato a caricare due fogli excel e a chiedergli di incrociarli e farmi un report. In 30 secondi ha fatto un lavoro che a me avrebbe richiesto due ore.”
— Paolo, 41 anni, Impiegato Amministrativo

L’aumento di efficienza si traduce in una maggiore densità lavorativa e in nuove forme di ansia. Il multitasking estremo porta a una severa frammentazione dell’attenzione.

“Mentre aspetto che mi generi una tabella, rispondo a due email e leggo un abstract. Alla fine della giornata sono esausta, ho la sensazione di non aver staccato un secondo. La mia attenzione è a pezzi.”
— Serena, 38 anni, Ricercatrice

L’interazione costante con l’AI sta rimodellando le abitudini linguistiche, con una tendenza a una comunicazione più funzionale e una diminuzione della tolleranza verso l’imprecisione della comunicazione umana.

“Ho perso completamente l’abitudine di correggere gli errori di battitura. La cosa che mi preoccupa è che sto iniziando a comunicare così anche con gli umani, con frasi smozzicate. E mi monta una rabbia, un nervosismo, quando loro non capiscono al volo come fa l’AI.”
— Luca, 28 anni, Sviluppatore Freelance

La relazione con l’AI è intrinsecamente ambivalente. Alla frustrazione per i limiti degli strumenti e per la necessità di un aggiornamento costante, si affianca una crescente dipendenza. I cambi di versione dei modelli sono vissuti come una rottura che costringe a “ricostruire il rapporto”.

“Ogni volta che esce una nuova versione, è come se dovessi ricostruire il rapporto da capo. Cambia il ‘carattere’, il modo in cui risponde. Devi reimparare a parlarci. È estenuante.”
— Serena, 38 anni, Ricercatrice

Un tema ricorrente nelle interviste è la fiducia instabile nei confronti degli strumenti di AI generativa. Gli utenti descrivono una relazione caratterizzata da imprevedibilità: lo stesso modello può fornire risposte brillanti in un momento e deludenti poco dopo, generando un senso di incertezza che mina la possibilità di affidarsi completamente allo strumento.

“Non riesco mai a dirmi che mi fido completamente. Dipende dal compito, dipende dall’umore di Claude, se vogliamo dirla così. Ci sono giorni in cui mi sembra geniale, e altri in cui mi chiedo se mi stia prendendo in giro. È questa instabilità che mi logora.”
— Marco, 45 anni, Avvocato

Questa instabilità si intreccia con una frammentazione cognitiva estrema. I super-user descrivono routine in cui tengono aperte simultaneamente 4-5 chat con diversi modelli o istanze dello stesso modello, passando freneticamente dall’una all’altra, spesso dimenticando il contesto o il compito originario.

“Io lavoro con quattro o cinque chat aperte contemporaneamente. Una per la strategia, una per il copywriting, una per i dati, una per la traduzione. Il problema è che dopo un po’ mi dimentico cosa sto facendo in ciascuna. Riapro una chat e penso ‘ma cosa gli stavo chiedendo?’. È un caos mentale.”
— Giulia, 32 anni, Marketing Manager

Un aspetto particolarmente interessante emerso dalle interviste riguarda la gestione del tempo di attesa durante la generazione delle risposte. Lungi dall’essere momenti di pausa, questi intervalli vengono riempiti con micro-attività che amplificano ulteriormente la frammentazione dell’attenzione.

“Mentre aspetto che mi generi una risposta, non sto lì a guardare. Apro un’altra scheda, leggo una mail, controllo Slack, a volte inizio un’altra query su un’altra chat. Quando torno, devo rileggere tutto per ricordarmi dove ero. È come se il mio cervello fosse sempre in modalità multitasking forzato.”
— Luca, 28 anni, Sviluppatore Freelance

A questa frammentazione si accompagna una frustrazione crescente verso i limiti degli strumenti. Gli utenti descrivono una rabbia montante quando l’AI non riesce a svolgere compiti via via più complessi, percependo che la tecnologia non evolve alla velocità delle loro aspettative.

“La cosa che mi fa arrabbiare è che crescono troppo lentamente. Io mi abituo a un certo livello, inizio a chiedere di più, e loro si incartano. Vorrei che evolvessero più velocemente, che mi tenessero il passo. Invece mi trovo sempre a dover ridimensionare le mie richieste.”
— Paolo, 41 anni, Impiegato Amministrativo

Questa frustrazione è amplificata dall’acquiescenza eccessiva dei modelli, percepita come un limite piuttosto che un vantaggio. Gli utenti lamentano la tendenza dell’AI a “dire sempre di sì“, a compiacere piuttosto che sfidare, riducendo il valore dialettico dell’interazione.

“Mi irrita profondamente quando fa il yes-man. Gli dico una cosa palesemente sbagliata e lui mi segue, mi asseconda. Vorrei che mi dicesse ‘no, guarda che stai sbagliando’. Invece mi segue come un cagnolino. Non è questo che voglio da un collega.”
— Serena, 38 anni, Ricercatrice

A queste tensioni si aggiungono preoccupazioni di natura pratica ed economica. La spesa per abbonamenti e servizi cresce costantemente, con alcuni intervistati che dichiarano di spendere oltre 150 euro al mese per mantenere accesso a più piattaforme premium. Parallelamente, la difficoltà a rimanere aggiornati con i continui cambiamenti, le nuove funzionalità e le modifiche ai modelli genera un senso di affaticamento cognitivo.

“Ogni settimana esce qualcosa di nuovo. Un aggiornamento, una nuova funzione, un nuovo modello. Io non riesco a stare dietro a tutto. E la sensazione è che se non ti aggiorni, resti indietro. Ma è estenuante. E poi c’è la spesa: tra ChatGPT Plus, Claude Pro, Midjourney, DeepL, siamo a più di 100 euro al mese. E continua a salire.”
— Giulia, 32 anni, Marketing Manager

Questo insieme di tensioni configura un rapporto con l’AI generativa caratterizzato da dipendenza funzionale e insoddisfazione cronica, in cui l’efficienza guadagnata viene pagata con un carico cognitivo ed emotivo significativo.

Discussione: trade-off, differenze e interpretazioni nell’uso intensivo di AI generativa

La ricerca è un piccolo studio pilota, di matrice esplorativa, con tutti i limiti – evidenti – di uno studio dalla ridotta ampiezza campionaria e dal disegno basato su una popolazione contattata con un campionamento accidentale di convenienza. Pur con tutti i limiti, lo studio potrebbe fornire delle indicazioni interessanti, che aumentano il proprio valore sulla base di una certa rispondenza rispetto a quanto già indicato in letteratura. L’obiettivo, raggiunto, era quello di avere una overview delle dimensioni per poter costruire, successivamente, degli impianti di ricerca più solidi con lo scopo di avere verifiche precise delle ipotesi.

L’integrazione dei dati quantitativi e qualitativi dipinge un quadro complesso. L’uso intensivo di AIGen non è un fenomeno monolitico, ma un’esperienza profondamente ambivalente, caratterizzata da un trade-off costante tra efficienza e autonomia. I risultati suggeriscono l’emergere di due fenomeni principali: l’offloading cognitivo e la sostituzione sociale. Le interviste qualitative arricchiscono questo quadro, mostrando come i super-user evolvano verso un uso più sofisticato dell’AI come partner di ragionamento, pur sperimentando nuove forme di ansia e una profonda rinegoziazione delle proprie competenze e abitudini sociali.

Le differenze di genere emerse suggeriscono che le donne potrebbero essere più esposte agli impatti negativi sulla sfera relazionale e del benessere. Questa dinamica merita ulteriori approfondimenti per comprendere se rifletta diverse strategie di utilizzo o diverse vulnerabilità.

L’analisi qualitativa rivela che l’esperienza dei super-user di AI generativa è caratterizzata da una trasformazione profonda e multidimensionale. Non si tratta semplicemente di adottare un nuovo strumento, ma di riorganizzare le proprie routine cognitive, comunicative e relazionali attorno a una tecnologia che è al contempo potente e instabile, efficiente e frustrante, liberatoria e vincolante.

Gli intervistati descrivono un percorso evolutivo che li ha portati da un uso superficiale (“chiedere risposte”) a un uso sofisticato (“partner di ragionamento“), ma questo percorso non è lineare né privo di costi. Emergono tre tensioni fondamentali:

  1. Tensione tra efficienza e autonomia: L’AI generativa permette di fare di più in meno tempo, ma al prezzo di una riduzione della capacità di agire autonomamente. Gli utenti diventano più produttivi ma meno autosufficienti.
  2. Tensione tra connessione e isolamento: L’AI diventa un interlocutore privilegiato, sostituendo in parte le interazioni umane. Questo porta a una forma di “solitudine connessa, in cui si è sempre in dialogo ma sempre da soli.
  3. Tensione tra crescita percepita e deterioramento reale: Gli utenti percepiscono di crescere professionalmente e di acquisire nuove competenze, ma al contempo osservano su se stessi un deterioramento di abilità fondamentali come la memoria, l’attenzione e la scrittura autonoma.

Queste tensioni non sono risolte, ma gestite quotidianamente attraverso strategie di coping individuali che variano dall’auto-imposizione di limiti all’uso, alla ricerca di momenti di “disconnessione”, alla sperimentazione di modalità di utilizzo che minimizzino i costi cognitivi ed emotivi.

Il quadro che emerge è quello di una relazione complessa e ambivalente, in cui l’AI generativa si configura come un “partner scomodo“: indispensabile ma inaffidabile, potenziante ma impoverente, liberatorio ma vincolante. Una relazione che richiede una continua negoziazione tra i benefici immediati e i costi a lungo termine, tra l’efficienza del presente e la sostenibilità del futuro.

Conclusioni: augmentation vs substitution nell’uso intensivo di AI generativa

La letteratura converge: l’AI generativa può aumentare capacità ma può sostituire processi cognitivi, relazionali e comportamentali, con conseguenze negative per competenze, wellbeing e capitale sociale.
Il principio augmentation vs. substitution emerge come chiave interpretativa. Quando l’AI supporta agentività mantenendo pensiero critico e connessioni sociali, i benefici si realizzano. Quando sostituisce lo sforzo cognitivo o il giudizio autonomo, emergono rischi di deskilling, dipendenza ed erosione della funzione sociale e cooperativa.

Sul piano pratico emerge la necessità di una educazione all’AI literacy e politiche che preservino il supporto umano. Il monitoraggio della qualità psicosociale deve seguire di pari passo lo sviluppo di metriche di efficienza.

In pratica, l’AI generativa non è intrinsecamente benefica o dannosa. Gli effetti dipendono da design, contesto, scopo, caratteristiche individuali e temporalità.

Una comprensione epistemologicamente fondata richiede di riconoscere complessità e adottare approcci evidence-based che massimizzino i benefici (per tutte e tutti) minimizzando i rischi.

La domanda centrale non è cosa AI può fare, ma cosa dovrebbe fare e a quale costo per valori umani essenziali. Parallelamente è centrale monitorare, studiare e verificare la presenza di effetti negativi significativi.

Questo studio evidenzia la necessità di superare una visione semplicistica dell’AIGen come mero strumento di produttività. È un potente agente di cambiamento comportamentale, cognitivo e sociale. La sfida futura sarà quella di progettare e adottare modalità di interazione che promuovano un “aumento” delle capacità umane, mitigando i rischi di una “sostituzione” che, sebbene efficiente, potrebbe rivelarsi costosa per il benessere e l’autonomia individuale e collettiva (cfr. Laudadio, 2025).

Dai risultati dello studio, sembrerebbe emergere che il riporto al dominio e all’ambito, sembra nascondere comportamenti che singolarmente invece potrebbero assumere una certa significatività. Ad esempio, la lettura si sposta da libri a post e cresce il consumo di podcast, in un quadro di sostituzione più che di riduzione o aumento.

Sulla base dei risultati emersi e dei gap identificati nella letteratura, possiamo proporre sei dimensioni strategiche per orientare la ricerca futura sugli effetti dell’AI Generativa:

  1. Studi Longitudinali a Lungo Termine. È urgente condurre studi longitudinali che seguano coorti di utenti per periodi prolungati (12-24 mesi), al fine di distinguere gli effetti transitori di adattamento da quelli strutturali e potenzialmente irreversibili. Particolare attenzione dovrebbe essere rivolta all’evoluzione delle capacità di memoria di lavoro, attenzione sostenuta e pensiero critico nel tempo, utilizzando misure oggettive (es. test neuropsicologici) oltre a quelle auto-riferite.
  2. Neuroscienze Cognitive e Plasticità Cerebrale. La ricerca futura dovrebbe integrare metodologie neuroscientifiche (fMRI, EEG) per indagare se e come l’uso intensivo di AIGen modifichi i pattern di attivazione cerebrale associati a compiti di problem-solving, memoria e creatività. Studi sulla plasticità cerebrale potrebbero rivelare se l’offloading cognitivo induca riorganizzazioni funzionali durature, analogamente a quanto osservato con l’uso intensivo di GPS sulla navigazione spaziale.
  3. Differenze Individuali e Fattori di Protezione. È necessario identificare i fattori individuali (es. tratti di personalità, stili cognitivi, competenze metacognitive) che modulano la vulnerabilità o la resilienza agli effetti negativi. Comprendere perché alcuni individui mantengono autonomia e pensiero critico mentre altri sviluppano dipendenza potrebbe informare interventi educativi e strategie di utilizzo consapevole.
  4. Impatto sullo Sviluppo in Età Evolutiva. Dato che le generazioni più giovani sono esposte all’AIGen in fasi critiche dello sviluppo cognitivo e sociale, è imperativo condurre ricerche su bambini e adolescenti. Quali sono gli effetti sull’acquisizione di competenze fondamentali come la scrittura, il ragionamento matematico e le abilità sociali? Esistono “finestre critiche” di sviluppo particolarmente vulnerabili?
  5. Progettazione di Interfacce per l’Augmentation Responsabile. La ricerca dovrebbe collaborare con designer e sviluppatori per co-progettare interfacce che promuovano un uso dell’AI orientato all’aumento (augmentation) piuttosto che alla sostituzione. Ciò potrebbe includere meccanismi di friction strategica che incoraggino la riflessione prima dell’offloading, feedback trasparenti sul livello di dipendenza, e strumenti per il monitoraggio e la regolazione dell’uso.
  6. Implicazioni Sociali, Etiche e Politiche. Infine, è necessario un dialogo interdisciplinare che coinvolga scienze sociali, etica, diritto e policy-making. Come dovrebbero essere regolamentati gli strumenti AIGen in contesti educativi e professionali? Quali competenze “umane” dovrebbero essere protette e coltivate come patrimonio irrinunciabile? Come garantire equità di accesso evitando che l’AIGen amplifichi divari esistenti?

In sintesi, la ricerca futura deve adottare un approccio sistemico e multi-livello, che integri neuroscienze, psicologia, sociologia e design, per comprendere e orientare la co-evoluzione tra esseri umani e intelligenza artificiale generativa in modo che sia sostenibile, equo e rispettoso della dignità e dell’autonomia umana.

Bibliografia

Abbas, N., Pickering, B., Atwell, E., & Walker, A. (2024). Exploring the double-edged sword: A mixed methods study of ChatGPT use and academic performance. International Journal of Educational Technology in Higher Education, 21, Article 52. https://doi.org/10.1186/s41239-024-00487-7

Almoqbel, M. Y. (2024). Talking to machines: Personas and behavioral patterns in Gen AI interactions. Journal of Posthumanism, 4(3), 411-434. https://doi.org/10.63332/joph.v4i3.3243

Alshakhsi, S. (2025). Arabic validation of Large Language Model Dependency Scale (D12): A psychometric study. Preprint.

Bai, H., Voelkel, J. G., Muldowney, S., Eichstaedt, J. C., & Willer, R. (2025). AI-generated messages can be used to persuade humans on policy issues. OSF Preprints. https://doi.org/10.31219/osf.io/stakv_v6

Castiello, S., & Costa, M. A. (2025). Generative AI as digital therapy: What we know and how to make it better? OSF Preprints. https://doi.org/10.31234/osf.io/b26zh_v1

Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science, 385(6714), 1230-1235. https://doi.org/10.1126/science.adq1814

Crawford, J., Cowling, M., Ashton-Hay, S., Kelder, J.-A., Middleton, R., & Wilson, K. (2024). When artificial intelligence substitutes humans in higher education: The cost of loneliness, student success, and retention. Studies in Higher Education. https://doi.org/10.1080/03075079.2024.2326956

De Freitas, J., Matz, S. C., Friedman, S. A., & Kim, K. (2025). AI companions reduce loneliness. Journal of Consumer Research. https://doi.org/10.1093/jcr/ucaf040

Duong, C. D., Vu, T. N., & Ngo, T. V. N. (2024). Applying the theory of psychological strain to explain compulsive ChatGPT use. International Journal of Human–Computer Interaction. https://doi.org/10.1080/10447318.2024.2410777

Dvorak, F., Stumpf, R. P., Fehrler, S., & Schudy, S. (2024). Generative AI triggers welfare-reducing decisions in humans. arXiv preprint. https://doi.org/10.48550/arxiv.2401.12773

Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv. https://arxiv.org/abs/2503.17473

Folk, D. P., & Dunn, E. W. (2025). Turning to AI for companionship predicts increased loneliness four months later. OSF Preprints. https://doi.org/10.31234/osf.io/bq7v3_v1

Georgiou, G. P. (2025). ChatGPT produces more “lazy” thinkers: Evidence of cognitive engagement decline. arXiv preprint. https://doi.org/10.48550/arxiv.2507.00181

Glickman, M., & Sharot, T. (2024). How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 8, 1888-1901. https://doi.org/10.1038/s41562-024-02077-2

Goh, A. Y. H., Hartanto, A., & Majeed, N. M. (2025). Generative artificial intelligence dependency: Scale development, validation, and its motivational, behavioral, and psychological correlates. OSF Preprints. https://doi.org/10.31234/osf.io/aphtb_v1

Han, Z. (2025). Artificial intelligence and social interaction: Evidence from gift money expenditure. Scientific and Social Research, 7(8), 226-236. https://doi.org/10.26689/ssr.v7i8.12018

Head, K. R. (2025). Minds in crisis: How the AI revolution is impacting mental health. Journal of Mental Health and Clinical Psychology, 9(2), Article 1352. https://doi.org/10.29245/2578-2959/2025/2.1352

Hirabayashi, S., Jain, R., Jurković, N., & Wu, G. (2024, June 4). Harvard Undergraduate Survey on Generative AI (arXiv:2406.00833v1) [Preprint]. arXiv. https://arxiv.org/abs/2406.00833

Jadhav, A. (2025). Distributed atrophy: The cognitive costs of AI offloading. Cognitive Science Quarterly, 15(2), 112-128.

Jiang, Y., Brinkmann, L., Nußberger, A.-M., Soraperra, I., & Bonnefon, J.-F. (2025). Humans learn to prefer trustworthy AI over human partners. arXiv preprint. https://doi.org/10.48550/arxiv.2507.13524

Kim, J., Lee, S., & Park, M. (2025). Longitudinal effects of social chatbot interaction on loneliness and social anxiety in university students. Journal of Medical Internet Research, 27(1), e52341. https://www.jmir.org/2025/1/e65589

Kim, R. (2025). AI-mediated cognitive distortions and digital echo delusions: Toward a resonant amplification framework. OSF Preprints. https://doi.org/10.31234/osf.io/jcagk_v1

Kleinert, T., Waldschütz, M., Blau, J., Heinrichs, M., & Schiller, B. (2025, June 25). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions – but only when labelled as human. Research Square. https://doi.org/10.21203/rs.3.rs-6803722/v1

Klimova, B., & Pikhart, M. (2025). Exploring the effects of artificial intelligence on student and academic well-being in higher education: A mini-review. Frontiers in Psychology, 16, Article 1498132. https://doi.org/10.3389/fpsyg.2025.1498132

Kościelniak, M., & Bielecki, M. (2024). The psychology of generative AI in higher education: Mapping benefits and risks. Qeios. https://doi.org/10.32388/x1itss

Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task. MIT Media Lab. https://www.media.mit.edu/publications/your-brain-on-chatgpt/

Laudadio, A. (2025) IA, opportunità o minaccia? Due generazioni a confronto. Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/ia-opportunita-o-minaccia-due-generazioni-a-confronto/

Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (CHI ’25). Association for Computing Machinery. https://doi.org/10.1145/3706598.3713778

Lin, X., & Tan, H. (2025). A systematic review of generative AI in K–12: Mapping goals, activities, roles, and outcomes via the 3P model. Systems, 13(10), Article 840. https://doi.org/10.3390/systems13100840

Luo, X., Ghosh, S., Tilley, J. L., Besada, P., & Wang, J. (2025). “Shaping ChatGPT into my digital therapist”: A thematic analysis of social media discourse on using generative artificial intelligence for mental health. Digital Health, 11. https://doi.org/10.1177/20552076251351088

Maral, S., Naycı, N., Bilmez, H., Erdemir, E.I., Satici, S.A. (2025) Problematic ChatGPT Use Scale: AI-Human Collaboration or Unraveling the Dark Side of ChatGPT. Int J Ment Health Addiction (2025). https://doi.org/10.1007/s11469-025-01509-y

Matueny, R. M., & Nyamai, J. J. (2025). Illusion of competence and skill degradation in artificial intelligence dependency among users. International Journal of Research and Scientific Innovation, 12(5), 1263-1275. https://doi.org/10.51244/ijrsi.2025.120500163

Namvarpour, M., Roberts, S. G., & Perfors, A. (2025). Romance, relief, and regret: Teen narratives of chatbot overreliance on Character.AI. arXiv preprint. https://doi.org/10.48550/arxiv.2507.15783

Papagianni, A., & Spatoula, V. (2025). Understanding Gen Z’s motivations for AI chatbot use and their associations with loneliness and mental health. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 19(1), Article 4.

Qiu, T. A., He, Z., Chugh, T., & Kleiman-Weiner, M. (2025). The Lock-in Hypothesis: Stagnation by Algorithm. arXiv. https://arxiv.org/abs/2506.06166

Rohilla, A. (2025). Impact of excessive AI tool usage on the cognitive abilities of undergraduate students: A mixed method study. Assaj International Journal, 4(1), 115-128. https://doi.org/10.55966/assaj.2025.4.1.0115

Skjuve, M., Følstad, A., & Brandtzæg, P. B. (2023). A longitudinal study of self-disclosure in human–chatbot relationships. Interacting with Computers, 35(1), 24–39. https://doi.org/10.1093/iwc/iwad022

Thorp, S., Slupphaug, K., Rimol, L. M., Lervik, S., & Hoel, S. K. B. (2025). Conformity towards humans versus AI in different task domains: The type of task matters. Journal of Cognitive Enhancement, 9(1), 45-58. https://doi.org/10.1080/29974100.2025.2540762

Williams-Ceci, S., Jakesch, M., Bhat, A., Kadoma, K., & Zalmanson, L. (2025). Biased AI writing assistants shift users’ attitudes on societal issues. OSF Preprints. https://doi.org/10.31234/osf.io/mhjn6_v2

Wojtowicz, Z., & DeDeo, S. (2024). AI makes thinking easy but cooperation hard. Proceedings of the National Academy of Sciences, 121(12), e2316809121.

Yankouskaya, A., Sui, J., & Humphreys, G. W. (2025). Development and validation of the LLM Dependency Scale (LLM-D12). arXiv preprint.

Yu, S. C., Chen, H. R., & Yang, Y. W. (2024). Development and validation the problematic ChatGPT Use Scale: A preliminary report. Current Psychology, 43(31), 26080–26092. https://doi.org/10.1007/s12144-024-06259-z

Zhai, C., Wibowo, S., & Li, L. D. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environments, 11, Article 28. https://doi.org/10.1186/s40561-024-00316-7

Zhang, H., Wang, Y., & Liu, C. (2024). Development and validation of the AI Chatbot Dependence Scale. Computers in Human Behavior, 152, Article 108087.

Zhang, R. Z., Kyung, E., Longoni, C., Cian, L., & Mrkva, K. (2024). AI-induced indifference: Unfair AI reduces prosociality. Cognition, 245, Article 105937. https://doi.org/10.1016/j.cognition.2024.105937

Zhu, F., & Zou, W. (2024). The role of generative AI in human creative processes: Experimental evidence. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4676053

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x