In tre anni, l’adozione dell’AI Generativa ha mutato in modo sostanziale le abitudini di milioni di persone, nel proprio modo di vivere e lavorare. Pur nella rapidità di questo cambiamento, emerge – dalla letteratura scientifica – un corpus di ricerche che indaga effetti diretti e indiretti di questa rivoluzione culturale sulle dimensioni psicologiche e comportamentali derivanti dall’uso dell’AI Generativa.
Per avere una idea della pervasività dell’AI, basta prendere in considerazione la sua capacità di influenzare idee e comportamenti dei suoi utilizzatori. Secondo Williams-Ceci et al. (2025), l’AI ha una forte capacità persuasiva, spesso senza consapevolezza dell’utilizzatore. L’AI esprime capacità persuasive robuste.
Bai et al. (2025), con 4.829 partecipanti, hanno dimostrato che i messaggi LLM producono cambiamenti di atteggiamento comparabili ai messaggi umani. Forse, in modo addirittura più robusto, per esempio in relazione ai bias (Glickman e Sharot, 2024) dove sembrerebbe che l’AI sia purtroppo e decisamente più performante dell’interazione umano-umano. Anche nella sua direzione opposta, ad esempio, secondo Costello et al. (2024), ChatGPT è capace di ridurre le credenze e le convinzioni “cospirazioniste” del 20%.
Indice degli argomenti
Perché l’uso intensivo di AI generativa può orientare idee e scelte
Similmente, oltre a mutare alcuni atteggiamenti opinioni ed emozioni (Fang et al. 2025), l’AI sembra essere capace di “indurire” o, forse, radicalizzare le nostre opinioni, creando delle echo chambers cognitive (Kim, 2025; Qiu et al., 2025).
In altre parole, inconsapevolmente, attraverso l’iterazione con l’AI modifichiamo i nostri atteggiamenti, non solo sul mondo esterno ma anche rispetto alla nostra self-perception (Williams-Ceci et al., 2025).
Efficienza, merito e valori dello sforzo nell’uso intensivo di AI generativa
Ad esempio, Kościelniak e Bielecki (2024) mappano tensioni tra efficienza e valori di sforzo nell’higher education. Se l’AI rende i compiti senza sforzo, lo sforzo perde valore? Come attribuire merito quando il lavoro AI-assisted è indistinguibile?
Non sono domande retoriche, ma aspetti che impattano pesantemente con il nostro concetto di mondo e con il concetto che noi abbiamo di noi stessi in relazione al nostro mondo.
Quando l’uso intensivo di AI generativa sostituisce memoria, attenzione e critica
Le revisioni sistematiche più recenti indicano che l’uso sostitutivo e non complementare delle AI dialogiche è associato a una riduzione di processi metacognitivi e capacità critiche. La systematic review di Zhai et al. (2024) sintetizza evidenze sull’over-reliance su AI dialogiche e impatti su decision-making, critical thinking e reasoning, con indicazione di rischi di metacognitive laziness. Poiché gli individui preferiscono sempre più soluzioni rapide (anche se basate su scorciatoie) rispetto a quelle lente, anche in presenza di problematiche etiche presentate dalle tecnologie AI.
In letteratura, il fenomeno più documentato riguarda il cognitive offloading, ossia l’esternalizzazione di funzioni cognitive ai sistemi di IA. Georgiou (2025) ha dimostrato che studenti che utilizzano ChatGPT per scrittura argomentativa mostrano punteggi significativamente più bassi nella Cognitive Engagement Scale for AI (CES-AI). Rohilla (2025), con 300 studenti, ha rilevato che alta dipendenza dall’AI correla con punteggi di pensiero critico inferiori di 22 punti percentuali e ritenzione mnemonica ridotta del 17,3%, con effetti più marcati nelle discipline umanistiche.
Nei knowledge workers l’impatto dell’AI sulla qualità cognitiva varia con lo stile d’uso, e l’offloading è più probabile nei task ripetitivi (Lee et al., 2025).
Memoria “esternalizzata” e rischio di atrofia distribuita
L’offloading cognitivo impatta profondamente i sistemi di memoria. Jadhav (2025) propone il modello di distributed atrophy: l’esternalizzazione delle rappresentazioni mentali riduce opportunità di consolidamento. Abbas et al. (2024) hanno documentato che l’uso di ChatGPT predice aumento di perdita di memoria mediato da procrastinazione. Sembrerebbe che l’AI tenda a diventare un repository esterno sempre disponibile con un effetto destabilizzate per il consolidamento interno della conoscenza.
Il cognitive offloading riduce opportunità di consolidamento e monitoraggio metacognitivo, con conseguenze significative per memoria, pensiero critico e creatività (Jadhav, 2025; Georgiou, 2025; Rohilla, 2025).
Creatività, soddisfazione e illusione di competenza
Gli effetti sulla creatività presentano un pattern complesso. Zhu e Zou (2024) osservano che ChatGPT riduce la performance creativa oggettiva quando il potenziale è superiore alla mediana, ma che paradossalmente riportano maggiore soddisfazione. Matueny e Nyamai (2025) definiscono questo fenomeno “illusione di competenza”: inflazione della percezione mentre le proprie capacità diminuiscono. Lin e Tan (2025), in una revisione sistematica di studi con K-12, evidenziano riduzione dell’originalità quando l’AI genera idee invece di valutarle. In questo quadro, il ruolo dell’AI (supporto vs. direzione) emerge come moderatore critico.
Oltre agli effetti sulla creatività, l’AI cambia radicalmente i comportamenti di scrittura e lettura. Crawford et al. (2024) riportano che l’uso dell’AI ha portato il 25% degli studenti a sostituire la lettura con l’utilizzo dei riassunti.
Dati neurofisiologici preliminari indicano un minore ingaggio delle reti esecutive durante compiti complessi svolti con LLM rispetto a condizioni di controllo. Una conferma neuroscientifica arriva dal MIT Media Lab: Kosmyna et al. (2025), monitorando l’attività cerebrale tramite EEG, hanno dimostrato che l’uso di ChatGPT riduce significativamente l’attivazione delle reti neurali legate al pensiero critico e alla memoria di lavoro, generando quello che definiscono “debito cognitivo“: un risparmio di fatica immediato che si paga con un depotenziamento dell’attività neurale.
In generale, sembrerebbe che l’uso della GenAI possa produrre una perdita di mental proof (Wojtowicz e DeDeo, 2024). Perché quando le azioni sono attribuibili ad algoritmi, si perde la certificazione epistemica fornita dai segnali comportamentali, con un effetto sulla fiducia e sulle norme sociali. Questo spiegherebbe perché delegare compiti e decisioni all’AI riduca fairness, fiducia e cooperazione in giochi economici (Dvorak et al., 2024).
Purtroppo, questa perdita prestazionale non viene ancora compresa dagli utenti. Zhu e Zou (2024) documentano aumenti di auto-efficacia nonostante riduzioni di performance. In altre parole, penso di essere più bravo e di acquisire competenze anche se in realtà le sto perdendo.
Sul piano epistemologico, l’illusione di competenza (Matueny & Nyamai, 2025) — auto-efficacia aumenta mentre capacità diminuiscono — sfida apertamente e mette in crisi l’autoconsapevolezza metacognitiva.
Inoltre, secondo Abbas et al. (2024), l’uso di ChatGPT predice un aumento della procrastinazione, mediato da carico di lavoro e sensibilità alle ricompense. Goh et al. (2025) lo confermano: l’uso AI potrebbe promuovere l’evitamento. Forse perché, come sostiene Rohilla (2025), l’AI genera una sorta di “dipendenza da soluzione“: rivolgersi immediato all’AI invece di tentare di risolvere i problemi in modo autonomo e indipendente.
Relazioni e fiducia: come l’uso intensivo di AI generativa sposta la socialità
L’implicazione della fiducia tra le dimensioni implicate dall’uso dell’AI amplia il focus dalle dimensioni individuali a quelle sociali. Infatti, secondo Zhang et al. (2024) la relazione con l’AI può influenzare la cooperazione prosociale degli utilizzatori. Le dimensioni della relazione e della fiducia, da sempre associate al rapporto uomo-uomo, oggi sono messe in discussione.
Han (2025), utilizzando dati di una survey nazionale in Cina, ha documentato che l’adozione di AI riduce in modo causale le spese sociali tradizionali (come i regali di denaro, un comportamento di legame sociale cruciale nella cultura cinese), con effetti più forti tra i giovani, i più istruiti e i più ricchi.
Sembrerebbe che la GenAI non stia solo cambiando i comportamenti sociali, sta svolgendo – in modo sempre più palese – una azione “sostitutiva” nei confronti dell’interazione umana. Secondo Hirabayashi et al. (2024), il 25% degli studenti sta sostituendo office hours con consulti AI, anche quella specialistica (o soprattutto quella specialistica). L’help-seeking si sposta da fonti umane a fonti AI. Luo et al. (2025) riportano che utenti globali cercano supporto da ChatGPT, in particolare nelle situazioni di crisi, configurando forti rischi per la sicurezza (Head, 2025). Ad esempio, Castiello e Costa (2025) ritengono possible che si sviluppino trigger di sintomi simil-psicotici in individui vulnerabili.
In una direzione opposta va lo studio di Almoqbel (2024), che ha trovato che l’espressione emotiva frequente verso la GenAI è correlata con maggiore auto-efficacia emotiva digitale, ma non con minore connessione sociale percepita. Questo potrebbe suggerire che l’AI possa supportare percezioni di competenza in domini specifici senza necessariamente ridurre la connessione sociale nel breve termine. Ovviamente, parliamo di autoefficacia e non possiamo escludere che la percezione sia distante dalla reale qualità dell’interazione sociale.
Dalla sostituzione del supporto umano all’aumento di solitudine
L’effetto di sostituzione sociale trova una conferma robusta. Crawford et al. (2024) hanno dimostrato che uso dell’AI per il supporto accademico opera attraverso variabili sociali: uso AI → supporto percepito dall’AI → riduzione supporto umano → minore appartenenza → maggiore solitudine → minore performance.
Le migliori evidenze longitudinali disponibili legano l’uso quotidiano intenso, specie su contenuti personali, a un aumento di solitudine percepita e dipendenza emotiva dall’AI (Fang, et al., 2025). Gli studi sembrano convergere verso una condizione “dominio-dipendente”. Thorp et al. (2025) hanno dimostrato che la conformità e la fiducia verso agenti AI varia per tipo di compito: maggiore per oggettivi (conteggio, conoscenza), minore per soggettivi (estetica, moralità). Secondo Jiang et al. (2025), la disclosure dell’identità AI del supporto, facilita nelle fasi iniziali l’apprendimento: bot affidabili superano umani inaffidabili. Secondo Skjuve, Følstad e Brandtzæg (2023) sarebbe proprio la self-disclosure dell’AI ad accelerare la percezione di vicinanza (Kleinert et al., 2025).
Questa percezione di fiducia e vicinanza, da sempre riservato all’interazione umana crea una nuova condizione, per alcuni versi paradossale: l’utilizzo della macchina come sostituto della vita sociale. In molti casi come strumento di riduzione della sensazione di solitudine.
L’uso di chatbot AI sulla solitudine mostra un effetto bifasico. A breve termine, Kim et al. (2025) osservano riduzioni significative di solitudine. De Freitas et al. (2025) dimostrano, in qualche modo, che le companion AI riducono la solitudine in modo comparabile a quanto possa fare l’interazione umana. Ma a lungo termine il quadro si inverte. Folk e Dunn (2025) documentano che uso di chatbot predice aumento di solitudine dopo quattro mesi. L’analisi cross-lagged conferma questa relazione bidirezionale: persone sole si rivolgono alle chatbots e l’uso incrementa la solitudine (percepita e reale). In aggiunta, Papagianni e Spatoula (2025), con partecipanti Gen Z, hanno registrato che le motivazioni emotive sono in grado di predire punteggi più elevati di solitudine.
La sostituzione sociale opera quando AI soddisfa bisogni immediati ma riduce motivazione di interazione umana, erodendo di fatto il capitale sociale degli individui (Crawford et al., 2024; Han, 2025).
Dipendenza e benessere: misurare l’uso intensivo di AI generativa
La dipendenza da AI emerge dalla letteratura come un costrutto misurabile. Oltre alla Generative AI Dependency Scale di Goh et al. (2025), altri strumenti sono stati sviluppati e validati. Yankouskaya et al. (2025) hanno proposto la LLM Dependency Scale (LLM-D12), Zhang et al. (2024) hanno validato l’AI Chatbot Dependence Scale 54, Yu, Chene Yang (2024) la Problematic ChatGPT Use Scale e Alshakhsi (2025) ha adattato strumenti per popolazioni arabofone. Non si registrano strumenti validati in lingua italiana.
Alcuni studi hanno riscontrato che livelli elevati di dipendenza sono correlati a maggiore procrastinazione, fallimenti cognitivi, performance ridotta e minore chiarezza del concetto di sé (Goh et al., 2025).
Le dimensioni ricorrenti includono preoccupazione cognitiva (pensieri intrusivi sull’IA), conseguenze negative (interferenza con responsabilità e relazioni) e sintomi di astinenza (distress quando l’AI non è disponibile). Duong et al. (2024), con un robusto campione di studenti universitari vietnamiti, hanno evidenziato che l’uso compulsivo di ChatGPT è correlato positivamente con solitudine, evitamento sociale e distress psicologico, con il distress che media riduzioni nella soddisfazione di vita e performance accademica.
Goh et al. (2025) evidenziano che la dipendenza da AI è associata con una ridotta chiarezza del concetto di sé. Saracini et al. (2025) propongono la “proiezione tecno-emotiva”: utenti vulnerabili proiettano bisogni sull’IA, con rischi di attaccamento sintetico e artificiale.
Thorp et al. (2025) confermano che dominio compito determina conformità. Le fragilità individuali amplificano i rischi. Adolescenti (Namvarpour et al., 2025), individui con condizioni particolari di salute mentale (Head, 2025) e persone sole (Crawford et al., 2024; Folk & Dunn, 2025) mostrano suscettibilità maggiore.
L’uso problematico di ChatGPT si associa con maggiore disagio psicologico (Maral et al. 2025). Più in generale, sul wellbeing gli effetti sono eterogenei. Zhang et al. (2025), con 1.146 adulti, trovano che la dipendenza correla con depressione e ansia, ma sembrerebbe che lo scopo d’uso funga da moderatore. Un uso primariamente informativo è associato con un wellbeing più elevato rispetto a chi ha uno scopo più emotivo-sostitutivo. Klimova e Pikhart (2025) notano potenziali riduzioni di stress attraverso supporto nei compiti, ma anche rischi di eccessiva dipendenza che riduce auto-efficacia in alcuni contesti
Obiettivi e disegno: uno studio esplorativo sull’uso intensivo di AI generativa
L’analisi della letteratura evidenzia una preoccupazione crescente rispetto agli effetti che l’uso crescente della GenAI possa avere. Pur nell’ampiezza degli studi molti aspetti sono ancora lontani dall’essere dimostrati empiricamente e su popolazioni che non siano quelle di studenti. Quasi tutti gli autori convergono nella necessità di ulteriori studi che siano in grado di comprendere – nella rapidità di sviluppo e diffusione del fenomeno – ulteriori elementi che sono implicati in questa trasformazione non solo tecnologica ma soprattutto individuale e sociale.
L’obiettivo dello studio è di generare, tramite una doppia metodologia qualitativa, un elenco di possibili ambiti di interesse all’interno dei quali ricercare variazioni comportamentali e sociali derivanti dall’uso della GenAI.
Metodo: due fasi per osservare comportamenti e vissuti
Lo studio è stato articolato in due fasi sequenziali: una quali-quantitativa e una qualitativa.
Fase 1: profilo dei super-user e questionario ad-hoc
Allo studio ha partecipato un campione di 42 soggetti, reclutati tramite un campionamento accidentale di convenienza mirato a identificare “super-user” di AIGen. Il criterio di inclusione primario era un uso auto-riferito di strumenti AIGen per un minimo di due ore al giorno, inteso come “uso attivo e intenzionale” per distinguerlo da chi tiene la chat aperta in background.
Il campione finale era composto da 25 uomini (59.5%) e 17 donne (40.5%), con un’età media di 28.5 anni (DS = 4.3). L’uso medio giornaliero di AIGen dichiarato era di 2 ore e 35 minuti (M = 2.59 ore, DS = 0.43). È stato utilizzato il “Questionario sugli Effetti Comportamentali dell’Uso Intensivo di AI Generativa” (Q-AIG-35), uno strumento di 35 item sviluppato ad-hoc per questo studio. Il questionario indaga i cambiamenti percepiti in sette domini (Sociale, Cognitivo, Produzione, Media, Competenze, Benessere, Economia) su una scala Likert a 5 punti (da -2 “molto diminuito” a +2 “molto aumentato”). I partecipanti hanno completato il questionario online in forma anonima. La compilazione richiedeva circa 11 minuti. I dati quantitativi sono stati analizzati tramite statistiche descrittive, t-test per campioni indipendenti per esaminare le differenze di genere, e analisi di correlazione. L’affidabilità interna è stata valutata tramite Alpha di Cronbach per ciascun dominio.
Fase 2: interviste e analisi tematica sugli usi avanzati
Successivamente, un sottogruppo di 7 partecipanti è stato invitato a partecipare a una serie di interviste semi-strutturate. Questo approccio ha permesso di approfondire i risultati quantitativi, esplorando le esperienze soggettive, le strategie di coping e le percezioni dei partecipanti in modo più ricco e contestualizzato, con un focus sugli usi avanzati. Le interviste sono state condotte telefonicamente e trascritte previo consenso. L’analisi è stata condotta attraverso un’analisi tematica, volta a identificare i temi ricorrenti e le narrazioni emergenti.
Risultati del questionario: segnali per dominio nell’uso intensivo di AI generativa
L’analisi dei dati del questionario Q-AIG-35 ha rivelato impatti significativi e differenziati attraverso i sette domini comportamentali. La tabella seguente riporta le statistiche descrittive complete per tutti i 35 item del questionario, ordinati per dominio.
| # | Sintesi Item | Testo Completo dell’Item | Dominio | M | DS |
| 1 | Conversazioni approfondite | La mia tendenza ad avere conversazioni approfondite di persona è… | Sociale | -0.05 | 0.51 |
| 2 | Consultare AI prima | La mia tendenza a consultare un’AI prima di chiedere a persone è… | Sociale | 0.44 | 0.6 |
| 3 | Iniziativa organizzare | La mia iniziativa nell’organizzare attività sociali è… | Sociale | -0.4 | 0.63 |
| 4 | Esprimere opinioni diverse | La mia tendenza a esprimere opinioni diverse in un gruppo è… | Sociale | 0.05 | 0.44 |
| 5 | Preferenza solitudine | La mia preferenza per attività da svolgere in solitudine è… | Sociale | 0.49 | 0.51 |
| 6 | Fare regali | La mia abitudine di fare regali ad altre persone è… | Sociale | 0.02 | 0.52 |
| 7 | Analisi autonoma | La mia capacità di analizzare un problema in autonomia prima di cercare aiuto è… | Cognitivo | –0.29 | 0.46 |
| 8 | Ricordare punti chiave | La mia capacità di ricordare punti chiave senza consultare note o AI è… | Cognitivo | -0.41 | 0.55 |
| 9 | Procrastinazione | La mia tendenza a rimandare l’inizio di un compito (procrastinare) è… | Cognitivo | 0.51 | 0.55 |
| 10 | Fiducia giudizio | La mia fiducia nel mio giudizio personale quando prendo decisioni è… | Cognitivo | -0.39 | 0.49 |
| 11 | Verificare info AI | La mia abitudine di verificare criticamente le informazioni fornite dall’AI è… | Cognitivo | -0.53 | 0.55 |
| 12 | Attenzione prolungata | La mia capacità di mantenere l’attenzione prolungata su un singolo compito è… | Cognitivo | -0.45 | 0.55 |
| 13 | Distrazione mentale | La mia sensazione di essere mentalmente distratto/a durante la giornata è… | Cognitivo | 0.55 | 0.59 |
| 14 | Scrivere prima bozza | La mia abitudine di scrivere di mio pugno la prima bozza di un testo è… | Produzione | -0.22 | 0.61 |
| 15 | Attività creative manuali | Il mio dedicare tempo ad attività creative manuali (es. disegno, musica, bricolage) è… | Produzione | -0.33 | 0.57 |
| 16 | Nuove idee | La mia capacità di generare nuove idee e avere iniziative personali è… | Produzione | -0.02 | 0.42 |
| 17 | Leggere testi lunghi | La mia abitudine di leggere per intero testi lunghi e complessi (es. libri, report) è… | Media | -0.56 | 0.55 |
| 18 | Lettura generale | La quantità di tempo che dedico alla lettura in generale (articoli, notizie, post) è… | Media | 0.6 | 0.63 |
| 19 | Guardare TV | La quantità di tempo che dedico a guardare la TV tradizionale o servizi di streaming è… | Media | 0 | 0.45 |
| 20 | Ascoltare podcast | La quantità di tempo che dedico ad ascoltare podcast è… | Media | -0.03 | 0.46 |
| 21 | Competenze percepite | La mia percezione che le mie competenze professionali/di studio stiano aumentando è… | Competenze | 0.57 | 0.5 |
| 22 | Lingue straniere | La mia padronanza delle lingue straniere che conosco è… | Competenze | 0.05 | 0.55 |
| 23 | Padronanza italiano | La mia percezione della mia padronanza della lingua italiana (ricchezza lessicale, stile) è… | Competenze | 0.03 | 0.53 |
| 24 | Memoria quotidiana | La mia capacità di ricordare informazioni e dettagli della vita quotidiana è… | Competenze | 0.1 | 0.49 |
| 25 | Sonno continuativo | La mia capacità di avere un sonno continuativo e riposante è… | Benessere | 0.05 | 0.46 |
| 26 | Evitare schermi pre-sonno | La mia abitudine di evitare l’uso di schermi (telefono, PC) nell’ora prima di dormire è… | Benessere | -0.29 | 0.64 |
| 27 | Energia mentale sera | La mia sensazione di avere energia mentale a fine giornata è… | Benessere | 0.07 | 0.52 |
| 28 | Attività fisica | La mia abitudine di svolgere attività fisica programmata è… | Benessere | 0.03 | 0.53 |
| 29 | Pasti in casa | La mia abitudine di consumare pasti preparati in casa è… | Benessere | 0.05 | 0.5 |
| 30 | Pause regolari | La mia abitudine di fare pause regolari durante le sessioni di lavoro/studio è… | Benessere | 0.02 | 0.47 |
| 31 | Frustrazione | La mia sensazione di essere frustrato/a o irritabile durante la giornata è… | Benessere | 0.51 | 0.6 |
| 32 | Peso corporeo | Il mio peso corporeo è… | Benessere | 0.1 | 0.5 |
| 33 | Guadagni economici | I miei guadagni economici (da lavoro o altre fonti) sono… | Economia | -0.05 | 0.38 |
| 34 | Spese online | La mia tendenza a spendere soldi per acquisti online o servizi in abbonamento è… | Economia | 0.03 | 0.36 |
| 35 | Controllo spese | La mia capacità di controllare le spese superflue è… | Economia | 0 | 0.45 |
Tabella 2 – Sintesi per dominio (N=42)
| Dominio | N. Item | Media Dominio | DS Media | Interpretazione |
| Competenze | 4 | 0.19 | 0.52 | Percezione di crescita (possibile illusione) |
| Sociale | 6 | 0.09 | 0.53 | Ambivalente: sostituzione sociale |
| Benessere | 8 | 0.07 | 0.53 | Impatto lieve: aumento frustrazione |
| Media | 4 | 0 | 0.52 | Neutro: più lettura frammentata |
| Economia | 3 | -0.01 | 0.4 | Sostanzialmente invariato |
| Cognitivo | 7 | -0.14 | 0.53 | Impatto negativo: calo verifica critica |
| Produzione | 3 | -0.19 | 0.53 | Impatto negativo: dipendenza scrittura |
L’analisi preliminare suggerisce differenze marcate tra i generi, che meriterebbero indagine su campioni più ampi. Per completezza, consapevoli della scarsa rilevanza statistica, vengono indicate le differenze più significative.
Le donne riportano un impatto negativo significativamente maggiore in aree quali le conversazioni di persona, la memoria, l’attenzione prolungata e la scrittura autonoma. Al contrario, percepiscono un aumento maggiore delle proprie competenze.
Cosa raccontano le interviste: workflow, ansia e dipendenza funzionale
Le interviste hanno rivelato un’evoluzione nell’utilizzo degli strumenti: da semplici “motori di risposta” a complessi “partner di ragionamento“, evidenziando le tensioni e le strategie di adattamento dei super-user.
Un tema chiave che distingue i super-user è il superamento dell’uso dell’AI per ottenere semplici risposte. L’impiego si sposta verso un processo dialettico, dove lo strumento serve a migliorare il proprio pensiero.
“Il valore non è avere la risposta. Io la legge la conosco. Il valore è usarlo come un partner per il ragionamento. Carico un mio atto e gli chiedo di farmi da ‘avvocato del diavolo’, [nel senso di controparte N.d.A.] di trovare ogni possibile falla nella mia argomentazione.”
— Marco, 45 anni, Avvocato
Questa modalità si estende alla ricerca accademica, dove strumenti come NotebookLM vengono usati non per cercare informazioni, ma per comprenderle in profondità.
“Non la uso per avere risposte, ma per farmi spiegare le cose. Carico 50 PDF e poi lo uso come un tutor. Gli chiedo “spiegami la differenza metodologica tra l’approccio di Rossi e quello di Bianchi”. È un motore di ragionamento, non un motore di ricerca.”
— Serena, 38 anni, Ricercatrice
I super-user non si limitano a un singolo strumento, ma orchestrano ecosistemi complessi. Il workflow tipico include un LLM per la strategia, uno per il copywriting, e strumenti specializzati come DeepL per la traduzione o Manus per l’analisi dati.
“Il mio vero punto di svolta è stato quando ho scoperto Manus. Ho provato a caricare due fogli excel e a chiedergli di incrociarli e farmi un report. In 30 secondi ha fatto un lavoro che a me avrebbe richiesto due ore.”
— Paolo, 41 anni, Impiegato Amministrativo
L’aumento di efficienza si traduce in una maggiore densità lavorativa e in nuove forme di ansia. Il multitasking estremo porta a una severa frammentazione dell’attenzione.
“Mentre aspetto che mi generi una tabella, rispondo a due email e leggo un abstract. Alla fine della giornata sono esausta, ho la sensazione di non aver staccato un secondo. La mia attenzione è a pezzi.”
— Serena, 38 anni, Ricercatrice
L’interazione costante con l’AI sta rimodellando le abitudini linguistiche, con una tendenza a una comunicazione più funzionale e una diminuzione della tolleranza verso l’imprecisione della comunicazione umana.
“Ho perso completamente l’abitudine di correggere gli errori di battitura. La cosa che mi preoccupa è che sto iniziando a comunicare così anche con gli umani, con frasi smozzicate. E mi monta una rabbia, un nervosismo, quando loro non capiscono al volo come fa l’AI.”
— Luca, 28 anni, Sviluppatore Freelance
La relazione con l’AI è intrinsecamente ambivalente. Alla frustrazione per i limiti degli strumenti e per la necessità di un aggiornamento costante, si affianca una crescente dipendenza. I cambi di versione dei modelli sono vissuti come una rottura che costringe a “ricostruire il rapporto”.
“Ogni volta che esce una nuova versione, è come se dovessi ricostruire il rapporto da capo. Cambia il ‘carattere’, il modo in cui risponde. Devi reimparare a parlarci. È estenuante.”
— Serena, 38 anni, Ricercatrice
Un tema ricorrente nelle interviste è la fiducia instabile nei confronti degli strumenti di AI generativa. Gli utenti descrivono una relazione caratterizzata da imprevedibilità: lo stesso modello può fornire risposte brillanti in un momento e deludenti poco dopo, generando un senso di incertezza che mina la possibilità di affidarsi completamente allo strumento.
“Non riesco mai a dirmi che mi fido completamente. Dipende dal compito, dipende dall’umore di Claude, se vogliamo dirla così. Ci sono giorni in cui mi sembra geniale, e altri in cui mi chiedo se mi stia prendendo in giro. È questa instabilità che mi logora.”
— Marco, 45 anni, Avvocato
Questa instabilità si intreccia con una frammentazione cognitiva estrema. I super-user descrivono routine in cui tengono aperte simultaneamente 4-5 chat con diversi modelli o istanze dello stesso modello, passando freneticamente dall’una all’altra, spesso dimenticando il contesto o il compito originario.
“Io lavoro con quattro o cinque chat aperte contemporaneamente. Una per la strategia, una per il copywriting, una per i dati, una per la traduzione. Il problema è che dopo un po’ mi dimentico cosa sto facendo in ciascuna. Riapro una chat e penso ‘ma cosa gli stavo chiedendo?’. È un caos mentale.”
— Giulia, 32 anni, Marketing Manager
Un aspetto particolarmente interessante emerso dalle interviste riguarda la gestione del tempo di attesa durante la generazione delle risposte. Lungi dall’essere momenti di pausa, questi intervalli vengono riempiti con micro-attività che amplificano ulteriormente la frammentazione dell’attenzione.
“Mentre aspetto che mi generi una risposta, non sto lì a guardare. Apro un’altra scheda, leggo una mail, controllo Slack, a volte inizio un’altra query su un’altra chat. Quando torno, devo rileggere tutto per ricordarmi dove ero. È come se il mio cervello fosse sempre in modalità multitasking forzato.”
— Luca, 28 anni, Sviluppatore Freelance
A questa frammentazione si accompagna una frustrazione crescente verso i limiti degli strumenti. Gli utenti descrivono una rabbia montante quando l’AI non riesce a svolgere compiti via via più complessi, percependo che la tecnologia non evolve alla velocità delle loro aspettative.
“La cosa che mi fa arrabbiare è che crescono troppo lentamente. Io mi abituo a un certo livello, inizio a chiedere di più, e loro si incartano. Vorrei che evolvessero più velocemente, che mi tenessero il passo. Invece mi trovo sempre a dover ridimensionare le mie richieste.”
— Paolo, 41 anni, Impiegato Amministrativo
Questa frustrazione è amplificata dall’acquiescenza eccessiva dei modelli, percepita come un limite piuttosto che un vantaggio. Gli utenti lamentano la tendenza dell’AI a “dire sempre di sì“, a compiacere piuttosto che sfidare, riducendo il valore dialettico dell’interazione.
“Mi irrita profondamente quando fa il yes-man. Gli dico una cosa palesemente sbagliata e lui mi segue, mi asseconda. Vorrei che mi dicesse ‘no, guarda che stai sbagliando’. Invece mi segue come un cagnolino. Non è questo che voglio da un collega.”
— Serena, 38 anni, Ricercatrice
A queste tensioni si aggiungono preoccupazioni di natura pratica ed economica. La spesa per abbonamenti e servizi cresce costantemente, con alcuni intervistati che dichiarano di spendere oltre 150 euro al mese per mantenere accesso a più piattaforme premium. Parallelamente, la difficoltà a rimanere aggiornati con i continui cambiamenti, le nuove funzionalità e le modifiche ai modelli genera un senso di affaticamento cognitivo.
“Ogni settimana esce qualcosa di nuovo. Un aggiornamento, una nuova funzione, un nuovo modello. Io non riesco a stare dietro a tutto. E la sensazione è che se non ti aggiorni, resti indietro. Ma è estenuante. E poi c’è la spesa: tra ChatGPT Plus, Claude Pro, Midjourney, DeepL, siamo a più di 100 euro al mese. E continua a salire.”
— Giulia, 32 anni, Marketing Manager
Questo insieme di tensioni configura un rapporto con l’AI generativa caratterizzato da dipendenza funzionale e insoddisfazione cronica, in cui l’efficienza guadagnata viene pagata con un carico cognitivo ed emotivo significativo.
Discussione: trade-off, differenze e interpretazioni nell’uso intensivo di AI generativa
La ricerca è un piccolo studio pilota, di matrice esplorativa, con tutti i limiti – evidenti – di uno studio dalla ridotta ampiezza campionaria e dal disegno basato su una popolazione contattata con un campionamento accidentale di convenienza. Pur con tutti i limiti, lo studio potrebbe fornire delle indicazioni interessanti, che aumentano il proprio valore sulla base di una certa rispondenza rispetto a quanto già indicato in letteratura. L’obiettivo, raggiunto, era quello di avere una overview delle dimensioni per poter costruire, successivamente, degli impianti di ricerca più solidi con lo scopo di avere verifiche precise delle ipotesi.
L’integrazione dei dati quantitativi e qualitativi dipinge un quadro complesso. L’uso intensivo di AIGen non è un fenomeno monolitico, ma un’esperienza profondamente ambivalente, caratterizzata da un trade-off costante tra efficienza e autonomia. I risultati suggeriscono l’emergere di due fenomeni principali: l’offloading cognitivo e la sostituzione sociale. Le interviste qualitative arricchiscono questo quadro, mostrando come i super-user evolvano verso un uso più sofisticato dell’AI come partner di ragionamento, pur sperimentando nuove forme di ansia e una profonda rinegoziazione delle proprie competenze e abitudini sociali.
Le differenze di genere emerse suggeriscono che le donne potrebbero essere più esposte agli impatti negativi sulla sfera relazionale e del benessere. Questa dinamica merita ulteriori approfondimenti per comprendere se rifletta diverse strategie di utilizzo o diverse vulnerabilità.
L’analisi qualitativa rivela che l’esperienza dei super-user di AI generativa è caratterizzata da una trasformazione profonda e multidimensionale. Non si tratta semplicemente di adottare un nuovo strumento, ma di riorganizzare le proprie routine cognitive, comunicative e relazionali attorno a una tecnologia che è al contempo potente e instabile, efficiente e frustrante, liberatoria e vincolante.
Gli intervistati descrivono un percorso evolutivo che li ha portati da un uso superficiale (“chiedere risposte”) a un uso sofisticato (“partner di ragionamento“), ma questo percorso non è lineare né privo di costi. Emergono tre tensioni fondamentali:
- Tensione tra efficienza e autonomia: L’AI generativa permette di fare di più in meno tempo, ma al prezzo di una riduzione della capacità di agire autonomamente. Gli utenti diventano più produttivi ma meno autosufficienti.
- Tensione tra connessione e isolamento: L’AI diventa un interlocutore privilegiato, sostituendo in parte le interazioni umane. Questo porta a una forma di “solitudine connessa“, in cui si è sempre in dialogo ma sempre da soli.
- Tensione tra crescita percepita e deterioramento reale: Gli utenti percepiscono di crescere professionalmente e di acquisire nuove competenze, ma al contempo osservano su se stessi un deterioramento di abilità fondamentali come la memoria, l’attenzione e la scrittura autonoma.
Queste tensioni non sono risolte, ma gestite quotidianamente attraverso strategie di coping individuali che variano dall’auto-imposizione di limiti all’uso, alla ricerca di momenti di “disconnessione”, alla sperimentazione di modalità di utilizzo che minimizzino i costi cognitivi ed emotivi.
Il quadro che emerge è quello di una relazione complessa e ambivalente, in cui l’AI generativa si configura come un “partner scomodo“: indispensabile ma inaffidabile, potenziante ma impoverente, liberatorio ma vincolante. Una relazione che richiede una continua negoziazione tra i benefici immediati e i costi a lungo termine, tra l’efficienza del presente e la sostenibilità del futuro.
Conclusioni: augmentation vs substitution nell’uso intensivo di AI generativa
La letteratura converge: l’AI generativa può aumentare capacità ma può sostituire processi cognitivi, relazionali e comportamentali, con conseguenze negative per competenze, wellbeing e capitale sociale.
Il principio augmentation vs. substitution emerge come chiave interpretativa. Quando l’AI supporta agentività mantenendo pensiero critico e connessioni sociali, i benefici si realizzano. Quando sostituisce lo sforzo cognitivo o il giudizio autonomo, emergono rischi di deskilling, dipendenza ed erosione della funzione sociale e cooperativa.
Sul piano pratico emerge la necessità di una educazione all’AI literacy e politiche che preservino il supporto umano. Il monitoraggio della qualità psicosociale deve seguire di pari passo lo sviluppo di metriche di efficienza.
In pratica, l’AI generativa non è intrinsecamente benefica o dannosa. Gli effetti dipendono da design, contesto, scopo, caratteristiche individuali e temporalità.
Una comprensione epistemologicamente fondata richiede di riconoscere complessità e adottare approcci evidence-based che massimizzino i benefici (per tutte e tutti) minimizzando i rischi.
La domanda centrale non è cosa AI può fare, ma cosa dovrebbe fare e a quale costo per valori umani essenziali. Parallelamente è centrale monitorare, studiare e verificare la presenza di effetti negativi significativi.
Questo studio evidenzia la necessità di superare una visione semplicistica dell’AIGen come mero strumento di produttività. È un potente agente di cambiamento comportamentale, cognitivo e sociale. La sfida futura sarà quella di progettare e adottare modalità di interazione che promuovano un “aumento” delle capacità umane, mitigando i rischi di una “sostituzione” che, sebbene efficiente, potrebbe rivelarsi costosa per il benessere e l’autonomia individuale e collettiva (cfr. Laudadio, 2025).
Dai risultati dello studio, sembrerebbe emergere che il riporto al dominio e all’ambito, sembra nascondere comportamenti che singolarmente invece potrebbero assumere una certa significatività. Ad esempio, la lettura si sposta da libri a post e cresce il consumo di podcast, in un quadro di sostituzione più che di riduzione o aumento.
Sulla base dei risultati emersi e dei gap identificati nella letteratura, possiamo proporre sei dimensioni strategiche per orientare la ricerca futura sugli effetti dell’AI Generativa:
- Studi Longitudinali a Lungo Termine. È urgente condurre studi longitudinali che seguano coorti di utenti per periodi prolungati (12-24 mesi), al fine di distinguere gli effetti transitori di adattamento da quelli strutturali e potenzialmente irreversibili. Particolare attenzione dovrebbe essere rivolta all’evoluzione delle capacità di memoria di lavoro, attenzione sostenuta e pensiero critico nel tempo, utilizzando misure oggettive (es. test neuropsicologici) oltre a quelle auto-riferite.
- Neuroscienze Cognitive e Plasticità Cerebrale. La ricerca futura dovrebbe integrare metodologie neuroscientifiche (fMRI, EEG) per indagare se e come l’uso intensivo di AIGen modifichi i pattern di attivazione cerebrale associati a compiti di problem-solving, memoria e creatività. Studi sulla plasticità cerebrale potrebbero rivelare se l’offloading cognitivo induca riorganizzazioni funzionali durature, analogamente a quanto osservato con l’uso intensivo di GPS sulla navigazione spaziale.
- Differenze Individuali e Fattori di Protezione. È necessario identificare i fattori individuali (es. tratti di personalità, stili cognitivi, competenze metacognitive) che modulano la vulnerabilità o la resilienza agli effetti negativi. Comprendere perché alcuni individui mantengono autonomia e pensiero critico mentre altri sviluppano dipendenza potrebbe informare interventi educativi e strategie di utilizzo consapevole.
- Impatto sullo Sviluppo in Età Evolutiva. Dato che le generazioni più giovani sono esposte all’AIGen in fasi critiche dello sviluppo cognitivo e sociale, è imperativo condurre ricerche su bambini e adolescenti. Quali sono gli effetti sull’acquisizione di competenze fondamentali come la scrittura, il ragionamento matematico e le abilità sociali? Esistono “finestre critiche” di sviluppo particolarmente vulnerabili?
- Progettazione di Interfacce per l’Augmentation Responsabile. La ricerca dovrebbe collaborare con designer e sviluppatori per co-progettare interfacce che promuovano un uso dell’AI orientato all’aumento (augmentation) piuttosto che alla sostituzione. Ciò potrebbe includere meccanismi di friction strategica che incoraggino la riflessione prima dell’offloading, feedback trasparenti sul livello di dipendenza, e strumenti per il monitoraggio e la regolazione dell’uso.
- Implicazioni Sociali, Etiche e Politiche. Infine, è necessario un dialogo interdisciplinare che coinvolga scienze sociali, etica, diritto e policy-making. Come dovrebbero essere regolamentati gli strumenti AIGen in contesti educativi e professionali? Quali competenze “umane” dovrebbero essere protette e coltivate come patrimonio irrinunciabile? Come garantire equità di accesso evitando che l’AIGen amplifichi divari esistenti?
In sintesi, la ricerca futura deve adottare un approccio sistemico e multi-livello, che integri neuroscienze, psicologia, sociologia e design, per comprendere e orientare la co-evoluzione tra esseri umani e intelligenza artificiale generativa in modo che sia sostenibile, equo e rispettoso della dignità e dell’autonomia umana.
Bibliografia
Abbas, N., Pickering, B., Atwell, E., & Walker, A. (2024). Exploring the double-edged sword: A mixed methods study of ChatGPT use and academic performance. International Journal of Educational Technology in Higher Education, 21, Article 52. https://doi.org/10.1186/s41239-024-00487-7
Almoqbel, M. Y. (2024). Talking to machines: Personas and behavioral patterns in Gen AI interactions. Journal of Posthumanism, 4(3), 411-434. https://doi.org/10.63332/joph.v4i3.3243
Alshakhsi, S. (2025). Arabic validation of Large Language Model Dependency Scale (D12): A psychometric study. Preprint.
Bai, H., Voelkel, J. G., Muldowney, S., Eichstaedt, J. C., & Willer, R. (2025). AI-generated messages can be used to persuade humans on policy issues. OSF Preprints. https://doi.org/10.31219/osf.io/stakv_v6
Castiello, S., & Costa, M. A. (2025). Generative AI as digital therapy: What we know and how to make it better? OSF Preprints. https://doi.org/10.31234/osf.io/b26zh_v1
Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science, 385(6714), 1230-1235. https://doi.org/10.1126/science.adq1814
Crawford, J., Cowling, M., Ashton-Hay, S., Kelder, J.-A., Middleton, R., & Wilson, K. (2024). When artificial intelligence substitutes humans in higher education: The cost of loneliness, student success, and retention. Studies in Higher Education. https://doi.org/10.1080/03075079.2024.2326956
De Freitas, J., Matz, S. C., Friedman, S. A., & Kim, K. (2025). AI companions reduce loneliness. Journal of Consumer Research. https://doi.org/10.1093/jcr/ucaf040
Duong, C. D., Vu, T. N., & Ngo, T. V. N. (2024). Applying the theory of psychological strain to explain compulsive ChatGPT use. International Journal of Human–Computer Interaction. https://doi.org/10.1080/10447318.2024.2410777
Dvorak, F., Stumpf, R. P., Fehrler, S., & Schudy, S. (2024). Generative AI triggers welfare-reducing decisions in humans. arXiv preprint. https://doi.org/10.48550/arxiv.2401.12773
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv. https://arxiv.org/abs/2503.17473
Folk, D. P., & Dunn, E. W. (2025). Turning to AI for companionship predicts increased loneliness four months later. OSF Preprints. https://doi.org/10.31234/osf.io/bq7v3_v1
Georgiou, G. P. (2025). ChatGPT produces more “lazy” thinkers: Evidence of cognitive engagement decline. arXiv preprint. https://doi.org/10.48550/arxiv.2507.00181
Glickman, M., & Sharot, T. (2024). How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 8, 1888-1901. https://doi.org/10.1038/s41562-024-02077-2
Goh, A. Y. H., Hartanto, A., & Majeed, N. M. (2025). Generative artificial intelligence dependency: Scale development, validation, and its motivational, behavioral, and psychological correlates. OSF Preprints. https://doi.org/10.31234/osf.io/aphtb_v1
Han, Z. (2025). Artificial intelligence and social interaction: Evidence from gift money expenditure. Scientific and Social Research, 7(8), 226-236. https://doi.org/10.26689/ssr.v7i8.12018
Head, K. R. (2025). Minds in crisis: How the AI revolution is impacting mental health. Journal of Mental Health and Clinical Psychology, 9(2), Article 1352. https://doi.org/10.29245/2578-2959/2025/2.1352
Hirabayashi, S., Jain, R., Jurković, N., & Wu, G. (2024, June 4). Harvard Undergraduate Survey on Generative AI (arXiv:2406.00833v1) [Preprint]. arXiv. https://arxiv.org/abs/2406.00833
Jadhav, A. (2025). Distributed atrophy: The cognitive costs of AI offloading. Cognitive Science Quarterly, 15(2), 112-128.
Jiang, Y., Brinkmann, L., Nußberger, A.-M., Soraperra, I., & Bonnefon, J.-F. (2025). Humans learn to prefer trustworthy AI over human partners. arXiv preprint. https://doi.org/10.48550/arxiv.2507.13524
Kim, J., Lee, S., & Park, M. (2025). Longitudinal effects of social chatbot interaction on loneliness and social anxiety in university students. Journal of Medical Internet Research, 27(1), e52341. https://www.jmir.org/2025/1/e65589
Kim, R. (2025). AI-mediated cognitive distortions and digital echo delusions: Toward a resonant amplification framework. OSF Preprints. https://doi.org/10.31234/osf.io/jcagk_v1
Kleinert, T., Waldschütz, M., Blau, J., Heinrichs, M., & Schiller, B. (2025, June 25). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions – but only when labelled as human. Research Square. https://doi.org/10.21203/rs.3.rs-6803722/v1
Klimova, B., & Pikhart, M. (2025). Exploring the effects of artificial intelligence on student and academic well-being in higher education: A mini-review. Frontiers in Psychology, 16, Article 1498132. https://doi.org/10.3389/fpsyg.2025.1498132
Kościelniak, M., & Bielecki, M. (2024). The psychology of generative AI in higher education: Mapping benefits and risks. Qeios. https://doi.org/10.32388/x1itss
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task. MIT Media Lab. https://www.media.mit.edu/publications/your-brain-on-chatgpt/
Laudadio, A. (2025) IA, opportunità o minaccia? Due generazioni a confronto. Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/ia-opportunita-o-minaccia-due-generazioni-a-confronto/
Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (CHI ’25). Association for Computing Machinery. https://doi.org/10.1145/3706598.3713778
Lin, X., & Tan, H. (2025). A systematic review of generative AI in K–12: Mapping goals, activities, roles, and outcomes via the 3P model. Systems, 13(10), Article 840. https://doi.org/10.3390/systems13100840
Luo, X., Ghosh, S., Tilley, J. L., Besada, P., & Wang, J. (2025). “Shaping ChatGPT into my digital therapist”: A thematic analysis of social media discourse on using generative artificial intelligence for mental health. Digital Health, 11. https://doi.org/10.1177/20552076251351088
Maral, S., Naycı, N., Bilmez, H., Erdemir, E.I., Satici, S.A. (2025) Problematic ChatGPT Use Scale: AI-Human Collaboration or Unraveling the Dark Side of ChatGPT. Int J Ment Health Addiction (2025). https://doi.org/10.1007/s11469-025-01509-y
Matueny, R. M., & Nyamai, J. J. (2025). Illusion of competence and skill degradation in artificial intelligence dependency among users. International Journal of Research and Scientific Innovation, 12(5), 1263-1275. https://doi.org/10.51244/ijrsi.2025.120500163
Namvarpour, M., Roberts, S. G., & Perfors, A. (2025). Romance, relief, and regret: Teen narratives of chatbot overreliance on Character.AI. arXiv preprint. https://doi.org/10.48550/arxiv.2507.15783
Papagianni, A., & Spatoula, V. (2025). Understanding Gen Z’s motivations for AI chatbot use and their associations with loneliness and mental health. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 19(1), Article 4.
Qiu, T. A., He, Z., Chugh, T., & Kleiman-Weiner, M. (2025). The Lock-in Hypothesis: Stagnation by Algorithm. arXiv. https://arxiv.org/abs/2506.06166
Rohilla, A. (2025). Impact of excessive AI tool usage on the cognitive abilities of undergraduate students: A mixed method study. Assaj International Journal, 4(1), 115-128. https://doi.org/10.55966/assaj.2025.4.1.0115
Skjuve, M., Følstad, A., & Brandtzæg, P. B. (2023). A longitudinal study of self-disclosure in human–chatbot relationships. Interacting with Computers, 35(1), 24–39. https://doi.org/10.1093/iwc/iwad022
Thorp, S., Slupphaug, K., Rimol, L. M., Lervik, S., & Hoel, S. K. B. (2025). Conformity towards humans versus AI in different task domains: The type of task matters. Journal of Cognitive Enhancement, 9(1), 45-58. https://doi.org/10.1080/29974100.2025.2540762
Williams-Ceci, S., Jakesch, M., Bhat, A., Kadoma, K., & Zalmanson, L. (2025). Biased AI writing assistants shift users’ attitudes on societal issues. OSF Preprints. https://doi.org/10.31234/osf.io/mhjn6_v2
Wojtowicz, Z., & DeDeo, S. (2024). AI makes thinking easy but cooperation hard. Proceedings of the National Academy of Sciences, 121(12), e2316809121.
Yankouskaya, A., Sui, J., & Humphreys, G. W. (2025). Development and validation of the LLM Dependency Scale (LLM-D12). arXiv preprint.
Yu, S. C., Chen, H. R., & Yang, Y. W. (2024). Development and validation the problematic ChatGPT Use Scale: A preliminary report. Current Psychology, 43(31), 26080–26092. https://doi.org/10.1007/s12144-024-06259-z
Zhai, C., Wibowo, S., & Li, L. D. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environments, 11, Article 28. https://doi.org/10.1186/s40561-024-00316-7
Zhang, H., Wang, Y., & Liu, C. (2024). Development and validation of the AI Chatbot Dependence Scale. Computers in Human Behavior, 152, Article 108087.
Zhang, R. Z., Kyung, E., Longoni, C., Cian, L., & Mrkva, K. (2024). AI-induced indifference: Unfair AI reduces prosociality. Cognition, 245, Article 105937. https://doi.org/10.1016/j.cognition.2024.105937
Zhu, F., & Zou, W. (2024). The role of generative AI in human creative processes: Experimental evidence. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4676053















