Le persone e le istituzioni a livello globale sono alle prese con le conseguenze dei testi scritti dall’AI: gli insegnanti vogliono sapere se il lavoro degli studenti riflette il loro studio e impegno, i consumatori vogliono sapere se una pubblicità è stata scritta da un essere umano o da una macchina, così come editori, produttori di musica e molti altri.
Ma come si fa a rilevare in modo affidabile se un testo è stato generato dall’IA? E, soprattutto, è davvero un processo semplice e immediato?
Sono in molti a chiederselo: infatti, anche quando tutti gli indizi sembrano indicare che un testo sia stato scritto dall’Intelligenza Artificiale, emerge che possono essere ricondotti a caratteristiche applicabili anche alla scrittura umana.
I primi testi generati dall’Intelligenza Artificiale erano molto più evidenti. Innanzitutto, spesso c’erano errori; oggi, invece, il lavoro generato dall’IA è più raffinato.
Indice degli argomenti
Indizi linguistici: perché non bastano a distinguere umano e macchina
In un suo recente editoriale, Elaine Moore del Financial Times mette in evidenza come quelli che in molti pensano siano tratti della scrittura dell’IA siano invece presenti anche nella narrazione umana. Tra questi l’uso di parole come “sottolineato”, quello dei trattini oppure l’uso di tre esempi consecutivi, ampiamente frequenti anche nella produzione degli esseri umani.
A ciò si aggiunge il fatto che anche i fornitori di strumenti di rilevamento dell’Intelligenza Artificiale riconoscono che, poiché i modelli di IA si stanno evolvendo e la scrittura umana varia ampiamente, non possono garantire l’accuratezza. Secondo l’editorialista, che lancia una interessante riflessione, questo accade anche perché si ritiene che le persone abbiano una capacità innata di percepire la profondità umana nelle parole, idea che spesso è lontana dalla realtà.
Le statistiche che mostrano quanto sbagliamo nel riconoscere l’AI
A dare rinforzo alle riflessioni di Moore ci sono anche alcune recenti indagini, che confermano in modo eclatante quanto sia complesso distinguere la scrittura umana da quella dell’IA, in molti contesti.
Il sondaggio Deezer-Ipsos: la musica “AI” passa inosservata
Un sondaggio della multinazionale di ricerca Ipsos condotto su 9.000 persone e pubblicato a novembre 2025 ha rilevato che il 97% delle persone non riusciva a distinguere una canzone generata dall’intelligenza artificiale da una umana.
Lo studio è stato condotto coinvolgendo 9.000 persone in otto Paesi da Ipsos su commissione di Deezer, la piattaforma francese di streaming multimediale che consente l’ascolto on demand di 90 milioni di brani, oltre che di podcast. Deezer ha comunicato che ogni giorno riceve più di 50 mila tracce generate interamente con l’AI, pari a circa il 34% del totale.
Il sondaggio è stato somministrato a persone di età compresa fra 18 e 65 anni provenienti da Stati Uniti, Canada, Brasile, Regno Unito, Francia, Paesi Bassi, Germania, Giappone. Di questi, circa 6.700 erano utenti di servizi di musica in streaming e quindi avevano un minimo di familiarità con l’argomento.
È stato chiesto agli intervistati di ascoltare tre canzoni indicando quale o quali fossero state create interamente usando l’intelligenza artificiale: di queste, due erano state create con l’AI e una no. Il 97% non ha superato il test, il 71% si è detto sorpreso del risultato e la maggioranza assoluta degli intervistati ha dichiarato che l’impossibilità di distinguere musica “vera” e fatta con l’AI mette a disagio.
L’indagine ha messo in evidenza che gli intervistati conoscono gli strumenti di intelligenza artificiale e il 70% di essi li usa o li ha usati; tuttavia è stato per loro molto difficile comprendere e individuare il ruolo dell’IA nei brani musicali usati per il test.
Quasi metà del campione crede che l’IA possa aiutarli a scoprire più musica ed è convinto che avrà un ruolo sempre più importante nel processo creativo; il 51% pensa però che l’uso di questi strumenti porterà a un abbassamento della qualità delle canzoni e il 64% teme che possa provocare un declino creativo.
Degli utenti di musica in streaming, il 58% pensa di non essersi mai imbattuto in canzoni create con l’Intelligenza Artificiale sulle piattaforme, mentre uno su quattro dice di non averne la certezza. Due intervistati su tre fra gli utenti di piattaforme di streaming hanno comunque detto che ascolterebbero per curiosità canzoni create con l’intelligenza artificiale, ma il 45% desidera un filtro che la escluda dalle piattaforme e ben l’80% desidera sapere chiaramente quando l’IA è stata usata.
È stata anche formulata una domanda su cosa ne pensano gli intervistati riguardo all’addestramento dei sistemi di intelligenza artificiale necessario affinché producano musica, fatto tramite canzoni esistenti: il risultato è che il 65% pensa che non si debba usare materiale coperto da copyright.
Infine, il 70% è convinto che l’IA sia una minaccia alla sopravvivenza di artisti e autori e all’incirca la stessa percentuale di intervistati vuole che i pagamenti derivanti dallo streaming di musica fatta con l’AI siano più bassi di quelli dei pezzi composti da autori in carne e ossa.
Lo studio di Pittsburgh: poesie “AI” scambiate per umane
Un sondaggio dell’Università di Pittsburgh condotto nel 2024 su oltre 1.600 persone, a cui è stato chiesto di leggere poesie scritte da esseri umani e dall’intelligenza artificiale, ha rilevato che erano più propensi a indovinare che le poesie generate dall’intelligenza artificiale fossero state scritte da persone.
I ricercatori hanno detto di aver scoperto che le poesie generate dall’intelligenza artificiale venivano valutate più favorevolmente in termini di qualità quali ritmo e bellezza, e che ciò contribuiva alla loro errata identificazione come scritte da esseri umani.
I risultati suggeriscono che i partecipanti hanno utilizzato ipotesi e intuizioni condivise ma imperfette per differenziare l’intelligenza artificiale dalla poesia umana: la semplicità delle poesie generate dall’intelligenza artificiale potrebbe essere più facile da comprendere per i non esperti, portandoli a preferire la poesia generata dall’intelligenza artificiale e a interpretare erroneamente la complessità delle poesie umane come incoerenza generata dall’intelligenza artificiale.
Come funzionano i detector e perché non danno certezze assolute
Alcuni studi hanno dimostrato che le persone che utilizzano ampiamente gli strumenti di scrittura basati sull’Intelligenza Artificiale rilevano con più precisione i testi scritti da essa. Un gruppo di valutatori umani può addirittura superare le prestazioni degli strumenti automatizzati in un contesto controllato.
Tuttavia, tale competenza non è diffusa e il giudizio individuale può risultare incoerente. Per questo le istituzioni che necessitano di coerenza su larga scala si rivolgono quasi sempre ai rilevatori di testo automatizzati basati proprio sull’Intelligenza Artificiale.
Un approccio è quello di utilizzare l’intelligenza artificiale stessa per rilevare il testo scritto dall’IA: una volta raccolto un ampio corpus di scritti etichettati come scritti da esseri umani o generati dall’intelligenza artificiale, si addestra un modello per distinguere tra i due.
Una seconda strategia cerca invece segnali statistici nel testo, spesso in relazione al modo in cui specifici modelli di Intelligenza Artificiale generano il linguaggio, per valutare se è probabile che il testo sia generato dall’IA.
Infine, nel caso di testo generato da un sistema di intelligenza artificiale che incorpora una filigrana digitale o watermark, che consiste nell’inserimento di alcune informazioni all’interno di un file, il problema passa dal rilevamento alla verifica: diventa uno strumento più solido per accertare autore e provenienza di ciascun elemento.
Convivere con l’imperfezione: cosa cambia con modelli sempre più evoluti
Man mano che i generatori di testo basati sull’Intelligenza Artificiale diventano più potenti e le tecniche di evasione più sofisticate, è improbabile che i rilevatori acquisiscano un vantaggio duraturo.
Mentre la società si adatta all’intelligenza artificiale generativa, è probabile che perfezioneremo le norme sull’uso accettabile del testo generato da essa e miglioreremo le tecniche di rilevamento, ma alla fine dovremo imparare a convivere con il fatto che tali strumenti non saranno mai perfetti, sostiene Ambuji Tewari, docente di statistica alla Michigan University, in un suo recente contributo alla rivista The Conversation.
E restano aperte numerose domande: sappiamo quali strumenti di IA potrebbero essere stati plausibilmente utilizzati per generare il testo da attenzionare? Che tipo di accesso si ha a questi strumenti? Quanto testo abbiamo, un singolo testo o una raccolta di scritti raccolti nel tempo? Ciò che gli strumenti di rilevamento dell’intelligenza artificiale possono e non possono dirci dipende in modo critico dalle risposte a domande come queste.










