L’intelligenza artificiale è entrata a pieno titolo nella nostra vita relazionale e professionale. Non è più soltanto un supporto tecnico o produttivo: plasma linguaggio, tono, tempi e persino l’intenzione comunicativa.
Indice degli argomenti
IA e comunicazione: controllo e trasformazione dei messaggi
Usiamo sempre più spesso strumenti basati su IA per scrivere, rispondere, tradurre, riformulare. Basta pensare a quando su WhatsApp ci affidiamo al completamento automatico per rispondere più in fretta oppure chiediamo a ChatGPT di aiutarci a scrivere un messaggio “più professionale” o “meno freddo”. Piccole scorciatoie quotidiane, certo, ma che aprono una questione tutt’altro che banale: quando è una macchina ad aiutarci a comunicare, siamo ancora davvero noi?
Quando un messaggio è parzialmente o totalmente generato da un sistema, il controllo sul significato e sull’intento comunicativo può diventare meno lineare e trasparente, soprattutto nei contesti in cui la comunicazione è strettamente legata a ruoli di leadership, autorevolezza e riconoscimento professionale (Asif & Gouqing, 2024). Non a caso, anche il quadro regolatorio si sta muovendo in questa direzione: l’AI Act europeo individua nella trasparenza e nella tutela dei diritti fondamentali due principi cardine.
La vera domanda, quindi, non è soltanto se l’IA renda la comunicazione più efficace quanto come stia trasformando la gestione dei messaggi in termini di controllo, rappresentazione e coerenza con i valori organizzativi.
Integrare l’IA nei sistemi comunicativi
Una comunicazione efficace, chiara e coerente rappresenta un asset strategico per qualsiasi organizzazione: consente di allineare gli obiettivi, consolidare le relazioni interne ed esterne e migliorare le performance complessive. A conferma di questa centralità, si affermano oggi le tecnologie di AI-mediated communication (AI-MC): strumenti come chatbot, assistenti vocali ed editor testuali o visivi progettati per intervenire direttamente sulla forma e sul contenuto dei messaggi, per renderli più chiari, pertinenti e coerenti con il contesto. Queste soluzioni danno origine a una zona di integrazione crescente tra comunicazione umana e automatizzata in cui le competenze cognitive e relazionali si affiancano a capacità computazionali (Asif & Gouqing, 2024).
L’intelligenza artificiale, infatti, non si limita a supportare, ha un ruolo di mediatore attivo: semplifica lo scambio, migliora la comprensibilità e adatta il messaggio al contesto e all’interlocutore.
Il valore di questi strumenti non si esaurisce nell’efficienza tecnica; risiede nella loro integrazione all’interno di ecosistemi comunicativi progettati per valorizzare la sinergia tra intelligenza artificiale e competenze umane. In questa prospettiva, le organizzazioni sono chiamate a investire non solo in tecnologia ma anche in formazione continua e nello sviluppo di una cultura comunicativa consapevole in cui la collaborazione tra persone e IA sia realmente fluida, efficace e trasparente (Ateeq et al., 2024).
Aspettative e valutazioni nell’uso dell’IA nella comunicazione
Ma quali sono le aspettative e i giudizi delle persone rispetto all’uso dell’intelligenza artificiale nella comunicazione? Uno studio pubblicato sul British Journal of Psychology (Purcell et al., 2024) ha analizzato due variabili chiave: la trasparenza dell’uso (dichiarato vs. nascosto) e la prospettiva da cui viene osservato (se stesso vs. gli altri). L’indagine si fonda sul paradigma della psicologia normativa secondo cui le norme sociali e morali, ovvero ciò che riteniamo accettabile o appropriato, influenzano i comportamenti, in particolare nelle situazioni che implicano una valutazione etica.
I risultati mostrano una dinamica interessante: le persone tendono a essere più indulgenti verso l’uso dell’IA da parte degli altri rispetto al proprio.
Non solo si aspettano che siano gli altri a utilizzarla più frequentemente, ma ne giudicano l’impiego con maggiore tolleranza. Questo doppio standard, noto in psicologia come asimmetria self–other, riflette il bisogno di preservare un’immagine di sé coerente con ideali di autenticità e integrità morale (Vazire, 2010). L’uso non dichiarato dell’IA viene generalmente considerato meno accettabile rispetto a quello trasparente ma solo quando le due modalità sono messe a confronto diretto. In assenza di confronto, il giudizio morale appare più flessibile e sensibile al contesto. Questo suggerisce che le valutazioni sull’uso dell’intelligenza artificiale non sono rigide ma vengono modulate a seconda delle circostanze e del punto di vista.
La normalizzazione dell’IA nella comunicazione
L’intelligenza artificiale quando integrata con competenze umane agisce come un mediatore capace di rafforzare la qualità dello scambio comunicativo, un effetto particolarmente evidente quando l’IA viene applicata in sinergia con strategie comunicative già consolidate. Strumenti come chatbot per il customer care, assistenti virtuali, traduttori automatici o editor testuali intelligenti non sostituiscono l’interazione umana, ma la rendono più accessibile, fluida e scalabile (Asif & Gouqing, 2024).
Il rapporto con queste tecnologie, comunque, non è solo tecnico; è profondamente legato alla percezione soggettiva e sociale del loro utilizzo. Le persone tendono a valutare con maggiore severità il proprio uso dell’IA rispetto a quello altrui perché temono che affidarsi a strumenti automatizzati possa compromettere la propria immagine di autenticità o affidabilità. Di conseguenza, almeno a livello dichiarativo, ne prendono le distanze pur continuando a utilizzarli. Ma questo non significa che non li apprezzino, anzi.
Chi ha familiarità con strumenti come ChatGPT o software di editing vocale tende a considerarli più accettabili, soprattutto quando non sono percepiti come distorsivi o incoerenti rispetto alla propria identità comunicativa. In altre parole, più conosciamo l’IA, più ne normalizziamo l’uso. Un altro fattore chiave è la personalizzazione: gli strumenti che sanno adattare tono, contenuto e stile al contesto e all’interlocutore sono percepiti come più efficaci rispetto a quelli che si limitano a produrre risposte generiche. È un’indicazione chiara anche per chi sviluppa queste tecnologie: non basta generare contenuti, serve la capacità di interpretarli, modularli e restituirli in modo sensibile e mirato (Purcell et al., 2024).
Comunicazione e percezione algoritmica
L’intelligenza artificiale ha il potenziale di ridefinire norme sociali e morali: permette di intervenire sulla comunicazione senza violare apertamente convenzioni sociali ma anche di celare l’intervento dell’algoritmo dietro una facciata apparentemente “naturale”. Per questo, comprendere quando e in che misura l’uso dell’IA sia percepito come accettabile (e con quale grado di trasparenza) serve non solo a orientare la regolazione ma anche per progettare strumenti realmente sostenibili e socialmente legittimati.
Sebbene il quadro normativo sia in evoluzione, ogni intervento regolatorio deve confrontarsi con la complessità delle percezioni sociali. Le persone vogliono sapere se stanno interagendo con un sistema automatizzato e la loro valutazione dipende da chi sta usando lo strumento, in quale contesto e con quale scopo. Il giudizio morale, insomma, è dinamico e contestuale: si modula in funzione delle aspettative, delle esperienze pregresse e delle norme implicite che regolano le interazioni comunicative (Purcell et al., 2024; Ateeq et al., 2024).
La questione, allora, non è soltanto se sia lecito ricorrere all’intelligenza artificiale, quanto se questo impiego consenta di preservare coerenza, integrità e responsabilità nell’espressione individuale e organizzativa. Maggiore è la familiarità con questi strumenti, maggiore sarà la capacità di valutarne gli effetti e di adottarli in modo consapevole, etico e orientato al valore.
La sfida oggi è costruire sistemi che sappiano essere umani quanto basta per comunicare davvero.
Bibliografia
Asif, M., & Gouqing, Z. (2024). Innovative application of artificial intelligence in a multi-dimensional communication research analysis: a critical review. Discover Artificial Intelligence, 4(1), 37.
Ateeq, A., Milhem, M., Alzoraiki, M., Dawwas, M. I. F., Ali, S. A., & Yahia Al Astal, A. (2024). The impact of AI as a mediator on effective communication: enhancing interaction in the digital age. Frontiers in Human Dynamics, 6, 1467384.
Purcell, Z. A., Dong, M., Nussberger, A. M., Köbis, N., & Jakesch, M. (2024). People have different expectations for their own versus others’ use of AI‐mediated communication tools. British Journal of Psychology.
Vazire, S. (2010). Who knows what about a person? The self–other knowledge asymmetry (SOKA) model. Journal of personality and social psychology, 98(2), 281.