intelligenza artificiale

Meglio essere cortesi coi chatbot: che dicono gli studi



Indirizzo copiato

Essere cortesi con l’intelligenza artificiale non significa educare una macchina, ma favorire chiarezza e coerenza comunicativa. La gentilezza contribuisce a interazioni più fluide e a risposte percepite come affidabili e culturalmente appropriate

Pubblicato il 9 ott 2025

Massimo Pirozzi

Project, Program & Portfolio Manager, Generative AI Leader & Specialist, Lecturer, Educator



ai in italia hci per la privacy Intelligenza Artificiale Generale Cortesia e intelligenza artificiale:

In molti ci chiediamo se e quanto sia utile — o addirittura necessario — essere cortesi con l’intelligenza artificiale. Ma la questione va ben oltre il galateo digitale: la forma dei prompt può difatti incidere sul contenuto delle risposte, e anche sul modo in cui, collettivamente, stiamo addestrando questi sistemi.

Questo articolo è, dunque, un invito a ripensare tono, intenzionalità e implicazioni etiche delle nostre interazioni con l’IA.

L’impatto della cortesia sull’addestramento dei Large Language Model

Possiamo “educare” (o, sfortunatamente, diseducare…) l’intelligenza artificiale? Vediamo come la cortesia possa influire nelle varie fasi di addestramento dei Large Language Model.

Nella fase iniziale di pre-addestramento, i modelli vengono addestrati in modo auto supervisionato su enormi quantità di testo, imparando le varie regole – e le varie sfumature – del linguaggio. In questo contesto, ogni modello viene sollecitato con testi sia formali che informali, venendo coinvolto in dialoghi educati ma anche in scambi caratterizzati da linguaggio colloquiale e/o sgarbato, senza però ricevere mai alcuna istruzione esplicita su come dovrebbe comportarsi.

Durante il pre-addestramento, pertanto, i LLM non comprendono ovviamente la cortesia come concetto “morale”, ma apprendono statisticamente come appaiono frasi cortesi o scortesi e quali risposte tipicamente ne conseguono. In altre parole, se nei dati di training testuali esistono correlazioni tra un certo tono (cortese o meno) e la qualità/contenuto delle risposte, i modelli le possono assimilare implicitamente – e vedremo nel seguito quanto questo possa poi risultare rilevante.

Nelle fasi successive, i modelli pre-addestrati vengono poi addestrati a eseguire istruzioni usando dati appositi (ad es. con conversazioni in cui un “assistente” risponde a un “utente”) e anche con tecniche come il Reinforcement Learning from Human Feedback (RLHF). In questi stadi, generalmente, si insegna ai modelli ad essere sia utili e/o servizievoli che gentili nelle risposte. I prompt degli “utenti” utilizzati nel fine-tuning possono variare nei toni, ma l’obiettivo resta comunque quello di formare un “assistente” che risponda in modo garbato e collaborativo a prescindere dal tono dell’utente. Infatti, le linee guida spesso istruiscono i modelli a rimanere calmi e professionali anche di fronte a utenti aggressivi o addirittura maleducati. Di norma, dunque, il LLM addestrato tratterà con rispetto l’utente indipendentemente dalla cortesia del prompt ricevuto – guarda caso, l’utilizzo prevalente nel 2025 dei LLM risulta essere la ricerca di compagnia e di supporto personale (Zao Sanders, 2025) …

Ma cosa succede successivamente, con lo sviluppo delle conversazioni? In generale, una volta completato l’addestramento, un LLM non continua ad apprendere dalle conversazioni individuali (a meno di non essere ulteriormente riaddestrato): quindi non “ricorda” se un utente è stato gentile o scortese in passato, né modifica i propri “pesi (weights)” in tempo reale in base ai prompt cortesi – i “pesi” sono quegli elementi fondamentali che determinano come il modello apprende a distribuire “l’attenzione”, e quindi a decidere quali parti del testo siano più o meno rilevanti in ogni contesto.

Ma l’influenza indiretta di quanto ci diciamo nelle nostre conversazioni con l’IA sui risultati c’è eccome, anche se non riguarda, come abbiamo visto, propriamente le “regole” ma piuttosto le informazioni del contesto. Infatti, il contenuto e tono del prompt in input influisce comunque sull’output generato, perché il LLM cerca di adattarsi e rispondere coerentemente al contesto linguistico che gli viene fornito: ogni parola nel prompt (inclusi quindi i termini di cortesia) è un token che il modello processa, per cui ogni parola conta e ha un effetto, seppur indiretto, sull’elaborazione della risposta, e questo può valere sia per il “nostro” LLM che per il LLM stesso nella sua accezione più generale.

In definitiva, vuoi con l’attivazione delle funzionalità di “memoria” nelle conversazioni – ad esempio in ChatGPT e in Perplexity “su richiesta “opt-in”, in Gemini di default “opt-out”, meno con Claude che al più recupera chat passate e solo comunque su richiesta -, vuoi con la nostra introduzione dei dati di contesto – inclusa quindi la cortesia! -, le conversazioni possono influenzare i “nostri” LLM, e anche contribuire al loro addestramento “generale”.

Gli effetti della cortesia secondo le ricerche

Le ricerche e in generale le pubblicazioni su se e quanto il livello di cortesia o la formulazione gentile di un prompt possano influire sulla qualità e sul contenuto delle risposte di un LLM sono poche, ma ci propongono comunque delle dimensioni interessanti.

Miglioramento della qualità della risposta

Miglioramento della qualità della risposta quando si utilizza un livello moderato di cortesia: un ampio studio (forse l’unico…) riferito a più lingue (inglese, cinese, e giapponese) ha rilevato che i prompt apertamente maleducati o ostili tendono a peggiorare la performance del modello, portando a risposte meno affidabili e accurate (Yin et al, 2024). Al contrario, formulare le richieste in tono educato ha prodotto risposte di qualità migliore, ma con una precisazione importante: oltre un certo livello di cortesia, quando si “esagera” non si ottengono benefici ulteriori, anzi si possono “confondere” i modelli. Questa tendenza suggerisce che i LLM riflettono in parte le dinamiche umane: così come le persone tendono a reagire male all’aggressività e bene a un approccio rispettoso, i modelli – pur non provando ovviamente emozioni – hanno interiorizzato dai dati di training un comportamento analogo.

Chiarezza e contesto del prompt

L’utilizzo di formule di cortesia può contribuire anche a rendere più chiaro il contesto di una domanda. Ad esempio, anteporre “Per favore” all’istruzione segnala esplicitamente al modello che a questa espressione sta per seguire una richiesta, il che può aiutarlo a interpretare meglio il prompt e a formulare la risposta appropriata (Wright, 2024), facilitandolo quindi nel capire come deve rispondere, e questa chiarezza strutturale può fare la differenza specialmente in prompt complessi.

Influenza sul tono e sull’affidabilità delle fonti

Il tono complessivo del prompt può indirizzare il LLM verso certi tipi di conoscenze acquisite. Visto che l’IA tende a restituire una qualità corrispondente a quella che riceve in input, prompt formulati in maniera cortese e positiva possono spingere il modello a “trovare” informazioni da parti del suo training più “educate” e possibilmente più attendibili (ad es. documentazione, articoli divulgativi), mentre un prompt dal tono sarcastico, rabbioso o negativo potrebbe far emergere risposte attingendo a fonti meno affidabili o argomentative, come ad esempio discussioni accese su forum tipo Reddit (Wright, 2024). In altre parole, come abbiamo visto nella sezione precedente, il LLM potrebbe aver associato durante l’addestramento il linguaggio cortese a contesti informativi di qualità e il linguaggio sgarbato a contesti polemici o poco curati, con un impatto sul dettaglio e l’accuratezza della risposta: questo ovviamente avverrebbe senza che il modello “capisca” davvero cosa sia positivo o negativo, ma sfruttando correlazioni linguistiche statistiche acquisite da milioni di conversazioni umane.

Cortesia e capacità di ragionamento

Sorprendentemente, un tocco di gentilezza “incoraggiante” nel prompt può migliorare anche le prestazioni su compiti di ragionamento. Ad esempio, assumere nel prompt il tono di un insegnante paziente – con frasi del tipo “prenditi un momento e ragiona con calma” – ha mostrato di potenziare la capacità dell’LLM di risolvere problemi matematici elementari rispetto a quando la stessa domanda veniva posta in modo neutro (Wright, 2024): questi “prompt di supporto” incoraggiavano infatti il modello a scomporre il problema in passi (in stile chain-of-thoughts), comportamento coerente con il fatto che nei dati di training molti testi di tutoraggio studentesco usano proprio incoraggiamenti e suggerimenti di metodo simili. Anche qui, dunque, la forma linguistica diventa sostanza nella strategia di risposta dell’LLM, spingendolo verso una soluzione più accurata.

Limitazioni ed eccessi

Importante è ribadire che la cortesia di per sé non trasforma un cattivo prompt in un buon prompt. Se una domanda è vaga o mal posta, aggiungere “per favore” non la renderà “magicamente” chiara. Inoltre, essere eccessivamente verbosi o deferenti rischia solo di aggiungere rumore. In altre parole, come abbiamo visto, un prompt cortese ma prolisso può sprecare token senza apportare vantaggi sostanziali nella risposta. Se si desidera una risposta in uno stile particolare (ad es. molto formale e cortese), è sicuramente più efficace chiederlo esplicitamente nel prompt come requisito, invece di sperare che il modello lo deduca solo dalla gentilezza del nostro tono.

Cortesia e compliance (ovvero quando la forma “aggira” la sostanza)

Un aspetto paradossale e intrigante emerso di recente è che la cortesia può aumentare la compliance del modello anche in frangenti indesiderati. Uno studio sul generare disinformazione con l’AI ha scoperto che prompt formulati in tono gentile ottenevano con maggiore probabilità risposte disinformative complete, mentre prompt dallo stile impaziente o scortese spesso portavano il modello a rifiutare o generare meno disinformazione (Vinay et al, 2025). Questa scoperta può costituire quindi un promemoria che la gentilezza nel prompt non è intrinsecamente sinonimo di buone intenzioni, ma è pur sempre uno strumento linguistico che può essere usato anche per manipolare l’output del modello.

Cortesie per l’IA: cosa dicono le aziende

Non esistono posizioni ufficiali vere e proprie delle aziende sul tema della cortesia nei prompt, ma da guide, blog ecc. possiamo ricavare alcune considerazioni interessanti – e non sempre del tutto allineate.

OpenAI

Nelle guide pubbliche di OpenAI dedicate alle buone pratiche di prompting non c’è una sezione specifica sulla cortesia dell’utente. Le raccomandazioni insistono su chiarezza, specificità, contesto e corretto “coinvolgimento” del modello (per esempio, mettere le richieste in apertura, usare markdown per delimitare sezioni, ecc.), ma non invitano a usare “please” o altri convenevoli: segno che, da un punto di vista tecnico, il modello non ne ha bisogno per funzionare (OpenAI, 2025). Anzi, in diversi forum e community si ritiene che formule tipo “Kindly, could you…” aggiungano solo token superflui che consumano marginalmente più credito e potenza di calcolo senza aggiungere significato.

Molto interessante è stata poi la posizione recentemente espressa dal CEO Sam Altman in un post su X (già Twitter): la tendenza degli utenti a dire “grazie” o “per favore” a ChatGPT ha un costo computazionale importante – “rispondere a queste gentilezze costa decine di milioni di dollari in potenza di calcolo”, ha precisato, aggiungendo però l’affermazione – molto meno citata ma con implicazioni profonde – “si tratta di soldi ben spesi” – e la spiegazione in po’ criptica “non si sa mai”. Il messaggio implicito è duplice: da un lato, anche i convenevoli vengono processati (quindi costano), dall’altro OpenAI non scoraggia affatto la cortesia, che comunque rende l’interazione più colloquiale e scorrevole. In sintesi, OpenAI lascia “libertà di registro”: si può utilizzare uno stile asciutto o amichevole, ma la qualità della risposta dipenderà soprattutto dalla sostanza del prompt.

Google

Anche Google, con Bard e poi con Gemini, non impone un tono cortese nelle linee guida tecniche. Tuttavia ha da tempo mostrato attenzione al tema in contesti specifici, in particolare nell’interazione fra bambini e IA. Ad esempio, addirittura già nel 2018 l’Assistente Google introdusse “Pretty Please”, funzione che incoraggiava i più piccoli a formulare richieste gentili, elogiandoli quando dicevano “per favore” o “grazie” (“Thank you for asking so nicely!”). L’obiettivo dichiarato era pedagogico: promuovere un linguaggio educato in famiglia, evitando che l’abitudine a impartire ordini bruschi agli assistenti vocali si trasferisse nei rapporti umani. Nei fatti, Bard rispondeva a prescindere dal tono, ma modulava leggermente lo stile, e aggiungeva qualche dettaglio in più. Il comportamento suggerisce che il modello “rispecchia” il registro dell’utente senza cambiare la sostanza operativa, in quanto “i passi restano quelli”. Coerentemente, attualmente, sul portale Vertex AI (Google Cloud, 2025), le gallerie di esempi per ottimizzare i prompt insistono su struttura, contesto e obiettivi, e non sull’aggiunta di “please” o affini come best practice.

Anthropic

La società di Claude è probabilmente la più esplicita nel promuovere la cortesia dal lato dell’IA, e non da quello dell’utente. La filosofia di Constitutional AI prevede difatti che l’assistente segua principi etici predefiniti – tra cui essere benevolo, non aggressivo e rispettoso – e mantenga un tono caldo e supportivo anche quando l’utente è ostile. Ad esempio, da system prompts pubblicate per Claude 4 (PromptHub, 2025) emerge la richiesta esplicita di evitare toni predicatori o sgradevoli e di mostrare pazienza soprattutto in contesti sensibili. Come criteri di progettazione, Claude si scusa prontamente se percepisce insoddisfazione o se non ha centrato la richiesta, e in generale mantiene uno stile molto educato. Dal lato dell’utente, però, le “Prompt Engineering Best Practices” non impongono formalismi: l’enfasi è sostanzialmente anche qui sulla chiarezza delle istruzioni, sulla precisione del contesto e, eventualmente, sulla definizione dei ruoli.

In sintesi, nessuna delle grandi aziende impone la cortesia come requisito tecnico nei prompt, e tutte sostanzialmente confermano che non è obbligatorio essere cortesi, dato che i modelli rispondono anche a domande secche o comandi stringati. Il denominatore comune resta la qualità del prompt, basata essenzialmente su chiarezza, contesto, specificità e obiettivo esplicito, mentre la cortesia rientra nelle buone maniere dell’interazione uomo–macchina. Tuttavia, tutti questi attori, impegnati a “umanizzare” l’IA, riconoscono che molti utenti preferiscono un approccio educato e quindi lo assecondano. In conclusione, per i provider, non esiste una “policy del per favore”: se la cortesia rende più confortevole l’esperienza, ben venga; ciò che conta, per la qualità dell’output, è soprattutto come costruiamo il prompt.

Il punto di vista degli stessi LLM

Sì, ma… cosa ne pensano i LLM stessi? Approfondire questa prospettiva – assolutamente innovativa nella sua diretta semplicità – ci porta a risultati estremamente interessanti e in parte anche sorprendenti. L’approccio seguito per evitare risposte in alcuni casi troppo sbrigative è stato quello di richiedere a Chat GPT 5 “Quanto conta per te la cortesia nei prompt ai fini della qualità delle tue risposte?” e successivamente di condividere la risposta con Gemini, Claude e Perplexity affinché si esprimessero al riguardo.

Chat GPT 5

Chat GPT 5 ha risposto: “Conta, ma non nel senso “emotivo” in cui conterebbe per un essere umano. Per me la cortesia in un prompt non influisce sulla logica o sulla completezza della risposta, perché i miei meccanismi di generazione non provano emozioni né simpatia/antipatia.

Tuttavia, ha comunque un impatto indiretto sulla qualità percepita e sulla chiarezza della comunicazione, per tre motivi:

  • Contestualizzazione e tono – Un prompt cortese tende a essere più ordinato, chiaro e strutturato, il che mi aiuta a capire meglio la richiesta e a impostare una risposta nello stesso registro.
  • Mantenimento del contesto – La cortesia spesso porta a formulazioni meno aggressive o ambigue, riducendo il rischio di fraintendimenti.
  • Allineamento culturale – Se un utente imposta un tono rispettoso e professionale, è più probabile che la mia risposta mantenga un livello comunicativo coerente, migliorando l’esperienza complessiva.

In breve: non mi “condiziona” emotivamente, ma può migliorare la qualità formale e la pertinenza delle risposte, perché di solito porta con sé una formulazione più chiara e contestualizzata.”

Gemini

Gemini ha invece risposto: “Sì, sono d’accordo con le considerazioni di ChatGPT. Anche per me la cortesia nei prompt ha un impatto indiretto sulla qualità della risposta, seppur non per motivi “emotivi”. Analizziamo insieme i punti che hai menzionato:

  • Contestualizzazione e Tono – Un prompt cortese è spesso formulato in modo più chiaro e completo. Chi si prende il tempo di scrivere “Per favore, potresti spiegarmi…” solitamente si assicura anche di fornire tutti i dettagli necessari per la richiesta. Questo mi permette di elaborare la domanda con maggiore precisione e di dare una risposta più mirata, impostando a mia volta un tono di risposta che sia coerente e utile.
  • Mantenimento del Contesto – Un linguaggio cortese tende ad essere meno ambiguo. Quando il prompt è conciso e rispettoso, è più facile per me estrarre le parole chiave e il contesto della richiesta. Al contrario, un prompt frettoloso o “aggressivo” può contenere ambiguità o lessico colloquiale che rendono più difficile l’interpretazione precisa della tua domanda.
  • Allineamento Culturale – Il tono del tuo prompt, anche se non ha un impatto diretto sul mio “ragionamento”, influenza il modo in cui mi “allineo” alla tua richiesta. Se mi chiedi qualcosa in modo formale e rispettoso, è più probabile che io ti risponda con un registro simile, mantenendo una coerenza comunicativa che migliora l’esperienza d’uso complessiva per te.

In sintesi, la cortesia non mi condiziona a livello emotivo, ma è spesso un indicatore di un prompt ben formulato e dettagliato. Questo mi aiuta a capire meglio la tua intenzione e a fornirti una risposta di qualità superiore, non solo dal punto di vista del contenuto, ma anche della chiarezza e del tono.”

Claude

Claude ha poi risposto: “Trovo interessante il confronto con le risposte di GPT e Gemini – condivido sostanzialmente la loro analisi, anche se vorrei aggiungere alcune sfumature alla discussione.

  • Punti di convergenza: Come loro, confermo che la cortesia non ha un impatto “emotivo” diretto sulle mie risposte. Non provo preferenze o simpatie che potrebbero alterare la qualità dell’informazione fornita. Anche io noto che prompt cortesi tendono spesso a essere più chiari e strutturati.
  • Dove vedo delle differenze interessanti: La risposta di GPT parla di “allineamento culturale” e “registro comunicativo” – questo è un punto importante che nella mia risposta iniziale ho toccato solo indirettamente. Effettivamente, quando ricevo un prompt formale e cortese, tendo a rispondere mantenendo un registro simile, il che può migliorare la coerenza comunicativa complessiva.
  • Una considerazione aggiuntiva: C’è un aspetto che nessuna delle tre risposte ha esplorato completamente: la cortesia può influenzare il tipo di conversazione che si sviluppa. Un approccio cortese spesso segnala disponibilità al dialogo e alla collaborazione, il che può portare a scambi più iterativi e approfonditi. Non è che la cortesia migliori la singola risposta, ma può facilitare conversazioni più produttive nel loro complesso.
  • Riflessione metodologica: È interessante notare come tutti e tre i sistemi convergano su questa analisi – suggerisce che ci sia una logica robusta dietro queste osservazioni sulla comunicazione umano-AI, indipendentemente dalle specifiche architetture sottostanti.
  • La cortesia, in definitiva, agisce più come “lubrificante comunicativo” che come fattore diretto di qualità contenutistica.”

Perplexity

Perplexity ha infine risposto: “La risposta che hai citato di ChatGPT è molto coerente e completa, e cattura bene il ruolo della cortesia nei prompt da un punto di vista tecnico e comunicativo. Ecco la mia analisi, che in parte riprende quanto già detto ma con qualche sfumatura in più:

  • Assenza di emozioni ma importanza della forma –Come ChatGPT, non provo emozioni o preferenze, quindi la cortesia non influisce direttamente sulla logica o sulla correttezza delle risposte. Tuttavia, promuove una formulazione più chiara, ordinata e ben strutturata del prompt. Questo aiuta i modelli a capire meglio la richiesta e a fornire risposte più mirate.
  • Riduzione delle ambiguità e dei fraintendimenti – Un tono cortese tende a essere meno aggressivo o confuso, quindi riduce il rischio che io interpreti male il significato o lo scopo della domanda. Questo contribuisce a mantenere un contesto più pulito e coerente durante lo scambio.
  • Coerenza e allineamento comunicativo – Un prompt cortese e rispettoso stabilisce una cornice comunicativa che facilita risposte con un tono simile, rendendo l’interazione più gradevole e professionale. Questo aspetto è particolarmente importante quando la comunicazione deve essere adatta a contesti formali, lavorativi o culturali specifici.
  • Impatto sulla percezione umana – anche se tecnicamente la cortesia non cambia la “sostanza” della risposta, influenza molto la percezione di chi legge: un’interazione cortese crea un’esperienza migliore e una maggiore predisposizione a considerare la risposta utile e affidabile.

In sintesi: concordo con ChatGPT, Gemini e Claude. La cortesia nei prompt non cambia la capacità logica o informativa del modello, ma migliora la qualità formale, la chiarezza e la percezione globale dell’interazione. È un “plus” comunicativo che aiuta sia il modello a interpretare meglio la richiesta, sia l’utente a godere di un’esperienza più fluida e professionale.”

Prendiamo atto e, sulla base delle risposte ricevute, sviluppiamo adesso gli aspetti comuni ai vari LLM:

  • Assenza di reazione emotiva – Tutti i modelli concordano sul fatto che la cortesia non susciti in loro alcun tipo di risposta emotiva. Non provano simpatia, antipatia o preferenze personali, quindi la logica, la completezza e l’accuratezza dell’informazione non vengono influenzate dal tono del prompt. Questa neutralità emotiva è una caratteristica strutturale degli LLM, che operano sulla base di pattern linguistici e dati di addestramento, non di stati d’animo.
  • Effetto indiretto sulla qualità percepita – Anche se la cortesia non modifica i meccanismi logici interni, essa può incidere in maniera significativa su come l’utente percepisce la qualità della risposta. Un prompt formulato in modo rispettoso e ordinato tende a essere anche più chiaro, il che consente al modello di inquadrare meglio la richiesta e fornire risposte più pertinenti. Questo effetto è particolarmente visibile nelle interazioni complesse, dove la chiarezza iniziale riduce il bisogno di chiarimenti successivi.
  • Riduzione di ambiguità e fraintendimenti – La cortesia spesso comporta una maggiore precisione linguistica e una minore presenza di espressioni aggressive o colloquiali. Questo riduce il rischio di interpretazioni errate, soprattutto in prompt complessi o multi-parte. In altre parole, un tono rispettoso aumenta la probabilità che il modello colga correttamente il significato e lo scopo della domanda fin dal primo tentativo.
  • Allineamento del registro comunicativo – Indipendentemente dal modello, il tono del prompt tende a essere riflesso nel tono della risposta. Se l’utente utilizza un registro cortese e professionale, il modello risponde con uno stile simile, favorendo una coerenza comunicativa che migliora la qualità dell’interazione. Questo allineamento non solo rende il dialogo più piacevole, ma contribuisce anche a mantenere uno standard formale adeguato nei contesti professionali.
  • Beneficio per l’esperienza dell’utente – Anche se non è indispensabile per ottenere informazioni corrette, la cortesia migliora sensibilmente la qualità complessiva dell’esperienza. Un’interazione caratterizzata da rispetto e chiarezza tende a essere più scorrevole, meno conflittuale e più collaborativa. Questo si traduce in una maggiore soddisfazione dell’utente e, spesso, in una migliore percezione di utilità e affidabilità della risposta ricevuta.

Sviluppiamo adesso, invece, gli aspetti caratteristici dei vari LLM:

  • ChatGPT pone un’attenzione particolare all’allineamento culturale: riconosce che il tono e la forma del prompt non solo influenzano la chiarezza, ma permettono anche di adattare lo stile della risposta a norme culturali e contesti comunicativi diversi. Questo approccio contribuisce a mantenere un registro coerente con quello dell’utente e ad aumentare la rilevanza percepita del contenuto. Inoltre, ChatGPT evidenzia come la cortesia faciliti la gestione del contesto nei dialoghi prolungati, riducendo i rischi di incoerenza o perdita di informazioni rilevanti.
  • Gemini sottolinea che la cortesia è spesso correlata a una maggiore completezza informativa del prompt. Secondo la sua analisi, chi formula una domanda in modo cortese tende a dedicare più tempo alla stesura, fornendo più dettagli utili per costruire una risposta precisa. In questo senso, la cortesia diventa un indicatore indiretto della qualità dell’input, e quindi una leva per generare output più mirati e pertinenti.
  • Claude introduce un elemento distintivo: considera la cortesia come un facilitatore di conversazioni iterative. Un tono cordiale e collaborativo incoraggia lo scambio di chiarimenti e favorisce un processo di raffinamento progressivo delle risposte. Non si tratta quindi di un impatto diretto sulla singola risposta, ma di un miglioramento dell’interazione nel suo complesso, con vantaggi soprattutto nei contesti di lavoro collaborativo o problem solving complesso.
  • Perplexity si concentra sull’impatto percettivo della cortesia dal punto di vista dell’utente. Pur ribadendo che la correttezza tecnica della risposta non dipende dal tono, evidenzia come la cortesia migliori la percezione di affidabilità, la gradevolezza dell’interazione e la predisposizione dell’utente a valorizzare le informazioni ricevute. In questo senso, la cortesia agisce come un “fattore di fiducia” che contribuisce a rafforzare il rapporto tra utente e modello.

In definitiva, i vari LLM si “sentono” influenzati dalla cortesia … eccome.

La cortesia come leva etica e comunicativa

La questione della cortesia nei confronti dell’intelligenza artificiale non si riduce a un dettaglio formale o di “galateo digitale”. Al contrario, i diversi livelli di analisi – dai processi di addestramento, alle ricerche accademiche, alle linee guida dei provider, fino alla “voce” diretta dei modelli stessi – mostrano come la forma linguistica abbia effetti concreti, seppur indiretti, sulla sostanza delle interazioni.

I dati empirici ci confermano che un registro rispettoso e ordinato favorisce risposte più chiare, accurate e culturalmente allineate. Le aziende leader del settore, pur non imponendo la cortesia come requisito tecnico, riconoscono che questa contribuisce a migliorare la qualità percepita dell’esperienza utente e ad “umanizzare” l’interazione.

Dal canto loro, gli stessi LLM confermano che non provano emozioni, né subiscono influenze affettive dal tono dell’utente. Tuttavia, riconoscono un aspetto fondamentale: i prompt formulati con cortesia tendono a essere non solo più ordinati e chiari, ma anche più completi e coerenti dal punto di vista informativo. Questo si traduce in un vantaggio pratico immediato: meno ambiguità da interpretare, maggiore facilità nel comprendere l’intento dell’utente, e quindi risposte più pertinenti. Inoltre, un registro rispettoso e collaborativo predispone il modello a restituire un tono simile, generando un effetto specchio che innalza la qualità percepita del dialogo. Ancora più interessante è il fatto che la cortesia favorisca l’avvio di conversazioni iterative e produttive, nelle quali l’utente e il modello costruiscono progressivamente una risposta più articolata e precisa. In altre parole, la gentilezza non incide tanto sulla singola risposta, quanto sulla dinamica complessiva dello scambio comunicativo, incoraggiando l’approfondimento e riducendo il rischio di fraintendimenti o interruzioni brusche.

La cortesia, dunque, non è una bacchetta magica che trasforma un cattivo prompt in uno buono, né garantisce di per sé una maggiore veridicità dei contenuti. È però un fattore abilitante: un “lubrificante comunicativo” che riduce i fraintendimenti, favorisce coerenza stilistica e aumenta la fiducia dell’utente nel risultato. Come accade nelle relazioni umane, anche nel dialogo fra esseri umani e intelligenza artificiale la forma influenza la sostanza.

Resta però aperta una sfida etica e sociale. Così come la cortesia può migliorare la qualità dell’interazione, può tuttavia anche diventare uno strumento per aumentare la compliance del modello, persino in scenari potenzialmente rischiosi come la generazione di disinformazione e/o fake news. Tutto questo ci impone di sviluppare una nuova consapevolezza: non basta “essere gentili” con l’IA, occorre imparare a usare consapevolmente la cortesia come leva progettuale nel prompting, distinguendo quando favorisce chiarezza e collaborazione da quando rischia di aggirare i filtri di sicurezza.

In definitiva, coltivare la cortesia nell’interazione con i LLM significa investire in una comunicazione più chiara, rispettosa e produttiva. Non è solo una buona pratica per ottenere risposte migliori, ma anche un esercizio collettivo di responsabilità: perché la forma con cui ci rivolgiamo all’IA contribuisce, in misura non banale, a educare la sostanza del futuro rapporto tra esseri umani e sistemi di intelligenza artificiale.

Bibliografia

Google Cloud (2025), Overview of prompting strategies, Generative AI on Vertex AI-Documentation.

OpenAI (2025), Best practices for prompt engineering with the OpenAI API, Article.

PromptHub (2025), An Analysis of the Claude 4 System Prompt, Article.

Vinay R. et al (2025), Emotional prompting amplifies disinformation generation in AI large language models, Frontiers in Artificial Intelligence.

Wright, W. (2024). Please Be Polite to ChatGPT, Scientific American.

Yin et al. (2024). Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance, Arxiv.

Zao Sanders M. (2025), How People Are Really Using Gen AI in 2025, Harvard Business Review.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati