Nel novembre 2023, l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha aggiornato la definizione di sistema di intelligenza artificiale: “sistema basato su una macchina che, in base agli input ricevuti, genera output come previsioni, contenuti, raccomandazioni o decisioni, influenzando ambienti fisici o virtuali”.
Ampliare la prospettiva sull’IA
Questo aggiornamento è la cartina di tornasole di un ampliamento di prospettiva. Oggi i sistemi di intelligenza artificiale (IA) operano con diversi livelli di autonomia e applicazione in numerosi settori come assistenza sanitaria, finanza, marketing, servizi governativi, sorveglianza e ambiti militari. L’intelligenza artificiale non sta solo trasformando il nostro modo di fare le cose, sta ridefinendo il nostro modo di vivere; non cambi solo l’esecuzione di compiti o procedure, sta influenzando sempre di più e sempre più profondamente il contesto psicosociale.
Il punto è che le potenzialità non sono solo positive: basti pensare a come rischiano di replicare e rafforzare disuguaglianze, per esempio nei casi di pregiudizio in base ai gruppi sociali di appartenenza (De Boer et al., 2023). Anche se non voluti, gli effetti negativi non possono essere ignorati.
Si potrebbe però adottare una prospettiva nuova, quella dell’Human-Centered AI (HCAI) che pone al centro di progettazione e implementazione dei sistemi di IA i valori umani coniugando innovazione tecnologica ed etica, valori come equità, inclusione e trasparenza, contesto sociale e culturale.
Il paradigma Human-Centered AI
Secondo il paradigma dell’Human-Centered AI (HCAI) le tecnologie non devono essere solo funzionali ed efficienti, ma anche progettate per rispondere ai bisogni, ai valori e alle aspirazioni fondamentali delle persone (Bingley et al., 2023).
Il modello di autodeterminazione sociale (SSDM) integra la teoria dell’autodeterminazione (SDT, Ryan e Deci, 2022), l’approccio dell’identità sociale (Turner et al., 1979) e la teoria dell’autocategorizzazione (Turner & Reynolds, 2011) per spiegare come l’IA possa soddisfare o ostacolare i bisogni collettivi e individuali, chiarendo le condizioni in cui ciò avviene.
L’obiettivo è prevedere come un sistema IA influisce sul benessere e fornire linee guida per progettare sistemi IA più incentrati sull’uomo, sui bisogni e contesti di utilizzo. In breve, secondo la SDT, le persone hanno tre bisogni psicologici fondamentali: autonomia (il bisogno di autoregolarsi), competenza (il bisogno di sentirsi capaci), e relazione (il bisogno di sentirsi connessi agli altri).
Soddisfare questi bisogni è essenziale per il benessere psicologico. La teoria dell’identità sociale afferma che l’identità di una persona varia quando si vede come membro di un gruppo o come individuo: più forte è l’identificazione con il gruppo, più le persone percepiscono e agiscono in base agli atteggiamenti e comportamenti del gruppo. Infine, la teoria dell’autocategorizzazione spiega come le persone si definiscono come individui o membri di un gruppo in base a fattori psicologici e sociali. La percezione di appartenenza a un gruppo o di identità personale influenza il soddisfacimento dei bisogni psicologici di base.
I sistemi di intelligenza artificiale possono influenzare la salienza dell’identità e, attraverso questa, modellare la rilevanza dei bisogni di autodeterminazione sia identificando esplicitamente le persone come membri di un gruppo, sia trattandole implicitamente in modo diverso in base alla loro appartenenza a specifici gruppi (De Boer et al., 2023).
Human-Centered AI (HCAI) e il Self-Determination Model (SSDM)
Come mettere insieme tutto questo? Come coniugare Human-Centered AI (HCAI) e il Self-Determination Model (SSDM)? Questi modelli spiegano come la percezione di usabilità, il piacere e il raggiungimento di obiettivi influenzino l’uso della tecnologia. Integrando queste teorie, con un approccio HCAI si possono creare sistemi basati su IA che rafforzano autonomia, competenza e connessione sociale.
Le applicazioni educative sono un esempio concreto: si adattano ai livelli di apprendimento dell’utente, propongono percorsi personalizzabili, incentivano la relazionalità. Studi recenti (De Boer et al., 2023) dimostrano che tali sistemi non solo aumentano l’efficacia dell’apprendimento in sé ma migliorano il benessere psicologico. Questo approccio integrato trasforma l’intelligenza artificiale in uno strumento capace di andare oltre l’ottimizzazione delle prestazioni tecniche e che promuove esperienze positive per gli utenti. Viceversa, i sistemi che trascurano questi bisogni possono generare frustrazione, alienazione o rafforzare lo stigma sociale di alcune categorie.
Un altro aspetto da considerare è il contesto sociale in cui i sistemi di IA vengono implementati (Bingley et al., 2023). Per esempio, nelle piattaforme social, l’IA può avere effetti ambivalenti: mentre alcune funzionalità incentivano favorire connessioni sociali autentiche e supportare il benessere, altre possono alimentare comportamenti competitivi o esacerbare disuguaglianze sociali (Bergdahl et al., 2023).
L’importanza del contesto
Le interazioni con i sistemi di intelligenza artificiale non avvengono nel vuoto ma in ambienti a cui vengono attribuiti e co-costruiti significati personali, sociali, culturali; per massimizzarne i benefici è quindi fondamentale progettare sistemi HCAI che rispondano ai bisogni individuali e che considerino anche le dinamiche sociali e contestuali in cui vengono utilizzati. Questi sistemi dovrebbero rispettare l’autonomia, la competenza e la relazionalità degli utenti tenendo conto delle differenze nelle e tra persone e popolazioni. Il limite principale nell’applicare un approccio HCAI risiede nella complessità: progettare sistemi capaci di rispondere ai bisogni psicologici individuali e collettivi, considerando le differenze sociali e contestuali; misurare e quantificare in modo specifico e dinamico l’impatto psicologico dei sistemi, tenendo conto della diversità delle popolazioni e dei contesti d’uso. Tutto questo richiede un’attenta integrazione di molteplici livelli di analisi (Bingley et al., 2023).
Ma non vuol dire che sia un obiettivo irraggiungibile; è solo l’inizio. Grazie all’approccio HCAI sarà possibile progettare sistemi intuitivi e accessibili, che non replichino disuguaglianze e disparità e che rispondano ai reali bisogni non solo pratici degli utenti ma anche psicologici.
Bibliografia
Bingley, W. J., Haslam, S. A., Steffens, N. K., Gillespie, N., Worthy, P., Curtis, C., … & Wiles, J. (2023). Enlarging the model of the human at the heart of human-centered AI: A social self-determination model of AI system impact. New Ideas in Psychology, 70, 101025.
Bergdahl, J., Latikka, R., Celuch, M., Savolainen, I., Mantere, E. S., Savela, N., & Oksanen, A. (2023). Self-determination and attitudes toward artificial intelligence: Cross-national and longitudinal perspectives. Telematics and Informatics, 82, 102013.
De Boer, M., et al. (2023). “Human-Centered AI for Well-Being: Integrating Psychological Models.” Journal of Artificial Intelligence and Psychology, 58(3), 123-145.
OECD Framework for the Classification of AI systems. Organizzazione per la Cooperazione e lo Sviluppo Economico. https://www.oecd.org/publications/oecd-framework-for-the-classification-of-ai-systems-cb6d9eca-en.htm
Ryan, R. M., & Deci, E. L. (2022). “Self-Determination Theory: Basic Psychological Needs in Motivation, Development, and Wellness.” Annual Review of Psychology, 73, 391-419.
Turner, J. C., Brown, R. J., & Tajfel, H. (1979). Social comparison and group interest in ingroup favouritism. European journal of social psychology, 9(2), 187-204.
Turner, J. C., & Reynolds, K. J. (2011). Self-categorization theory. Handbook of theories in social psychology, 2(1), 399-417.