L’intelligenza artificiale sta cambiando il volto della medicina, e la salute mentale non fa eccezione. Diagnosi predittive, chatbot terapeutici, analisi automatica del linguaggio e monitoraggio del comportamento sono solo alcune delle applicazioni emergenti nel campo della psichiatria e della psicologia clinica. Ma quanto possiamo davvero affidarci agli algoritmi per curare ciò che di più umano esiste: la mente?
Ne parliamo con il Digital Mental Health team del Dipartimento di Medicina e Chirurgia dell'Università di Milano-Bicocca: Francesco Bartoli, direttore della Scuola di Specializzazione in Psichiatria e con una lunga esperienza nella ricerca clinica e nella prevenzione dei disturbi mentali, Cristina Crocamo e Ilaria Riboldi, ricercatrici nel campo della salute mentale e delle nuove tecnologie applicate alla psichiatria.
Un’occasione per riflettere sul rapporto tra tecnologia e relazione terapeutica, sul ruolo dell’etica e sulla sfida dell’umanizzazione dell’intelligenza artificiale.
Quanto è concreta oggi l’integrazione dell’intelligenza artificiale nella pratica clinica in psichiatria e psicologia?
[Bartoli] L’integrazione dell’intelligenza artificiale (AI) nella pratica clinica è ancora agli esordi, ma i progressi compiuti negli ultimi anni sono rilevanti. Attualmente, l’AI può essere considerata uno strumento in fase di sperimentazione avanzata, con applicazioni promettenti soprattutto nell’ambito della ricerca e nelle fasi di screening e monitoraggio dei disturbi mentali. In contesti sperimentali e in ambienti specializzati, vengono già impiegati algoritmi per l’analisi, ad esempio, di pattern linguistici e comportamentali.
[Crocamo] In questo campo, un ruolo sempre più importante lo gioca l’identificazione dei cosiddetti marcatori digitali: si tratta di informazioni raccolte da diverse fonti come testi scritti, voce o interazioni online, che possono essere analizzate per aiutare a prevedere lo stato di salute mentale delle persone.
Un altro grande aiuto arriva dall’analisi di grandi archivi di dati – ad esempio cartelle cliniche elettroniche e dati amministrativi. Grazie alla loro ampiezza e alla possibilità di seguire le persone nel tempo, questi dati permettono di costruire modelli predittivi sempre più precisi, combinando informazioni cliniche e socio-demografiche e tenendo conto dei contesti di vita reali.
[Bartoli] Nella pratica clinica di oggi, l’intelligenza artificiale assume un ruolo di supporto, più che di autonomia decisionale. È evidente la necessità di una solida validazione scientifica e di una stretta integrazione con il giudizio clinico per garantirne un utilizzo efficace e sicuro.
In quali ambiti l’AI può effettivamente migliorare la prevenzione, la diagnosi o il trattamento dei disturbi mentali?
[Bartoli] Idealmente, l'AI in salute mentale ha il potenziale per offrire un valido contributo alla prevenzione, grazie all'analisi predittiva con i Big Data clinici e socio demografici e lo sviluppo di algoritmi, che possano aiutare da un lato a individuare soggetti a rischio prima della comparsa del disturbo e siano in grado dall’altro di prevedere possibili evoluzioni future nello stato di salute mentale degli individui.
[Crocamo] Gli algoritmi di intelligenza artificiale sono in grado di riconoscere segnali e connessioni che a un osservatore umano sfuggirebbero, grazie all’integrazione di dati diversi raccolti da fonti eterogenee. Utilizzando tecniche di apprendimento automatico – sia supervisionato sia non supervisionato – questi sistemi riescono ad adattarsi dinamicamente alle caratteristiche specifiche di ogni individuo, rendendo possibile un monitoraggio continuo e in tempo reale della salute mentale. Questo approccio si sta rivelando particolarmente utile per individuare precocemente disturbi dell'umore e psicotici, attraverso strumenti avanzati capaci di analizzare elementi come il linguaggio, le espressioni facciali o le caratteristiche della voce.
In particolare, grazie alle tecniche di Natural Language Processing (NLP), è possibile studiare il linguaggio naturale per individuare marcatori digitali legati alla salute mentale. Gli algoritmi analizzano i sentimenti espressi, identificano i temi principali nei discorsi o quantificano la combinazione di parametri linguistici e acustici della voce. Inoltre, l’utilizzo di modelli avanzati come BERT sviluppato da Google (Bidirectional Encoder Representations from Transformers) o GPT di OpenAI (Generative Pre-trained Transformer) consente di comprendere meglio il contesto delle conversazioni e persino di generare automaticamente risposte naturali, alla base del funzionamento di molti chatbot e assistenti virtuali che oggi supportano l’interazione uomo-macchina.
[Riboldi] L'impiego dell'intelligenza artificiale in salute mentale può infatti trovare spazio anche nel contesto del trattamento e del percorso di cura, tramite chatbot, piattaforme digitali e app dedicate sviluppate su tecniche di psicoeducazione o psicoterapia, che possono rappresentare un supporto accessibile, specialmente in contesti con scarsa disponibilità di risorse.
Quali sono, secondo lei, i limiti attuali più critici nell’utilizzo dell’AI in ambito psicologico, soprattutto sul piano etico e relazionale?
[Crocamo] Da un punto di vista tecnico, se pensiamo al crescente utilizzo di app pensate come sostituti della psicoterapia, non possiamo non dedicare un'attenta riflessione ai potenziali bias connessi cioè quelle forme di distorsione della valutazione che sono spesso il risultato di scorciatoie mentali utilizzate per semplificare le decisioni che possono influenzare il nostro giudizio e le nostre percezioni della realtà. Infatti, i modelli predittivi possono non solo riflettere, ma anche amplificare i bias presenti nei dati di addestramento, generando così errori diagnostici o discriminazioni. Diventa quindi fondamentale conoscere l'origine e la qualità dei dati e, soprattutto, garantire che queste applicazioni vengano sottoposte a rigorosi processi di validazione in ambito clinico, ad esempio attraverso studi di cross-validation, prima di essere impiegate in contesti reali.
[Bartoli] Tuttavia, i limiti sono molteplici e non solo tecnici. Il più evidente è il rischio di disumanizzazione: la mente umana non può essere completamente ridotta a un insieme di dati computabili. Dal punto di vista etico, bisogna garantire trasparenza degli algoritmi, protezione dei dati personali e soprattutto evitare che l’intelligenza artificiale venga utilizzata come surrogato low cost della relazione umana.
La relazione terapeuta-paziente è un elemento centrale nel percorso di cura. Cosa succede quando, al posto di uno psicologo, c’è un algoritmo?
[Riboldi] Il pericolo è la perdita della dimensione empatica, della capacità di cogliere il sottinteso e di adattare l'intervento al contesto e alla storia individuale.
[Crocamo] Un algoritmo è in grado di imitare alcuni aspetti della relazione terapeutica (come la coerenza nel dialogo o il riconoscimento di pattern linguistici), ma non può sostituirla, non è in grado di sostituire la complessità dell’interazione umana.
[Riboldi] Tuttavia, l'AI può rappresentare un valido alleato, ad esempio tra le sedute, o per un monitoraggio continuo del paziente secondo i principi dell’Ecological Momentary Assessment (EMA), integrando ma non sostituendo il terapeuta.
Guardando al futuro: come dovrebbero formarsi i nuovi professionisti della salute mentale per affrontare un mondo dove AI e psicologia lavorano sempre più fianco a fianco?
[Bartoli] Si renderà indispensabile un cambio di paradigma formativo. I professionisti di domani dovranno essere preparati clinicamente e, al contempo, possedere competenze tecnologiche: conoscere i principi di funzionamento degli algoritmi, comprenderne i confini, saper interpretare i dati prodotti da tali strumenti e, soprattutto, agire in linea con l’etica della cura.
[Crocamo] Parliamo di Digital literacy, non solo nel senso di alfabetizzazione digitale, intesa non solo come conoscenza della terminologia e dell'apprendimento delle competenze di base per l'utilizzo di dispositivi e tecnologie (come sensori e wearables), ma anche come capacità di comprendere le implicazioni socio-culturali, nonché gli aspetti etici e comunicativi dell'innovazione tecnologica. L'obiettivo è offrire strumenti per riconoscere le potenzialità - anche a livello computazionale - che possono emergere da un uso consapevole e critico dell’intelligenza artificiale. Ciò implica la capacità di interpretare gli output generati e di valutarne criticamente l'applicabilità e l'utilizzo in ambito clinico, integrandoli nel processo diagnostico e terapeutico quale supporto complementare per una medicina di precisione.
[Bartoli] L’AI sarà sempre più parte del nostro lavoro, ma dovrà rimanere un mezzo, non il fine. L’elemento umano resterà insostituibile.