Intelligenza Artificiale per la diagnosi precoce della sepsi: un nuovo algoritmo sviluppato da Milano-Bicocca - Bnews Intelligenza Artificiale per la diagnosi precoce della sepsi: un nuovo algoritmo sviluppato da Milano-Bicocca

Intelligenza Artificiale per la diagnosi precoce della sepsi: un nuovo algoritmo sviluppato da Milano-Bicocca

Intelligenza Artificiale per la diagnosi precoce della sepsi: un nuovo algoritmo sviluppato da Milano-Bicocca
AI Health

La sepsi rappresenta una delle principali cause di mortalità ospedaliera a livello globale. La diagnosi precoce è cruciale per migliorare gli esiti clinici, ma rimane una sfida significativa a causa della variabilità dei sintomi e della rapidità di progressione della malattia. Un recente studio pubblicato sul Journal of Medical Internet Research ha sviluppato e validato esternamente, modelli di machine learning per l'individuazione precoce della sepsi. Lo studio mostra come l’intelligenza artificiale possa aiutare a riconoscere la sepsi a partire dai normali esami del sangue.

Abbiamo intervistato il Prof. Federico Cabitza, autore di riferimento dello studio e docente di informatica presso il Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) del nostro ateneo, per approfondire i risultati e le implicazioni di questa ricerca. Gli abbiamo fatto qualche domanda per capire meglio di cosa si tratta e perché questa tecnologia potrebbe cambiare la pratica clinica.

Federico Cabitza

Professor Cabitza, partiamo dall’inizio: che cos’è la sepsi e perché è così difficile da diagnosticare?

La sepsi è una condizione clinica grave e potenzialmente letale, causata da una risposta immunitaria alterata e sproporzionata dell’organismo a un’infezione. Questo squilibrio infiammatorio può danneggiare progressivamente la funzionalità degli organi, fino a determinare una disfunzione multiorgano.

Il principale ostacolo nella diagnosi precoce è che i segni iniziali — febbre, tachicardia, stato confusionale — sono poco specifici e comuni ad altre condizioni acute. Inoltre, nei contesti di pronto soccorso o nei reparti non intensivi, i dati clinici necessari per applicare i criteri diagnostici più aggiornati (come il punteggio SOFA richiesto dalla definizione “sepsi-3”, che valuta il funzionamento di diversi organi vitali), non sono sempre disponibili.

Tutto ciò rende il riconoscimento tempestivo della sepsi particolarmente complesso, proprio nelle fasi iniziali in cui un intervento rapido potrebbe fare la differenza.

Su quali dati si basa l’algoritmo e perché avete scelto proprio l’emocromo?

Abbiamo costruito i nostri algoritmi a partire dai dati dell’emocromo completo (CBC), inclusa una misura chiamata monocyte distribution width (MDW), ovvero l’ampiezza della distribuzione volumetrica dei monociti. L’emocromo è il test di laboratorio più richiesto in assoluto, sia in pronto soccorso sia nei reparti ospedalieri: è economico, rapido, disponibile praticamente in tempo reale e non richiede campioni aggiuntivi rispetto alla routine.

Inoltre, grazie agli analizzatori ematologici di nuova generazione, oggi possiamo accedere a parametri morfologici e funzionali delle cellule del sangue che forniscono informazioni finora utilizzate solo in ambito di ricerca, ma non ancora in diagnostica clinica. Il MDW, in particolare, si è rivelato un biomarcatore promettente per l’identificazione precoce della sepsi.

Combinando questi parametri morfologici con i dati tradizionali dell’emocromo e applicando tecniche di machine learning, possiamo ottenere prestazioni diagnostiche sensibilmente superiori rispetto agli approcci convenzionali.

Nel vostro studio parlate di “modelli predittivi” basati sull’intelligenza artificiale. Come avete sviluppato e validato i vostri modelli di machine learning e quali risultati avete ottenuto?

Il nostro lavoro rappresenta un raro esempio di collaborazione autenticamente multidisciplinare. Il gruppo che ho avuto il privilegio di coordinare, insieme al professor Marcello Ciaccio dell’Università di Palermo, ha riunito alcune delle figure più autorevoli nel panorama italiano della medicina di laboratorio — tra cui la dottoressa Anna Carobene e i professori Luisa Agnello e Andrea Padoan — affiancate da esperti di machine learning con comprovata esperienza.

Tra questi, desidero citare in particolare il primo autore dello studio, Andrea Campagner, ricercatore con incarichi didattici anche presso il nostro ateneo. Mettendo a fattor comune le nostre competenze complementari, abbiamo sviluppato e validato diversi modelli di machine learning — tra cui regressione logistica, random forest, support vector machine e gradient boosting — utilizzando un dataset raccolto in pronto soccorso, poi testato su cinque coorti indipendenti di pazienti, provenienti da diversi ospedali italiani, sia in pronto soccorso sia in terapia intensiva.

Questo tipo di validazione esterna è fondamentale per verificare la robustezza e la capacità dei modelli di adattarsi a contesti clinici differenti. Riteniamo che sia una condizione necessaria per poterne valutare l'affidabilità reale.

L’approccio ha dimostrato una buona capacità di discriminazione e una concreta utilità clinica, anche in presenza di variazioni nei dati, come strumenti di laboratorio diversi, popolazioni eterogenee e criteri diagnostici non uniformi.

Parlate nello studio anche di modelli “cauti” e spiegabili. Cosa significa?

Un modello “cauto” è un sistema che, invece di forzare una diagnosi in ogni caso, può scegliere di non rispondere quando il livello di incertezza è troppo alto. In medicina, questo approccio è particolarmente rilevante: un errore può avere conseguenze serie, e sapere quando "astenersi" è un segno di affidabilità. In pratica, significa che l’algoritmo può dire “non lo so”, rimettendo la decisione finale al medico.

Abbiamo inoltre reso i nostri modelli “spiegabili”, cioè capaci di indicare quali variabili hanno contribuito maggiormente alla valutazione. Questo è fondamentale per favorire la fiducia da parte del personale sanitario e facilitarne l’adozione nella pratica clinica.

Inoltre abbiamo derivato anche un insieme di regole interpretabili, simili a quelle che un medico esperto potrebbe applicare mentalmente. Queste regole, pur nella loro semplicità, hanno mostrato buone prestazioni diagnostiche e risultano facilmente comprensibili.

Questi modelli sono già pronti per essere usati in ospedale?

Direi che rappresentano un passo importante verso l’implementazione clinica, ma non sono ancora pronti per un utilizzo immediato in tutti i contesti. Sono necessari ulteriori passaggi: uno studio con dati raccolti apposta per certificare il modello, l’integrazione nei sistemi informativi ospedalieri, e, non da ultimo, un’adeguata formazione del personale che dovrà utilizzarlo.

È bene ricordare che, per legge, soltanto le applicazioni certificate come dispositivi medici possono essere impiegate formalmente a supporto delle decisioni cliniche. Detto ciò, ogni medico è comunque libero di utilizzare gli strumenti che ritiene utili per curare il paziente nel modo più appropriato.

Negli ultimi anni lei ha lavorato molto sull’intelligenza artificiale applicata alla medicina di laboratorio. Quanto è importante, secondo lei, strutturare i dati per rendere l’intelligenza artificiale davvero utile in clinica?

La strutturazione dei dati — cioè la loro disponibilità in formato organizzato e facilmente estraibile da una base dati — resta importante, ma oggi non è più un prerequisito assoluto. I nuovi sistemi basati su modelli linguistici di grandi dimensioni sono infatti in grado di ricavare informazioni strutturate anche da testi liberi, come referti, cartelle cliniche o note mediche, purché questi siano dettagliati e completi. L’accuratezza raggiunta da questi sistemi è ormai paragonabile a quella della trascrizione umana, che però è molto più lenta e costosa.

Detto questo, vorrei sottolineare un punto fondamentale: più ancora della struttura, ciò che davvero conta è la qualità del dato — in termini di affidabilità, completezza e tracciabilità. In medicina di laboratorio, questo significa adottare protocolli rigorosi per la standardizzazione delle misurazioni e una registrazione accurata dei risultati.

Solo con dati solidi l’intelligenza artificiale può offrire un valore aggiunto concreto, ad esempio aiutando nella diagnosi precoce o nella stratificazione prognostica dei pazienti.

Fornire all’intelligenza artificiale dati di qualità, dunque, non è solo una sfida tecnica, ma una responsabilità organizzativa. Richiede una revisione continua dei processi che generano, raccolgono e utilizzano quei dati.

Molti temono che l’intelligenza artificiale possa togliere il lavoro ai medici. Cosa risponde?

Non credo affatto che l’intelligenza artificiale toglierà il lavoro ai medici. Piuttosto, sta già cambiando — e continuerà a cambiare — il modo in cui i medici lavorano. Gli algoritmi possono offrire un supporto concreto alle decisioni cliniche, soprattutto in contesti ad alta pressione cognitiva o dove il tempo è un fattore critico, come nel caso della sepsi.

Detto questo, la responsabilità ultima, la capacità di giudizio e — soprattutto — la relazione con il paziente restano umane, e devono rimanere tali. L’IA non sostituisce il medico: può renderlo più tempestivo, meglio informato, forse persino più umano, liberandolo da compiti ripetitivi e consentendogli di dedicare più tempo a ciò che davvero conta.

La chiave è usare questi strumenti con consapevolezza: senza delegare in modo acritico, ma nemmeno con diffidenza pregiudiziale. Personalmente, non mi sentirei a mio agio sapendo di essere curato da un algoritmo. Ma mi sentirei rassicurato se il mio medico utilizzasse tutte le risorse che la scienza oggi mette a disposizione — anche grazie al lavoro di gruppi come il nostro — per migliorare la precisione delle diagnosi e la qualità delle cure.