banner

Notizia

Oct 05, 2023

Sfruttare i dati clinici nelle istituzioni sanitarie per l'apprendimento continuo di modelli di rischio predittivi

Rapporti scientifici volume 12, numero articolo: 8380 (2022) Citare questo articolo

Accessi 2018

5 citazioni

11 Altmetrico

Dettagli sulle metriche

La flessibilità intrinseca dei modelli predittivi clinici basati sull’apprendimento automatico per apprendere dagli episodi di cura del paziente in una nuova istituzione (formazione specifica per il sito) va a scapito del degrado delle prestazioni quando applicato a coorti di pazienti esterni. Per sfruttare tutto il potenziale dei big data clinici interistituzionali, i sistemi di apprendimento automatico devono acquisire la capacità di trasferire le proprie conoscenze oltre i confini istituzionali e imparare da nuovi episodi di cura del paziente senza dimenticare i modelli appresi in precedenza. In questo lavoro, abbiamo sviluppato un algoritmo di apprendimento che preserva la privacy denominato WUPERR (Weight Uncertainty Propagation and Episodic Representation Replay) e abbiamo convalidato l’algoritmo nel contesto della previsione precoce della sepsi utilizzando dati di oltre 104.000 pazienti in quattro distinti sistemi sanitari. Abbiamo testato l'ipotesi che l'algoritmo di apprendimento continuo proposto possa mantenere prestazioni predittive più elevate rispetto ai metodi concorrenti su coorti precedenti una volta che è stato addestrato su una nuova coorte di pazienti. Nell'attività di previsione della sepsi, dopo l'addestramento incrementale di un modello di deep learning in quattro sistemi ospedalieri (vale a dire ospedali HA, HB, HC e HD), WUPERR ha mantenuto il valore predittivo positivo più alto nei primi tre ospedali rispetto a un approccio di apprendimento di trasferimento di base. (HA: 39,27% contro 31,27%, HB: 25,34% contro 22,34%, HC: 30,33% contro 28,33%). L’approccio proposto ha il potenziale per costruire modelli più generalizzabili che possono imparare dai big data clinici interistituzionali in modo da preservare la privacy.

La notevole rinascita dell’intelligenza artificiale e il suo impatto sull’automazione industriale, sull’ottimizzazione della soddisfazione dei clienti e dei ricavi negli ultimi dieci anni ha portato a un crescente interesse per l’applicazione delle tecnologie correlate all’assistenza sanitaria1,2,3. In particolare, le tecniche di deep learning hanno guadagnato maggiore attenzione nella medicina clinica, inclusi screening e triage, diagnosi, prognosi, supporto decisionale e raccomandazione terapeutica4,5,6,7,8,9,10,11,12,13. Per ottenere un’ampia adozione clinica, i modelli clinici basati sul deep learning devono essere generalizzabili e portabili e garantire la privacy dei pazienti i cui dati vengono utilizzati per l’addestramento e le valutazioni dei modelli14,15. In pratica, i modelli addestrati sui dati di un singolo sistema sanitario spesso soffrono di mancanza di generalizzabilità a causa delle differenze nei dati demografici locali, nelle attrezzature e nei test di laboratorio, nelle cartelle cliniche elettroniche (EHR), nella frequenza di misurazione dei dati e nelle variazioni nelle pratiche cliniche e amministrative, tra cui codificazione e definizioni di varie diagnosi cliniche16. È stato sostenuto che i big data clinici, se combinati con la flessibilità intrinseca dei modelli di deep learning per apprendere da nuovi dati/esperienze, potrebbero in teoria affrontare alcune di queste eterogeneità. Tuttavia, i dati sanitari rimangono isolati e l’accessibilità dei dati e la privacy dei pazienti rappresentano una sfida sostanziale per sfruttare appieno la potenza dell’analisi avanzata nel settore sanitario15,17. Pertanto, al giorno d'oggi, i dati clinici tipici utilizzati per lo sviluppo di modelli sono spesso diversi ordini di grandezza inferiori a quelli che alimentano le applicazioni industriali del deep learning18.

Una recente convalida indipendente ed esterna di un punteggio di rischio di previsione della sepsi basato sull'apprendimento automatico ampiamente utilizzato ha evidenziato il problema della generalizzabilità del modello in presenza di cambiamenti nella distribuzione dei dati e cambiamenti nel case-mix della popolazione19,20. Una potenziale soluzione per migliorare la validità esterna dei sistemi di deep learning è quella di mettere a punto tali modelli in ogni nuovo contesto assistenziale (noto anche come Transfer Learning)21,22. Tuttavia, questo approccio può portare a molte versioni dello stesso algoritmo che operano in contesti assistenziali diversi, il che solleva preoccupazioni normative relative alla gestione del cambiamento e sfide scientifiche relative alla produzione di conoscenza generalizzabile23. Pertanto, è auspicabile progettare algoritmi e modelli di apprendimento in grado di sfruttare i dati dei pazienti attraverso diverse coorti di pazienti in modo da preservare la privacy e con piani di controllo delle modifiche ben definiti24 in grado di mantenere prestazioni accettabili gestendo al tempo stesso il potenziale rischio per i pazienti.

CONDIVIDERE