Perché l'intelligenza artificiale ha qualcosa da insegnare ai medici (e viceversa)

FYI.

This story is over 5 years old.

Tecnologia

Perché l'intelligenza artificiale ha qualcosa da insegnare ai medici (e viceversa)

La prima cosa da sapere è che oggi giorno abbiamo a disposizione enormi quantità di dati sulla salute​.

Questo post fa parte di Formula, la serie di Motherboard in collaborazione con Audi in cui esploriamo le meraviglie dell'intelligenza artificiale, la tecnologia più importante del 21esimo secolo.

Un'emorragia interna catastrofica può uccidere un paziente apparentemente stabile se medici ed infermieri non sono immediatamente pronti ad intervenire. Un sistema esperto sviluppato dall'esercito degli Stati Uniti è in grado di predire con il 90% di precisione il rischio di emorragie interne, senza sintomi palesi, da misurazioni di segni vitali di routine.

Pubblicità

Un sistema simile, se dispiegato su larga scala, potrebbe salvare migliaia di vite semplicemente monitorando i pazienti e chiamando i medici prima che sia troppo tardi. A prima vista il meccanismo sembra simile ad un elettrocardiogramma, che fa suonare un allarme se registra anomalie nel battito cardiaco del paziente, ma c'è una differenza significativa: questo sistema è un'intelligenza artificiale che ha imparato da sola a quali segnali prestare attenzione grazie all'analisi dei casi clinici precedenti.

La prima cosa da sapere è che oggi giorno abbiamo a disposizione enormi quantità di dati sulla salute.

Sempre più spesso la medicina si affida ad algoritmi e sistemi informatici per semplificare problemi complessi. In questa TAC c'è un tumore? Quale è il farmaco migliore per il trattamento di un paziente con queste particolari caratteristiche genetiche? Come allocare al meglio risorse sempre più scarse come i posti letto tra pazienti con diverse malattie e prognosi?

La prima cosa da sapere è che oggi giorno abbiamo a disposizione enormi quantità di dati sulla salute, dalle cartelle cliniche elettroniche al genoma dei pazienti, che grazie a intelligenze artificiali sempre più sofisticate possono contribuire significativamente a migliorare le decisioni mediche. E non si tratta più di teoria o di un futuro remoto: le stiamo già mettendo alla prova nel mondo reale.

L'intelligenza artificiale Watson, della IBM, aiuta gli oncologi della Mayo Clinic a decidere quale terapia per il cancro è migliore per il paziente. Dal 2014 negli Stati Uniti, per i pazienti che utilizzano Medicare si è introdotto il Clinical Decision Support System (CDS): un sistema esperto che sulla base di una manciata di dati del paziente decide se è opportuno affidarsi a sistemi diagnostici più avanzati. In pratica, prima di prescrivere una PET o risonanza magnetica a un paziente, il medico chiede un secondo parere ad un computer.

Pubblicità

L'interpretazione da parte di un computer di dati medici può sembrare una novità, ma in un certo senso è già diffusa da decenni. L'elettrocardiogramma, ad esempio, monitora l'attività cardiaca del paziente trasformandola in linee su uno schermo, e verifica che non violino nessuna delle regole già programmate direttamente nella macchina: in caso contrario, dà l'allarme.

Allo stesso modo, ormai da anni sono in circolazione per le mammografie e risonanze magnetiche macchine per la diagnosi assistita dal computer, che automaticamente evidenziano zone sospette che vengono poi naturalmente messe al vaglio di un radiologo umano.

Chiaramente, questi sistemi funzionano solo in simbiosi con un medico. L'abilità nella diagnosi dei macchinari attualmente in uso rimane la stessa sia che abbiano fatto cento test sia che ne abbiano fatti centomila, mentre l'occhio clinico del medico migliora con l'esperienza. Mentre l'uomo si assicura che la macchina non cada in errori palesi, la macchina si assicura che l'uomo non abbassi la guardia.

Questi sistemi funzionano solo in simbiosi con un medico.

Da sola, la macchina finirebbe per segnalare un numero elevato di falsi positivi, che potrebbero significare per i pazienti biopsie inutili; senza il suggerimento computerizzato il radiologo rischia di incorrere in più falsi negativi, e perdere l'occasione di una diagnosi precoce, che nella maggior parte dei casi fa la differenza per la prognosi del paziente.

Pubblicità

L'introduzione delle intelligenze artificiali sta però cambiando questa dinamica. In particolare, i sistemi basati sul deep learning, cioè su reti neurali in grado di imparare, cominciano ad essere più accurati nelle diagnosi dei medici in carne ed ossa. Specialmente quando si tratta di classificare e riconoscere immagini: dal riconoscere nelle biopsie tumori ai polmoni, al distinguere lesioni innocue della pelle da melanomi, all'individuare possibili metastasi, i casi in cui le macchine battono i medici sono sempre più numerosi.

Prima di lasciarsi andare a facili entusiasmi, è importante tenere presente che questi sistemi sono addestrati per affrontare uno o pochi problemi alla volta, mentre i medici umani hanno un punto di vista più generalista sulle questioni sanitarie, pensando all'intero corpo del paziente e non concentrandosi su una zona specifica. Se il sistema di deep learning è stato addestrato a riconoscere con precisione se ci sono tumori ai polmoni in una TAC, potrebbe comunque ignorare un principio di embolia che sarebbe evidente per un medico esperto.

Alcuni sistemi possono essere addestrati a svolgere più ruoli contemporaneamente, ma sono ancora lontani dall'essere pronti per l'uso clinico. Ancora più importante è l'elemento umano: un medico che segue lo stesso paziente nel corso del tempo può calibrare le sue decisioni e diagnosi sul decorso individuale della malattia, mentre nella maggior parte dei casi questi sistemi di deep learning trattano ogni immagine come storia a sé.

Pubblicità

L'ostacolo più grande all'implementazione su larga scala di questi sistemi viene però dal fatto che, dal momento che tramite il deep learning imparano da soli le caratteristiche salienti per una diagnosi senza che ci sia un set esplicito di regole, sono fondamentalmente scatole nere. Ad ogni immagine analizzata corrisponde una classificazione o una diagnosi probabilistica, ma il meccanismo con cui viene presa la decisione è totalmente opaco, e non sono neanche in principio in grado di spiegare le loro decisioni.

Questo problema della scatola nera è endemico nel campo del deep learning: informatici stanno lavorando per garantire "il diritto alla spiegazione", ma la soluzione tecnica del problema sembra essere tutt'altro che semplice.

La differenza fondamentale è che il deep learning addestra il suo "intuito" sulla base di dati clinici già raccolti, con tutte le limitazioni del caso, mentre il medico lo affina con l'esperienza clinica nel mondo reale.

D'altro canto, la situazione non è del tutto dissimile dall'occhio clinico di un medico, che non sempre è in grado di spiegare, specialmente ad un profano, in base a quali dati esattamente ha preso la sua decisione. La differenza fondamentale è che il deep learning addestra il suo "intuito" sulla base di dati clinici già raccolti, con tutte le limitazioni del caso, mentre il medico lo affina con l'esperienza clinica nel mondo reale. Anche per questo motivo i due potrebbero essere non in competizione, ma complementari.

I primi a vedere il loro lavoro rivoluzionato saranno i radiologi, con alcuni prodotti che stanno già cominciando ad essere disponibili sul mercato. Questo non significa che i radiologi saranno presto obsoleti, ma che si occuperanno sempre meno di identificazione e classificazione, e sarà più importante il loro ruolo decisionale. La scatola nera può battere un medico nel classificare e riconoscere caratteristiche, ma non può spiegare o comprendere le cause, né notare le peculiarità individuali di un particolare caso clinico. In altre parole, mentre la macchina si occuperà delle decisioni meccaniche, il medico potrà focalizzare tutta la sua attenzione sull'elemento umano.

L'utilizzo di sistemi diagnostici basati sul deep learning porta con sé una nuova serie di sfide rispetto ai tradizionali sistemi computerizzati di assistenza alla diagnosi: come regolamenteremo questi algoritmi a scatola nera? Di chi è la responsabilità legale quando queste macchine sbagliano? Dobbiamo rivedere come insegnamo certe discipline nei corsi di medicina? Le domande aperte sono molte, ma l'introduzione delle intelligenze artificiali in clinica potrebbe permettere, paradossalmente, una medicina più umana.

Seguici su Facebook e Twitter