L’intelligenza artificiale (AI) può essere un potente strumento al servizio della sanità. Le applicazioni si moltiplicano in tutti gli ambiti, dalla diagnostica alla chirurgia, e sono destinate a crescere. Ma se il futuro sembra orientato in questa direzione, sorgono spontanee diverse domande. L’intelligenza artificiale è in grado di effettuare diagnosi più efficienti rispetto ai professionisti? Quali sono i rischi? Come cambierà il rapporto con il paziente? E i robot sono destinati a sostituire i medici?
Il terzo incontro della rassegna Facciamo il punto: scelte scomode e diritti, organizzato presso Il Circolo dei Lettori dall’Ordine dei Medici Chirurghi e Odontoiatri di Torino, ha cercato di fornire una risposta a questi interrogativi. O meglio si è tentato, per quanto possibile, di mettere alcuni punti fermi sul tema. Un’analisi dedicata allo sviluppo dell’intelligenza artificiale in campo diagnostico e terapeutico e alle ricadute che può avere su medici e pazienti. Se i progressi tecnologici applicati alla pratica assistenziale presentano delle potenzialità evidenti, dalla precisione clinica alla riduzione degli errori, è altrettanto vero che non mancano criticità e questioni etiche. Dai dubbi sui dati utilizzati per alimentare i sistemi alla riduzione delle competenze dei professionisti che impiegano l’intelligenza artificiale.
Come anticipato all’inizio della conferenza dal moderatore Guido Giustetto, Presidente dell’OMCeO di Torino, cercare una risposta a queste domande è complesso quanto indispensabile. Lo stesso Giustetto, prima del dibattito, ha raccontato di aver letto un articolo sulla rivista medica JAMA, dove si esponeva una ricerca che intendeva verificare se un sistema di AI potesse rispondere alle mail dei pazienti al posto del medico. Su 25 quesiti l’AI ha risposto in maniera idonea 21 volte, con 4 errori. Le cause? In un caso l’AI non conosceva uno degli ultimi farmaci introdotti nel mercato, poiché la sua banca dati non era aggiornata alle scoperte più recenti. Le altre due risposte errate riguardavano l’attività fisica per un paziente cardiopatico. L’AI infatti non distingueva la camminata a passo svelto (consigliata) dal sollevamento pesi. Infine, l’ultima risposta errata riguardava una colesterolemia. L’AI ha risposto senza tener presente tutte le variabili personali, dalla dieta alla genetica.
Tuttavia la maggior perplessità dei ricercatori riguardava la stessa formulazione delle domande. Il paziente infatti non scrive le mail in modo sempre chiaro e conciso, e sarebbe necessario un ulteriore sistema che traduca le richieste in domande adatte all’AI. Questo fa capire tutte le difficoltà che occorrerebbe superare, e quanti aspetti si rischierebbero di perdere. Il medico di famiglia spesso si trova a decodificare la richiesta del paziente, e lo fa basandosi anche sulla conoscenza della persona stessa. E poi manca l’empatia, l’intuito, l’occhio clinico, la negoziazione. Senza considerare la riservatezza dei dati e la confidenzialità, l’aspetto più profondo dell’attività medica.
Intelligenza naturale e intelligenza artificiale
Il primo ospite che ha cercato di districarsi in una materia così complessa è stato Maurizio Ferraris, professore di filosofia teoretica e presidente di Labont – Center of Ontology, che è partito dall’analisi del concetto di intelligenza. “Nel Fedro Platone, con l’intento di difendere l’arte della scrittura, pone proprio questa domanda: ti faresti curare da un medico che in realtà ha solo letto i libri di medicina? Tutti risponderebbero di no. Ecco, confidare solo nell’AI è la stessa cosa. A cui si aggiunge, come si è visto prima con le mail, il problema dell’ambiguità del linguaggio naturale. Se si chiede all’AI qualcosa per l’acidità di stomaco, probabilmente ti prescriverebbe un veleno. Un enorme equivoco”.
Il professore si è poi concentrato sulla contrapposizione fra intelligenza naturale e artificiale: “Un paragone errato – ha sottolineato – in quanto quella naturale comprende già quella artificiale. La nostra conoscenza si forma in anni di istruzione e fatica, per cui noi stessi siamo pieni di intelligenza artificiale. La differenza è che l’essere umano possiede un corpo, e quindi ha sensazioni, emozioni, intenzioni. Dovremmo liberarci dello sguardo antropomorfico con cui cerchiamo di descrivere l’AI e considerare tre aspetti. Innanzitutto non dobbiamo temere che l’uomo possa essere sostituito da una macchina, se non per i mestieri meccanici o automatici. In secondo luogo usare l’AI per scopi diagnostici può avere dei vantaggi, ma ci sono anche altrettanti limiti. L’AI conosce solo il passato e non può prevedere il futuro, e di fronte a un dubbio non opera una decisione. Infine ho una posizione precisa sul tema dei dati e della privacy. A mio avviso le Asl dovrebbero chiedere ai propri pazienti l’autorizzazione al trattamento dei dati sensibili. La scienza avanzerebbe in fretta, e le Asl vendendoli finanzierebbero la sanità pubblica, che oggi presenta un grave problema di costi”.
L’AI basata sulla bioetica
Quando si parla di intelligenza artificiale, poi, non si può trascurare la condotta morale. Un versante in cui è intervenuta Chiara Mannelli, specializzata in bioetica ed etica clinica e ricercatrice presso l’Unità di Bioetica dell’Istituto Superiore di Sanità. Nell’attività medica infatti i professionisti sono guidati da 4 principi classici: autonomia, giustizia, beneficenza e non maleficenza.
Ma queste linee guida si adattano anche all’AI? “Certo che sì – ha affermato la ricercatrice – ma a una condizione: devono essere specificatamente declinate per l’AI ed essere integrate”. Secondo Mannelli “ci sono altri tre fondamenti che dovrebbero essere aggiunti: inclusione, consapevolezza e trasparenza”. Nel primo caso “sappiamo che l’operato dell’AI si basa sui dati, e proprio per questo è fondamentale che non siano imprecisi, parziali o poco rappresentativi. In secondo luogo occorre consapevolezza, ovvero si deve prendere coscienza di cosa si sta utilizzando e come, soprattutto quando si interagisce con l’AI”.
Il terzo principio integrativo, invece, è quello della trasparenza. I processi attraverso cui l’AI arriva a una determinata risposta non sono sempre conoscibili. E così si crea un effetto black box. E questo può creare problemi: “Se ad esempio un medico non arriva alla stessa conclusione dell’AI, diventa indispensabile capire le differenze. Ma senza questa possibilità il professionista si troverebbe in grande difficoltà”.
Guidare il cambiamento
Guido Boella, professore del Dipartimento di Informatica dell’Università di Torino, si è invece concentrato sui benefici che l’AI può portare al mondo della sanità. Un valore aggiunto che riguarda in particolare tre campi: diagnostica, gestione ospedaliera e ricerca. Questo grazie al “deep learning”, una tecnica di apprendimento in cui si espongono reti neurali artificiali a vaste quantità di dati in modo che possano imparare a svolgere compiti. Le conseguenze? Diagnosi automatizzate che si avvicinano sempre più, per qualità e precisione, a quelle di un medico. Analogamente, fornendo all’AI tutto il percorso clinico del paziente, si possono anche sviluppare nuovi protocolli medici. E anche nella gestione di un ospedale l’AI, dopo aver elaborato i dati relativi al suo funzionamento, può creare sistemi di supporto nelle decisioni. Stesso discorso per la ricerca: dalle banche dati della genomica l’AI può aiutare scoprire le cause delle malattie e nuovi farmaci.
“Dove sono presenti i dati – ha sottolineato Boella – l’AI può sempre intervenire con successo. Ma il problema più grande è l’aspetto economico e politico. La maggior parte di questi sistemi infatti è in mano ai grandi player privati, dato che i costi di funzionamento sono nell’ordine di milioni di euro. Sono quindi parte di un meccanismo economico-politico che ha il suo peso e vuol vedere ripagate le risorse investite. La combinazione di questi meccanismi con la generale decrescita dei budget per la sanità, crea per i policy maker tentazioni pericolose. Abbiamo visto che per risparmiare gli ospedali si sono rivolti ai gettonisti, creando molti problemi, figuriamoci se trovano la possibilità di sostituire un radiologo con una macchina che dà referti abbastanza accurati”.
L’utilizzo dell’AI nella società è un tema delicato, affrontato da tempo a livello europeo e internazionale. L’analisi di possibili rischi e benefici connessi al suo utilizzo sembra condurre alla necessità di individuare interventi normativi e strategie per garantire che il progresso tecnologico avvenga in sicurezza e in un contesto di tutela dei diritti.