Intelligenza artificiale in medicina: è una scelta politica?
L'intervista di Andrea Capocci, fisico e giornalista, a Teresa Numerico. filosofa della scienza e autrice di "Big data e algoritmi. Prospettive critiche"

Ops! Per usare il Centro di Lettura devi prima effettuare il log in!
Password dimenticata?Non hai un account? Registrati
Hai già un account? Log in
L'intervista di Andrea Capocci, fisico e giornalista, a Teresa Numerico. filosofa della scienza e autrice di "Big data e algoritmi. Prospettive critiche"
Foto di Ars Electronica / CC BY
Teresa Numerico insegna Logica e Filosofia della scienza all’Università di Roma Tre. La incontriamo per parlare dell’impatto dell’intelligenza artificiale sulla società e in particolare sulla medicina. A questi temi Numerico dedica gran parte della sua ricerca, in cui cerca di mostrare cosa si nasconda dietro l’apparente freddezza dei meccanismi automatici. L’ultimo suo libro, pubblicato dall’editore Carocci nel 2021, si intitola Big data e algoritmi. Prospettive critiche.
Non ha sempre significato la stessa cosa. Nella storia il significato è slittato spesso. In origine, faceva riferimento a sistemi “esperti”, muniti di meccanismi logici in grado di trarre inferenze e risolvere problemi. Non era l’unico approccio possibile. Ma le prime ricerche sulle reti neurali, sistemi in grado di apprendere e non dotati a priori di un sistema logico formale, ricevettero minore interesse, anche per le critiche ricevute. Ebbe un certo peso un libro di Marvin Minsky e Seymour Papert, intitolato Perceptrons, che spostò altrove anche i finanziamenti per la ricerca.
In ambito sanitario, si sviluppò un grande interesse intorno a una delle applicazioni dell’intelligenza artificiale e ai sistemi esperti, metodi in grado di supportare la decisione medica. Si trattava di sistemi capaci di imitare il comportamento dei medici, studiandolo attraverso questionari. Il più famoso di questi primi prodotti si chiamava Mycin. Ma in generale era difficile risolvere il problema della reticenza dei medici e del ragionamento implicito che soggiace alle decisioni che nemmeno il professionista sa esplicitare. Infine, si trattava di sistemi che molto spesso richiedevano una capacità computazione intrattabile per i computer dell’epoca.
Dopo il “grande inverno” di fine anni Ottanta, i sistemi basati sull’apprendimento a partire dai dati tornano di attualità e ricominciano gli investimenti nello studio delle reti neurali. Sono sistemi che imparano a partire dai dati, e non sono dotati di regole per il ragionamento logico. La loro “primavera” arriva dopo il 2000, quando diventano disponibili strumenti informatici potenti come le graphics processing unit. Oggi con “intelligenza artificiale” si intende in genere questo tipo di macchine. Ma i problemi non cambiano molto. Perché – come sostenevano Minsky e Papert – anche le reti neurali moderne non garantiscono di ottenere un risultato sempre corretto. Quindi molte questioni nell’uso e nell’interpretazione dell’intelligenza artificiale permangono.
Nella diagnostica, ad esempio. Per le mammografie oggi esistono sistemi che si propongono di supportare il medico nella diagnosi. L’intelligenza artificiale oggi è in grado di individuare una retinopatia diabetica e di controllare lo stato di salute diabetico a partire dall’analisi della retina. Si usa anche in campo terapeutico. Negli Stati Uniti con l’intelligenza artificiale si controlla l’interazione tra i farmaci. Oppure, l’intelligenza può suggerire al medico la decisione terapeutica sulla base del quadro diagnostico. L’intelligenza artificiale è applicata anche allo health management: molti programmi di gestione della salute, soprattutto in ambito privato, usano algoritmi per stabilire le strategie migliori sulla base dei dati. E nell’amministrazione sanitaria: gli ospedali la usano per analizzare i protocolli e la loro efficacia.
Il mondo deve essere tradotto nel sistema di codificazione e quantificazione richiesto dall’intelligenza artificiale. E non è sempre facile.
Teresa Numerico
Gli attuali sistemi di intelligenza artificiale hanno bisogno di dati con cui essere allenati. Questo impone alcuni vincoli. Innanzitutto, il mondo deve essere tradotto nel sistema di codificazione e quantificazione richiesto dall’intelligenza artificiale. E non è sempre facile. A Toronto c’è un grande progetto finanziato da Google per realizzare una città smart adatta anche alle auto a guida autonoma a cominciare dal quartiere Quayside, con la creazione di un complesso sistema di sensori e telecamere, ma già ci sono molte critiche e una tendenza a ridimensionare il progetto per motivi di sostenibilità, tutela della privacy e complessità della gestione infrastrutturale
Poi c’è il problema della standardizzazione dei dati di ingresso. Facciamo l’esempio delle immagini di laboratorio clinico: mentre le persone hanno l’elasticità di riconoscere una lesione anche da un’immagine di qualità non perfetta, il sistema automatico potrebbe non aver questa flessibilità. Quindi, per funzionare il sistema ha bisogno di un controllo molto rigido a monte su come sono prodotti e processati i dati. Bisogna chiedersi a cosa serva la macchina, se richiede di rivoluzionare il sistema complessivo per adattarlo ai vincoli strutturali.
Inoltre, l’apprendimento è facile quando la macchina ha una chiara “funzione obiettivo”. Ad esempio, se lo scopo è vincere una partita di scacchi. Ma in medicina questo non è sempre possibile, soprattutto nelle situazioni di incertezza. I medici si basano anche su ragionamenti probabilistici e sull’euristica. Le macchine possono emulare quei ragionamenti solo probabili, ma non sappiamo quali vincoli stanno scegliendo e perché.
Infine, il funzionamento di queste macchine è influenzato dai dati che ricevono nell’addestramento. Perché a ben vedere nessun sistema apprende “da solo”: tutti hanno bisogno di ricevere dati su cui imparare. La scelta di questi dati di addestramento e dei criteri di apprendimento (learning bias) è decisiva per sapere cosa produrrà il processo di adeguamento.
Bisogna chiedersi a cosa serva la macchina, se richiede di rivoluzionare il sistema complessivo per adattarlo ai vincoli strutturali.
Teresa Numerico
Le intelligenze artificiali vengono allenate con grandi basi di dati. Per esempio, immagini di lesioni potenzialmente tumorali di cui si conosce anche la reale natura. E la macchina “impara” a distinguere quelle tumorali dalle altre. Ma addestrarsi a partire dai dati implica che la macchina assuma anche tutte le relazioni tra quei dati come virtuose e da replicare, anche se non sono esplicitamente poste. Possono essere correlazioni invisibili all’occhio umano ma che vengono comunque ‘apprese’ dalla macchina, che non sa dare senso a quei dati, ma li assume come l’origine su cui basare ciò che sa.
Le intelligenze artificiali usate nella ricerca di personale associano le professioni ai profili a partire dai “corpora” in cui l’algoritmo, sulla base della frequenza statistica, correla alcune variabili, per esempio genere e professione. Ovviamente, se nei dati di partenza certe professioni sono associate in principale modo al genere femminile, la macchina considererà più adatta una donna rispetto a un uomo per affidare loro quei ruoli. E così una caratteristica del passato diventa una regola di funzionamento per il futuro. Con il risultato di immobilizzare la costruzione del mondo.
C’è la questione della pigmentazione della pelle. Se una macchina deve riconoscere le lesioni della pelle è importante che venga allenata su una base di dati in cui siano presenti anche pigmentazioni diverse da quella caucasica. Altrimenti, la macchina abituata a riconoscere le lesioni in un certo contesto di pelle potrebbe commettere errori nel riconoscimento delle stesse lesioni in condizioni non standard dal suo punto di vista. Questo potrebbe penalizzare la popolazione afroamericana che otterrà standard di cura inferiori.
Anche gli algoritmi di health management possono essere discriminatori nei confronti di alcuni gruppi sociali, perché misurano il bisogno di cura con i costi sanitari supponendo che chi sta peggio comporta spese sanitarie più elevate. A parità di condizioni di salute, tuttavia, la popolazione afroamericana spende meno per la salute perché incontra più barriere all’accesso alla sanità. Se non si tiene conto di questo fattore sociale, invece, appare semplicemente più sana. E così i neri negli Stati Uniti ricevono meno cure dei bianchi. Ci sono studi che dimostrano che per accedere al sistema di prevenzione che prevede controlli sanitari periodici serrati, legato allo stato di salute complessa aggravata da molte comorbidità, i cittadini afroamericani e ispanici devono essere molto più malati degli altri. Ma il risultato di questa discriminazione si traduce inoltre in un costo maggiore per il sistema sanitario in complesso che sarà costretto a cure più impegnative quando le persone si rivolgono al sistema sanitario in condizioni ormai gravi. L’effetto implicito della discriminazione ha esiti antieconomici.
Quando si scelgono le categorie con cui si descrive il mondo, se ne governa l’interpretazione. Il sistema di intelligenza artificiale mette in funzione criteri scelti dal servizio sanitario. Ma quando lo fanno persone in carne e ossa, questi criteri diventano espliciti e possono essere oggetto di dibattito. Pensiamo a quello che si è scatenato quando la Società italiana degli anestesisti rianimatori ha messo nero su bianco le regole per decidere chi aveva diritto a un posto in terapia intensiva e chi no, durante l’emergenza covid-19. Se queste scelte le fa un codice informatico, i criteri si inabissano. Il problema si pone anche quando si tratta di effettuare l’audit interno di un ospedale con l’intelligenza artificiale: quali criteri adottare? Di nuovo, si rischia di perdere il controllo del meccanismo.
La macchina permette di superare l’angoscia della scelta. Possiamo anche deciderlo, ma deve essere una decisione collettiva politica e consapevole.
Teresa Numerico
Certo, non dipende dall’intelligenza artificiale. E non c’è nulla di male nel decidere cosa sia rilevante e cosa no. Ci ha permesso di fare teorie e previsioni e intervenire sulla realtà. Però scienze come la fisica hanno anche costruito dei meccanismi di controllo, come la riproducibilità degli esperimenti e il controllo tra pari. Con le scienze sociali questo è più difficile, perché la previsione stessa interviene sull’oggetto di ricerca, mentre gli atomi studiati dai fisici si comportano sempre nello stesso modo. Con l’intelligenza artificiale, tutti questi problemi finiscono sotto il tappeto. Diventa impossibile controllare come il dispositivo è arrivato a una certa conclusione e governarlo politicamente. Quindi rimane la quantificazione e l’appropriazione della realtà, ma spariscono i meccanismi di controllo. Applicare questo schema interpretativo alle persone è un rischio. Ma l’intelligenza artificiale non fa che riprodurre quello che la scienza occidentale ha già fatto. La macchina permette di superare l’angoscia della scelta. Possiamo anche deciderlo, ma deve essere una decisione collettiva politica e consapevole.
Chi ha la possibilità di raccogliere questi dati, l’infrastruttura per conservarli e l’expertise. Cioè le società dette big tech: Google, Amazon, Apple, Microsoft. E infatti tutte stanno facendo grandi investimenti nel settore della salute: si prevede un grande incremento della richiesta di sistemi, con un grande giro d’affari. Pochi giorni fa, Amazon ha acquistato la società privata di cure primarie statunitense One Medical. Ma aveva già creato Amazon Care, la divisione dedicata alla salute. Raccogliere i dati sanitari sottolinea l’importanza delle regole sulla trasparenza, la privacy, la legittimità della raccolta, la possibilità di pseudoanonimizzarli.
Raccogliere i dati sanitari sottolinea l’importanza delle regole sulla trasparenza, la privacy, la legittimità della raccolta, la possibilità di pseudoanonimizzarli.
Teresa Numerico
C’è qualche tentativo nel campo degli “open data”. Ma il servizio sanitario pubblico non ha l’infrastruttura tecnica adatta e finisce per appoggiarsi ai giganti di big tech, da cui siamo completamente colonizzati. Le iniziative più forti sul settore della “sovranità dei dati” in questo momento provengono dai paesi del Sudamerica. Ma c’è un grosso problema di competenze disciplinari. Nel settore pubblico, forse sono disponibili in Cina, o in Russia. Ma le grandi università internazionali sono collegate a big tech. Raccogliere questi dati richiede infrastrutture industriali molto grandi e molte di queste aziende di intelligenza artificiale ormai puntano a diventare entità statali autonome e indipendenti.
Se si introduce l’intelligenza artificiale per risparmiare sul personale, i medici faranno la fine dei piloti degli aerei che sono sottopagati da quando il volo è completamente computerizzato.
Teresa Numerico
Non è detto che le macchine sostituiscano i medici. Le apparecchiature per i raggi X hanno fatto nascere una nuova categoria di medici, i radiologi. Ma se si introduce l’intelligenza artificiale per risparmiare sul personale, i medici faranno la fine dei piloti degli aerei, che sono sottopagati da quando il volo è completamente computerizzato. E infatti anche in quel campo oggi ci si pone il problema di addestrarli per intervenire in casi di emergenza. È una scelta politica, non tecnica. Il confronto sull’accuratezza tra intelligenza artificiale e medico nelle diagnosi oncologiche di solito si fa con un solo professionista. In Italia servono due medici per una diagnosi oncologica: l’obiettivo è sostituirne uno con la macchina per risparmiare, o avere diagnosi più accurate? Sostituire lo psicoanalista con una app è possibile, ma è di nuovo una scelta politica. Significa costruire una sanità di serie A, nella quale ci si potrà permettere lo psicoanalista in carne e ossa, e una di serie B, per coloro che dovranno accontentarsi della app per alleviare la loro sofferenza psichica. Anche per la telemedicina si corre lo stesso rischio. Già oggi, in Giappone, si sperimentano i robot nella cura dei malati. Sono scelte che possono essere compiute. È necessario regolamentare i dispositivi e chiarire gli obiettivi che spingono i processi di automazione. Ma non inizia tutto con l’intelligenza artificiale, e il ruolo del medico è già cambiato.
È necessario regolamentare i dispositivi e chiarire gli obiettivi che spingono i processi di automazione.
Teresa Numerico
Come spiega Karl Marx nel Frammento sulle macchine, la macchina sostituisce il lavoratore solo dopo che la sua expertise di artigiano è stata resa irrilevante – e questo vale anche per la medicina. I telai meccanici non servivano a sostituire gli operai, ma a produrre più stoffa. Sta succedendo anche in medicina? Dobbiamo produrne di più? Sì, se vogliamo esportare il concetto occidentale di cura altrove, in questo caso ci serve l’automazione. Ma occorre sapere che questo è anche un processo di colonizzazione. La medicina oggi deve domandarsi quanto voglia essere automatizzata. Cioè, cosa fare con il tempo liberato dalle macchine? Oggi il ruolo del medico è quello della relazione con il paziente. Il medico media tra il suo sapere e la presenza del paziente sulla base del fatto che fanno parte della stessa umanità. Il medico è empatico perché sa che potrebbe essere lui il malato. Se questo sistema va in crisi, dipende da come viene governato il processo. Non è detto che i medici diminuiranno. Ma occorre chiedersi verso quale modello tendere. Dobbiamo decidere come società quale progetto di sanità, di cura e di benessere vogliamo perseguire. Si tratta di una questione disciplinare e politica insieme.
Andrea Capocci
@andcapocci
Fisico, insegnante e giornalista, Andrea Capocci ha pubblicato i libri Networkology (Il Saggiatore, 2011) e Il brevetto (Ediesse, 2012). Scrive di argomenti scientifici per il quotidiano il manifesto.
Intelligenza artificiale, machine learning, deep learning | Per intelligenza artificiale si intende qualsiasi tecnica che metta i computer nelle condizioni di simulare l’intelligenza umana, usando formule logiche, regole di consequenzialità, alberi decisionali, machine learning e deep learning. Il machine learning (in italiano “apprendimento automatico”) è un sottoinsieme dell’intelligenza artificiale, comprende regole statistiche che abilitano le macchine a migliorare le capacità con l’esperienza. A sua volta il deep learning (in italiano “apprendimento profondo”) è un sottoinsieme del machine learning composto da algoritmi che permettono al software di addestrarsi da solo per svolgere compiti, come il parlare, il riconoscimento automatico del discorso e delle immagini, la guida automatica, esponendo reti neurali multistrato a vaste quantità di dati. Sintetizzando, per apprendimento profondo si intende un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati, dove ogni strato calcola i valori per quello successivo affinché l’informazione venga elaborata in maniera sempre più completa. Nel 2018, l’azienda britannica DeepMind, il Moorfields Eye hospital e l’University college di Londra hanno lanciato un software che promette di riconoscere l’anatomia dell’occhio, diagnosticare una patologia e suggerire un trattamento terapeutico adeguato. Le immagini dell’occhio in alta definizione acquisite con una tomografia ottica a coerenza di fase vengono elaborate da un algoritmo che le confronta con la base di conoscenza clinica al fine di identificare la diagnosi e la soluzione terapeutica ottimale per il caso specifico.
Fonte: Wilkipedia
La graphic processing unit al servizio dell’intelligenza artificiale | La graphic processing unit, “unità di elaborazione grafica”, è una componente dell’hardware grafico programmata per elaborare l’insieme di dati digitali in arrivo e accelerare la loro decodifica in un segnale compatibile con monitor o proiettori. È composta da migliaia di unità che, in parallelo, eseguono simultaneamente più operazioni aumentando la potenza di calcola per unità di tempo. Proprio per le elevate performance di calcolo, oggi le graphic processing unit trovano applicazione nell’elaborazione avanzata di big data e nei calcoli computazionali più complessi richiesti dagli algoritmi di intelligenza artificiale. Le principali soluzioni hardware per accelerare le reti neurali profonde del deep learning sono basate su architetture di processori ad elevato parallelismo, quali le graphics processing unit.
Come leggere il rischio relativo per interpretare senza fraintendimenti i risultati di uno studio clinico. Di Renato Luigi Rossi
A cura di Carlo Flamigni
La relazione che il medico stabilisce con il cittadino-paziente è volta a tutelare la...
Il medico può imparare a comunicare. E un'offerta formativa non dovrebbe essere un optional. L'intervista a Silvana Quadrino