Log in

Ops! Per usare il Centro di Lettura devi prima effettuare il log in!

Password dimenticata?

Non hai un account? Registrati

Registrazione

Sei un essere umano?

Hai già un account? Log in

Cerca nel sito…

Reset

Lo sviluppo dell’intelligenza artificiale, che in questi anni è divenuta protagonista di ferventi dibattiti, sta vivendo un momento di particolare floridità. Sebbene venga erroneamente considerata da qualcuno come una realtà futura, essa è già parte integrante della società in cui viviamo e delle nostre vite. Il riconoscimento facciale che impieghiamo per sbloccare i nostri smartphone, gli assistenti digitali come Siri che teniamo sempre in tasca e Alexa che siede nei nostri salotti funzionano, infatti, grazie all’intelligenza artificiale e rappresentano solamente alcune delle interazioni che, ogni giorno, abbiamo con questa tecnologia. Le applicazioni dell’intelligenza artificiale hanno dischiuso opportunità rivoluzionarie, potenzialmente in grado di stravolgere l’impostazione della società così come la conosciamo oggi. La possibilità, infatti, di disporre di modelli di comportamento intelligenti in grado di apprendere e perfezionare il proprio operato in maniera principalmente autonoma, racchiude un potenziale dalle straordinarie applicazioni.

La qualità dei dati e dell’apprendimento

Uno degli ambiti in cui l’intelligenza artificiale è considerata particolarmente promettente è quello sanitario, con ricadute rilevanti in molte delle sue declinazioni, tra cui il settore dell’assistenza, della ricerca e della prevenzione. Nell’ambito della diagnosi, ad esempio, incrociando una mole inimmaginabile di dati nelle sue elaborazioni l’intelligenza artificiale può permettere di raggiungere risultati molto accurati e in tempi particolarmente brevi.

I vantaggi che derivano dall’applicazione dell’intelligenza artificiale in sanità sollevano, tuttavia, importanti interrogativi con particolare riferimento al principio di giustizia ed equa allocazione delle risorse, uno dei capisaldi della riflessione di etica applicata all’ambito biomedico. Se, da una parte, l’impiego dell’intelligenza artificiale in ambito sanitario può rappresentare una risorsa molto preziosa per superare o quantomeno mitigare disuguaglianze esistenti – come testimoniano numerosi progetti internazionali che impiegano l’ intelligenza artificiale come “ponte” per offrire assistenza sanitaria a zone economicamente e geograficamente svantaggiate – occorre acquisire consapevolezza che queste stesse tecnologie possono alimentare e amplificare forme di discriminazione e disparità esistenti.

La disparità immagazzinata da intelligenza artificiale nel processo di apprendimento e poi sprigionata nell’elaborazione degli algoritmi può avere impatti significativi nei confronti delle popolazioni non rappresentate.

Infatti, la qualità e la generalizzabilità degli algoritmi riflettono la qualità e la generalizzabilità dei dati che sono stati impiegati per l’addestramento della macchina. Se nell’addestramento sono stati impiegati dati distorti, parziali o non rappresentativi – ad esempio dati che escludono determinate categorie in base a genere, età, caratteristiche fisiche –, questi bias possono essere assorbiti dalla macchina e amplificati negli algoritmi [1,2]. Immaginiamo un software diagnostico in ambito dermatologico che sia stato sviluppato a partire da immagini di individui di pelle chiara. In questo contesto, la macchina imparerà a diagnosticare un determinato tipo di patologia su immagini di pazienti caratterizzati da pelle chiara. La macchina apprenderà quanto le viene sottoposto e sarà poi in grado di operare diagnosi corrette e accurate anche su immagini di individui di pelle chiara che non le erano mai state sottoposte in precedenza. Se, però, sottoponessimo alla macchina l’immagine di un paziente con un colore della pelle che non corrisponde alle caratteristiche del campione utilizzato nell’addestramento, la macchina potrebbe non riuscire a raggiungere gli stessi livelli di accuratezza e correttezza nella diagnosi.

La disparità immagazzinata da intelligenza artificiale nel processo di apprendimento e poi sprigionata nell’elaborazione degli algoritmi può avere impatti significativi nei confronti delle popolazioni non rappresentate. Gli algoritmi possono essere plasmati su una determinata categoria di popolazione e non essere sufficientemente rappresentativi di altre che si discostano dal campione scelto come “standard di riferimento”, perpetuando meccanismi discriminatori [3].

Prevenire i rischi per uno sviluppo inclusivo

Alla luce di queste premesse, diventa doveroso impegnarsi per mitigare il rischio di un potenziale discriminatorio applicato a intelligenza artificiale. Un rischio, questo, che in determinati ambiti, come quello sanitario, è ancora più rilevante. A tale riguardo, il primo passo per il conseguimento di questo obiettivo è acquisire consapevolezza del valore che il contributo umano apporta al funzionamento della filiera di intelligenza artificiale [4].

Riconoscere il ruolo centrale degli esseri umani nel funzionamento della filiera significa intaccare la patina dorata dell’immagine di intelligenza artificiale quale realtà autonoma e magicamente intelligente.

Si pensa spesso all’ intelligenza artificiale come ad una realtà infallibile e imparziale, nettamente separata dalla contingenza umana. Ma la filiera dell’intelligenza artificiale è molto meno effimera di ciò che comunemente si pensi, in quanto affonda le sue radici nel lavoro dell’essere umano. È, infatti, proprio l’essere umano a rappresentare il “motore” della filiera, dall’etichettatura che rende possibili i datasetper l’addestramento dell’intelligenza artificiale al costante miglioramento dei suoi algoritmi, attraverso l’utilizzo e la continua introduzione di nuovi dati. Non dimentichiamo, infatti, che l’operato di intelligenza artificiale è strettamente legato alla qualità e alla rappresentatività dei dati che gli sono stati forniti dall’essere umano durante l’addestramento.

Riconoscere, dunque, il ruolo centrale degli esseri umani nel funzionamento della filiera, che viene normalmente tenuto celato per alimentare la “magia dell’automazione”, significa intaccare la patina dorata dell’immagine di intelligenza artificiale quale realtà autonoma e magicamente intelligente. Tuttavia, tale consapevolezza costituisce il primo passo per contribuire ad uno sviluppo responsabile ed equo dello straordinario potenziale legato all’intelligenza artificiale, affinché possa rappresentare, non solamente in ambito sanitario, un beneficio per tutti, senza disparità [5].

Chiara Mannelli
Unità di bioetica
Istituto superiore di sanità, Roma

Bibliografia

  1. Bender EM, Gebru T, McMillan-Major A, Shmitchell S. On the dangers of stochastic parrots. Can language models be too big? FAccT’21: Proceedings of the 2012 ACM Conference on Fairness, Accountability, and Transparency (3-10 mar­zo 2021, Virtual Event, Canada), pp 610-23.
  2. Chern Tan Y, Celis LE. Assessing social and intersectional biases in contextualized word representations. NIPS’19: Proceedings of the 33rd International Conference on Neural Information Processing Systems 2019, pp. 13230-41. 
  3. Crawford K. Atlas of AI. New Haven (Connecticut): Yale University Press, 2021.
  4. Taylor. The automation charade. Logic Magazine, anno 2018, volume 5, “Failure”.
  5. Mannelli C. Etica e intelligenza artificiale. Il caso sanitario. Roma: Donzelli, 2022.

Leggi anche

Condividi

Condividi questo articolo:

Ultimi articoli

Perché il suicidio non compare nei necrologi?

Lo stigma sul suicidio e sulla salute mentale: Adam Cifu su Sensible Medicine

Starvation come crimine di guerra e contro l’umanità

Gli aspetti giuridici della starvation esplorati da un gruppo di studenti di medicina dell'Università di Torino.

I commenti sono chiusi.