Intelligenza artificiale tra rischi e opportunità
Secondo il filosofo Luciano Floridi la computer science ci offre una nuova equazione: AI = agire sine intelligere.

Ops! Per usare il Centro di Lettura devi prima effettuare il log in!
Password dimenticata?Non hai un account? Registrati
Hai già un account? Log in
Secondo il filosofo Luciano Floridi la computer science ci offre una nuova equazione: AI = agire sine intelligere.
Foto di Marco Vergano
Nell’autunno del 2018 i ricercatori del Seoul national university hospital e del College of medicine della capitale della Corea del Sud hanno sviluppato un algoritmo di intelligenza artificiale in grado di analizzare le radiografie del torace per rilevare potenziali tumori. DLAD (questo il nome dell’algoritmo, che sta per deep learning based automatic detection) ha dimostrato una grande efficienza nell’individuare cellule sospette. Se la cava addirittura meglio degli umani: nel corso di un esperimento il software è riuscito a battere ben 17 sui 18 medici che erano stati chiamati a sfidarlo in una gara di lettura di immagini diagnostiche.
L’intelligenza artificiale (o, in breve, AI) è ormai destinata a entrare nella ricerca in ambito medico e nella pratica clinica non solo come supporto al processo diagnostico ma anche per la scoperta e lo sviluppo di farmaci, per il miglioramento della comunicazione tra professionisti e pazienti, per la trascrizione di documenti medici e il trattamento a distanza.
Il termine “intelligenza” è legato al meccanismo di apprendimento di queste tecnologie, che per certi versi può ricordare quello degli umani. Gli algoritmi di AI imparano grazie a un addestramento. Immaginiamo di voler mettere a punto un software come DLAD: i programmatori mostreranno alla macchina diverse immagini con le relative descrizioni. Dopo aver visto migliaia e migliaia di radiografie, l’algoritmo avrà acquisito abbastanza esperienza da riuscire a identificare delle opacità polmonari da monitorare o da valutare in modo più approfondito.
Cosa leggere sull’intelligenza artificiale? | Potremmo partire da un tascabile pubblicato nel 2017 dalla Oxford University Press e in edizione italiana dalla Luiss University Press: Intelligenza artificiale. Guida al prossimo futuro. L’autore è Jerry Kaplan, docente di Computer science alla Stanford university, una delle culle dell’informatica [1]. Sono pagine scritte in modo molto chiaro, con un linguaggio sempre comprensibile e che ricorrono a numerosi esempi che non solo facilitano l’approccio del lettore a un argomento non sempre facile da approfondire, ma svelano realmente quanto l’intelligenza artificiale faccia già parte delle nostre vite. Una frase da ricordare? “La questione importante non è però se le future generazioni riterranno o meno le macchine dotate di coscienza, ma se le considereranno meritevoli di considerazione etica”. Della stessa casa editrice, Critica della ragione artificiale, di Eric Sadin [2]. Un libro che potremmo definire “più combattivo”, che ricorda sistematicamente come nel momento in cui la tecnologia dà una nuova struttura alle nostre esistenze individuali e collettive coinvolge di fatto dei valori, potenzialmente alterando le gerarchie di importanza che ad essi assegnano gli individui.
Possiamo dire dunque che gli algoritmi di AI sono intelligenti? Sull’uso di questo aggettivo gli esperti preferiscono essere cauti. Nel saggio “Intelligenza artificiale, l’uso delle nuove macchine” [3], Luciano Floridi spiega come sia preferibile distinguere tra l’intelligenza e la capacità di portare a termine un compito. “Con l’AI, la computer science ci offre una nuova equazione: AI = agire sine intelligere”, scrive Floridi, sottolineando come il fatto che queste macchine sappiano fare qualcosa non implica che stiano comprendendo il significato delle proprie azioni. Floridi è professore ordinario di Filosofia ed etica dell’informazione presso l’Oxford internet institute dell’università di Oxford.
Di solito, la distinzione tra capacità di agire (Floridi indugia sull’assenza di un’efficace traduzione del termine agency nella lingua italiana) e intelligenza per noi umani non rappresenta un problema. Quando abbiamo a che fare con una macchina, siamo interessati al risultato che riuscirà a portare a termine e al tempo che ci farà guadagnare. Vale anche in medicina: pensiamo per esempio a LYNA (lymph node assistant), algoritmo di Google AI Healthcare che analizza campioni istologici per identificare regioni sospette e che è in grado di dimezzare il tempo medio di analisi dei vetrini.
Inoltre, l’intelligenza artificiale può riuscire a dare risposte a problemi complessi, dove un numero troppo alto di parametri e variabili rende impossibile l’elaborazione manuale. È questo il caso di DeepMind, società controllata da Alphabet (Google), che ha risolto un problema che affliggeva da cinquant’anni i biologi: prevedere come si piegano le proteine nello spazio. Nel 2020, per la prima volta nella storia, l’AI è riuscita a ricostruire la forma tridimensionale che la proteina assume dopo il folding, sulla base della sequenza di aminoacidi. Il tutto in poche ore (in alcuni casi anche meno) e con un’accuratezza del 90%. Si tratta di una delle scoperte più importanti che riguardano la biologia negli ultimi anni, visto che il comportamento della proteina dipende dalla sua forma.
“I sistemi che sappiamo costruire hanno l’intelligenza di un tostapane e non abbiamo davvero la minima idea di come migliorare la situazione”.
Luciano Floridi
Tutto questo, però, non significa che l’intelligenza artificiale sostituirà gli esseri umani, perché la messa a punto di sistemi che imitino realmente, da un punto di vista biologico, l’intelligenza umana rimane confinata nella fantascienza. Per Floridi: “È un fallimento completo. I sistemi che sappiamo costruire hanno l’intelligenza di un tostapane e non abbiamo davvero la minima idea di come migliorare la situazione”. Per rendersene conto basta seguire il Loebner Prize, la competizione annuale che premia il robot più abile nel sostenere conversazioni. Questi sistemi se la cavano molto bene finché la chiacchierata procede con scambi di battute semplici e lineari, ma poi arrancano di fronte all’ironia o a frasi che richiedano una reale comprensione del testo. In altre parole: dopo aver letto milioni di messaggi, possono essere in grado di rispondere a un interlocutore – e di farlo bene – ma senza avere la minima idea di ciò che stanno facendo.
Questo significa che per la prima volta nella storia qualcuno (o meglio, qualcosa) riesce a portare a termine un compito, anche molto complesso, senza possedere una briciola di intelligenza. Si tratta di un fatto nuovo, che apre a diversi interrogativi.
Tra i più importanti c’è la questione etica della responsabilità: di chi è la colpa quando un sistema di questo tipo sbaglia? Se, per esempio, un programma commette un errore nell’assegnare la priorità ad un paziente, magari sottovalutando un’urgenza, chi sarebbe il responsabile di eventuali complicazioni dovute al ritardo? Per Floridi, sono gli umani che l’hanno progettata o utilizzata, dal momento che un software può essere causa di un danno senza esserne responsabile, perché privo dell’intenzionalità e della morale.
“Dato che l’AI è il partner stupido ma laborioso e inflessibile, e l’umanità quello intelligente ma flessibile e malleabile (oltre che pigro) chi si adatterà a chi?”
Luciano Floridi
Ci si potrebbe poi chiedere perché i sistemi artificiali, così potenti ma al tempo stesso stupidi, oggi stiano riscuotendo un grande successo. La risposta è semplice: li stiamo mettendo nelle migliori condizioni per poter svolgere il proprio lavoro. “È il mondo che si sta adattando all’AI e non viceversa”, osserva Floridi. Questo vale anche in medicina, dove dalle pratiche di accettazione di un paziente alla gestione della cartella cliniche, sono sempre di più i problemi che possono essere risolti solo da un software, proprio perché inseriti in un sistema a misura di software.
Sfide etiche e politiche | L’entusiasmo per la cosiddetta data science porta inevitabilmente alla necessità di considerare l’etica in relazione all’era dell’informazione. Allo stesso tempo, è in atto una sorta di “rivoluzione” nelle scienze politiche in cui Internet, i social media e il digital monitoring hanno determinato una forte mobilitazione dei movimenti politici e la possibilità di “mappare” costantemente le dinamiche interne di questi movimenti. Inoltre, la generazione di enormi quantità di dati da tali processi presenta, da un lato, opportunità per analizzare e anzi prevedere la volatilità politica, e dall’altro sfide etiche e tecniche che sono state approfondite da Luciano Floridi in una conferenza tenuta presso l’Alan Turing institute, il National institute for data science del Regno Unito. Il video è disponibile su YouTube.
La tendenza è destinata a rafforzarsi, così il mondo diventerà sempre più complesso da gestire, i sistemi di AI avranno sempre più successo e saranno sempre più utili fino a diventare indispensabili. Quindi no, le macchine non sostituiranno mai il medico, ma è molto probabile che i medici che sapranno utilizzare l’intelligenza artificiale sostituiranno quelli che non sanno usarla. Ecco perché tutti i professionisti (compresi quelli sanitari) dovranno adattarsi a questo cambiamento, cogliendone le opportunità e cercando di anticipare le tendenze, ma al tempo stesso mitigandone i rischi.
Viola Bachini, Il Pensiero Scientifico Editore
Bibliografia
Da Singapore agli Stati Uniti, passando per l’Italia, una breve panoramica sui dibattiti in corso.
A cura di Maria Teresa Busca
È l’espressione della libertà positiva dell’uomo e quindi della responsabilità di ogni suo volere...
Il dolore non è che l’altra faccia ombrosa del trascorrere del tempo. Così appare nella raccolta di poesie di...