A cura di Fiorello Casi Nel contesto commerciale con questa espressione si rimanda al cosiddetto principio delle “tre V”. Parlare di big data, tuttavia, significa anche confrontarsi sui temi etici.
L’espressione big data si deve ai programmi di ricerca scientifica, soprattutto a quello della sequenzializzazione del genoma umano, che nei primi anni di questo secolo hanno dovuto misurarsi con enormi incrementi di dati rispetto al passato. Infatti, si era giunti in quegli anni alla conclusione che il volume delle informazioni fosse cresciuto in maniera tale da non poter essere più trattato dalle memorie dei sistemi informatici allora disponibili, per cui i tecnici avrebbero dovuto adoperarsi per superare questo limite fisico, ma di fatto anche logico, anteponendo la soluzione di questo problema a tutti gli altri allora presenti nel panorama informatico.
Big data è un termine che ha una recente istituzionalizzazione nel settore dell’Information and communications technology (Ict), anche se questo genere di metodologia di gestione e analisi dei dati ha un’origine meno attuale. La data più importante per la definitiva affermazione dei big data come nuova realtà emergente nel panorama tecnologico è quella del maggio 2013, grazie alla comparsa e al diffondersi sul mercato dell’Ict di nuove aziende il cui core business era quello della raccolta, gestione e analisi dei dati; infatti, operando su quantità di dati di enormi dimensioni con metodologie fino ad allora inedite, si era in grado di giungere a previsioni molto affidabili se non a conclusioni addirittura controintuitive rispetto ai metodi allora ritenuti tradizionali per l’analisi dei dati. Ciò si rivelò rivoluzionario in settori quali il marketing strategico, le analisi di mercato, la produzione e la ricerca. Iniziarono a moltiplicarsi gli eventi accademici e commerciali, nazionali e internazionali, dedicati alle tematiche relative ai nuovi modelli di data analytics, allo sviluppo di tecnologie e alla diffusione delle nuove infrastrutture e piattaforme tecnologiche che i bigdata avevano generato.
Come per tutte le tecnologie in via di sviluppo e di consolidamento non esiste ancora un modo completamente condiviso per descrivere con puntualità cosa si intenda quando si parla di big data. Nel contesto commerciale con questa espressione si rimanda al cosiddetto principio delle “tre V”, ossia i big data sono un segmento del mondo Ict che si occupa di raccolta, gestione e analisi dei dati che hanno elevate caratteristiche di volume, varietà e velocità.
Volume: la quantità di dati oggetto di raccolta e gestione possiede delle dimensioni tali per cui sono necessarie specifiche apparecchiature e strutture hardware; le unità che esprimono tali dimensioni passano immediatamente dai gigabyte (109 byte) e terabyte (1012 byte) ai petabyte (1015 byte) e yottabyte (1024 byte).
Varietà: i dati sono disponibili in forme organizzate e strutturate e in forme non omogenee e non strutturate; ciò rappresenta un fatto inedito e di notevole ostacolo per le tradizionali tecniche di gestione dei database.
Velocità: questo aspetto si applica a due fasi distinte, se pur complementari, legate al trattamento dei dati, quella della loro raccolta e quella della loro analisi.
Successivamente, alle tre V se n’è aggiunta una quarta, la veridicità: con essa ci si riferisce all’affidabilità dei dati raccolti e al loro veritiero utilizzo per supportare processi decisionali in maniera proficua. Si tratta di una definizione tecnologica che descrive il campo di applicazione dei big data.
È facile intuire come questa nuova disciplina nel trattamento dei dati si collochi trasversalmente a tutti i settori della ricerca, sia scientifica che sociale. Gli studiosi e i ricercatori di diversa estrazione che si occupano di questo fenomeno o col quale si trovano a interagire ritengono che ciò che rende molto interessanti i big data sono le importanti potenzialità che questa nuova tecnologia garantisce. Infatti, alcune proprietà e caratteristiche li rendono uno strumento molto potente, non soltanto nel campo della ricerca delle discipline scientifiche tutte, ma anche in quello delle discipline umanistiche a cui forniscono un contributo non secondario. E grazie alla repentina crescita delle capacita di trattare enormi quantità di informazioni, rese disponibili dal progredire delle tecnologie digitali (soprattutto quella denominata intelligenzaartificiale, tramite le sue componenti operative, il machine learning e il deep learning), che l’ecosistema dei big data diviene in breve tempo la nuova e fondamentale parte di un inedito e potente approccio all’economia, alla scienza, alla produzione, alla ricerca medica e farmaceutica, alle scienze sociali e politiche e alle relazioni interpersonali, consentendo alla raccolta e all’analisi dei dati di trasformarsi in strumenti di cambiamento sociale e progresso scientifico.
Parlare di big data, tuttavia, significa anche confrontarsi sui temi etici che il trattamento di questi dati pone, e sulla ricerca del possibile equilibrio – in sede di autoregolamentazione e di normativa italiana ed europea, ma anche attraverso comportamenti virtuosi degli operatori dell’informazione – tra le estese possibilità della rete, il diritto di informare e di essere informati e la tutela dei singoli utenti in termini di privacy. Quest’ultima va intesa non solo come rispetto dei propri confini personali, ma soprattutto come costante vigilanza sui possibili abusi (tramite i nuovi e potenti strumenti digitali), in termini di manipolazione e distorsione delle informazioni e dell’interpretazione dei dati, attraverso l’orientamento pilotato o viziato delle opinioni dei cittadini, con mezzi che ne inducano un comportamento da meri f consumatori.
Fiorello Casi Ricercatore in Etica delle nuove tecnologie Università degli studi di Torino
Questo testo è tratto dal libroLe parole della bioeticaa cura di Maria Teresa Busca e Elena Nave(Roma: Il Pensiero Scientifico Editore, 2021). Per gentile concessione dell’editore.