Sabina Leonelli: «Non solo Big Data, dietro le azioni scientifiche c'è l'etica»

La filosofa della scienza co-direttore del Centro per lo Studio delle Scienze della Vita in Gran Bretagna: N«Non è possibile pensare a un futuro della medicina senza la presenza dell’uomo»

Sabina Leonelli: «Non solo Big Data, dietro le azioni scientifiche c'è l'etica»
di Carla Massi
5 Minuti di Lettura
Mercoledì 17 Gennaio 2024, 12:47 - Ultimo aggiornamento: 18 Gennaio, 06:51

Il robot permette di intervenire chirurgicamente con precisione senza essere troppo invasivo, l’Intelligenza Artificiale è diventata complemento per la diagnosi e la prognosi di una malattia, con gli algoritmi di Machine Learning è possibile, creare dei calcolatori di rischio personalizzati, raccomandazioni da utilizzare nella pratica clinica.

In una strategia di studio e lavoro come questa sembra quasi impossibile porre dei limiti, mettere dei paletti alla Scienza. Che sembra poter procedere senza la mente umana. «Non è assolutamente possibile pensare a un futuro della scienza e della medicina senza la presenza dell’uomo. Nonostante le opportunità, da riconoscere, che la tecnologia ci offre, dovremo essere sempre noi a scegliere e decidere» commenta Sabina Leonelli, modenese, 44 anni, due figli, ordinario di Filosofia e Storia della Scienza e direttore del Centro per lo Studio delle Scienze della Vita in Gran Bretagna.
Incoraggia la sua certezza, come può e potrà l’uomo mantenere questo ruolo da protagonista?
«La scelta finale, che sia una terapia o il percorso di una ricerca, spetterà sempre a noi. E noi, con i governi e il mondo della medicina, dovremo creare nuove regole».
A oltre due secoli dall’uscita nel 1818, il Frankenstein di Mary Shelley oggi è spesso citato come un allarme davanti ai rischi posti da una ricerca sfrenata e del dominio sulla natura. Che ne pensa?
«Per gestire i rischi è essenziale l’integrazione dell’etica nel lavoro scientifico e la riforma della partecipazione sociale nella produzione, gestione e interpretazione dei dati».
Sembra essere arrivati alla convinzione che l’Intelligenza Artificiale oltre a fare una diagnosi più velocemente del medico riesca anche a dimezzare i tempi di una sperimentazione. Appare più affidabile dell’uomo. È vero?
«Stiamo assistendo a una vertiginosa innovazione tecnologica nella produzione, comunicazione e analisi dei dati usati per scopi scientifici. Sicuramente questa è accompagnata da un’enfasi crescente sul ruolo dell’intelligenza artificiale, per esempio, nell’interpretare i dati e nel facilitare la produzione di conoscenza. Ma, come ribadisco, le macchine non hanno autonomia nel giudizio né comprensione del contesto. Quei dati e quei risultati dovranno essere sempre filtrati e analizzati dalla conoscenza medica».
Si ha paura che diagnosi, terapia e ricerca arrivino solo da un mix di dati e non dal un lavoro etico che tenga conto del benessere della popolazione.
«Il timore può essere comprensibile. L’insieme di dati fornisce delle risposte, apre nuovi scenari, offre opzioni che il medico e il ricercatore devono valutare. I dati non parlano da soli, occorre capire come farli parlare».
Nel suo libro “La ricerca scientifica nell’era dei Big Data” lei analizza i danni e i benefici della tecnologia in questa era. Ci può fare degli esempi? 
«Cominciamo dai benefici. La probabilità, per esempio, di associare i dati provenienti dalle ricerche condotte in oncologia con quelle riguardanti il genoma umano o di trovare nuove medicine».
E l’altra faccia della medaglia?
«Se si accetta l’idea che i Big Data danno informazioni su tutto, si accetta anche l’idea che basti metterli insieme per ottenere una piattaforma empirica affidabile. E, in questo senso, incontestabile per la ricerca futura. Questa idea non funziona».
Lei che cosa ricorda ai ricercatori nei suoi incontri con chi lavora nei laboratori?
«L’idea che i Big Data racchiudano una rappresentazione completa della realtà è un’illusione che sta distruggendo lo spirito critico con cui i ricercatori affrontano l’analisi e l’interpretazione dei dati empirici. E grandi compagnie come Google sfruttano la situazione per cercare di sostituirsi agli esperti e dominare il mercato con tecnologie costose e non necessariamente affidabili».
Torniamo, dunque, al concetto che riguarda il tipo di uso e di interpretazione della tecnologia da parte dell’uomo?
«È compito della responsabilità intellettuale quella di comprendere le tecnologie e sfruttarle nel modo più appropriato. Tenendo conto delle ripercussioni etiche e sociali».
Non crede che le questioni etico-scientifiche e sociali siano cambiate in nome di una nuova conoscenza sempre più veloce?
«L’Unione Europea sta lavorando proprio a questo con l’ obiettivo di dare linee guida che ogni Paese dovrà applicare. Giudizi e scelte etiche si nascondono dietro ogni atto scientifico. Va ricordato che le innovazioni tecnologiche hanno un impatto sul modo in cui gli organismi di finanziamento e le istituzioni ripartiscono le risorse. Un punto focale di cui si occupata la Commissione Europea il progetto riguarda il modo in cui è possibile organizzare le comunità e gli enti di ricerca per sfruttare grandi serie di dati e tecnologie correlate».
Che dire dei lavori che sembrano oltrepassare il lecito etico o di quelli che potrebbero interessare più un gruppo di investitori del bene collettivo?
«Anche la ricerca fatta nel nome del bene pubblico può essere problematica quando non si ferma a valutare cosa esattamente “bene pubblico” significhi. Una tecnologia sviluppata con buone intenzioni può sempre anche essere sfruttata in modi eticamente problematici». 
Lei insegna all’Università, i suoi giovani studenti sono interessati a questo connubio scienza-tecnologia e etica?
«Ho studenti di diverse facoltà, da Ingegneria, Biologia, Filosofia.

Tutti hanno un grande desiderio di sapere come coniugare le conoscenze tecnico-scientifiche con l’etica. Un buon segno per il futuro».

© RIPRODUZIONE RISERVATA