Anche gli algoritmi dovrebbero avere un’etica

A cura de Il Pensiero Scientifico Editore

 

Netflix ti suggerisce i film da guardare sulla base dei tuoi gusti personali, Google sa quello che stai cercando sulla base delle tue ricerche precedenti. L’avvento dei big data e del machine learning sta cambiando molti aspetti della vita moderna. Non sorprende, quindi, che anche in medicina ci sia aria di rivoluzione. “L’integrazione degli algoritmi di machine learning in ambito clinico promette di migliorare l’assistenza sanitaria”, scrivono Danton S. Char, Nigam H. Shah e David Magnus – della Stanford University School of Medicine – in un articolo sul New England Journal of Medicine (1). “Tuttavia, l’introduzione di queste tecnologie nella pratica clinica solleva alcuni problemi di natura etica che, secondo i tre autori, “devono essere affrontati il prima possibile”.

C’è il rischio, infatti, che si verifichi anche in medicina quanto già accaduto in altri settori di applicazione. In ambito giuridico, ad esempio, l’introduzione di algoritmi utili a predire il rischio di recidiva degli imputati ha mostrato quella che Char e colleghi definiscono una “snervante propensione alla discriminazione razziale” (2). Inoltre, i sistemi basati sul concetto di machine learning potrebbero, a causa dell’enorme quantità di dati che sono in grado di aggregare, diventare il nuovo deposito della conoscenza medica collettiva. “I clinici potrebbero affidarsi alle macchine per effettuare diagnosi e scegliere i trattamenti – sostengono gli autori dell’articolo del New England Journal of Medicine – e non solo per avere un sopporto”. Infine, l’introduzione di questi modelli potrebbe andare ad alterare la natura della relazione tra medico e paziente.

“Un algoritmo sviluppato per predire gli outcome sulla base di evidenze genetiche funzionerà in modo parziale se su alcune popolazioni non sono stati effettuati  studi genetici”, sottolineano Char e colleghi. “Per esempio, i tentativi di utilizzare i dati del Framingham Heart Study per predire il rischio di eventi cardiovascolari ha portato, in popolazioni di etnia non caucasica, a errori sistematici” (3). In ambito clinico potrebbe essere molto difficile prevedere effetti di questo tipo e, di conseguenza, evitare che l’algoritmo si modelli di conseguenza. In altri casi, poi, tali deviazioni sistematiche potrebbero persino essere ricercate. “Potrebbe esserci la tentazione di sviluppare sistemi di machine learning finalizzati a guidare i clinici verso scelte utili a migliorare i parametri di qualità, senza però migliorare l’assistenza ai pazienti”.

Un’altra minaccia è che questi algoritmi finiscano per diventare il deposito della conoscenza medica collettiva. Questa è sempre di più il risultato della combinazione dei dati pubblicati in letteratura e di quelli raccolti nei servizi sanitari, e sempre meno dell’esperienza clinica individuale. Di conseguenza, la memoria collettiva elettronica potrebbe finire per acquisire un’eccessiva autorità. “Se questo dovesse succedere – suggeriscono i ricercatori della Stanford University School of Medicine – gli strumenti di machine learning diventerebbero degli attori coinvolti nella relazione terapeutica e, di conseguenza, la loro attività dovrebbe essere confinata all’interno di criteri etici ben definiti, come la solidarietà e il rispetto per i pazienti.

In un senso più ampio, l’introduzione degli algoritmi di machine learning solleva delle domande sulla natura della relazione tra medico e paziente. Fino ad oggi, infatti, la pratica clinica si è fondata sul presupposto di un reciproco rapporto di fiducia tra le due figure. Un concetto, questo, che potrebbe essere messo in crisi dall’implementazione di tali tecnologie. “Se sarà la relazione tra paziente e sistema sanitario a diventare centrale – scrivono Char e colleghi –, il rapporto di fiducia tra medico e paziente verrà meno e si perderà il concetto di responsabilità personale”. Inoltre, da un punto di vista etico non si potrà non considerare che un sistema di assistenza sanitaria in grado di apprendere avrà, di conseguenza, una certa capacità di agire secondo la sua volontà.

Secondo Andrew L. Beam e Isaac S. Kohane del Dipartimento di Informatico Biomedica dell’Harvard Medical School, autori di un articolo di opinione sul JAMA, tali preoccupazioni dipendono anche dalla definizione che si dà agli algoritmi di machine learning (4). Questi, infatti, vengono spesso pensati come programmi in grado di effettuare una scelta estraendo automaticamente informazioni da un set di dati, senza essere in alcun modo pre-programmati. “Sarebbe invece più utile immaginarsi gli algoritmi lungo un continuum che va da un’analisi dei dati interamente guidata dall’essere umano a una interamente guidata dalle macchine”, scrivono Beam e Kohane.  In tutti i punti di questo spettro del machine learning ci sono sia aspetti positivi che negativi. Ad esempio, un algoritmo in grado di create modelli accurati a partire solo da dati grezzi – come quelli di deep learning – necessita di quantitativi enormi di dati.

Inoltre, il fattore umano è in grado di garantire un livello di astrazione inaccessibile alle macchine. Come ha sottolineato Federico Cabitza, docente di Human-Computer interaction dell’University of Milano-Bicocca, in occasione del convegno 4words 2018: “L’elemento decisivo risiede nell’interpretazione corretta del fenomeno osservato, nel capire cosa si sta osservando e inserirlo in un quadro di ‘sense making’ complessivo”. Tuttavia, allo stesso tempo, “l’ammontare delle informazioni che un clinico deve tenere in considerazione – dalla storia personale a quella familiare, dalle caratteristiche genomiche ai trattamenti a cui è sottoposto, dall’attività sui social media alle ospedalizzazioni – può essere troppo per una persona”, sottolineano gli autori dell’articolo del JAMA.

Char e colleghi concludono quindi che “le sfide riguardanti potenziali bias o compromissioni della relazione di fiducia tra medico e paziente dovrebbero essere affrontate il prima possibile”. Secondo gli autori, i sistemi di machine learning andrebbero sviluppati tenendo conto degli standard etici che guidano gli altri operatori (quelli in carne e ossa) coinvolti nella pratica clinica. Che un algoritmo si situi all’estremo inferiore o superiore dello spettro del machine learning, questo andrebbe sviluppato in modo da garantire risultati robusti e validi. “Ciò è particolarmente importante – concludono Baem e Kohane – in un contesto come quello dell’assistenza sanitaria, dove questi sistemi possono potenzialmente influenzare l’esistenza di milioni di pazienti”.

 

Bibliografia

  1. Char DS, Shah NH, Magnus D. Implementing machine learning in health care – Addressing ethical challenges. The New England Journal of Medicine 2018; 378: 981-3.
  2. Angwin J, Larson J, Mattu S. Machine bias. ProPublica 2016; pubblicato il 23 maggio.
  3. Gijsberts CM, Groenewgwn KA, Hoefer IE, et al. Race/ethnic differences in the association of the Framingham risk factors with carotid IMT and cardiovascular events. PLos One 2015; 10: e0132321.
  4. Beam AL, Kohane IS. Big data and machine learning in health care. JAMA 2018; doi:10.1001/jama.2017.18391.