Il machine learning in medicina tra innovazione e agenzie regolatorie  

A cura de Il Pensiero Scientifico Editore

 

La mente umana, anche del più brillante dei medici, è fallibile, e per aiutarla in ambito biomedico si stanno affermando i programmi di apprendimento automatico (o machine learning): tecniche di intelligenza artificiale per addestrare un algoritmo a imparare di continuo dai dati che incontra e migliorare le sue prestazioni; per esempio per imparare a riconoscere il contenuto di un’immagine diagnostica, esaminando immagini su immagini e ricevendo ogni volta un feedback sulla correttezza della valutazione che ne ha fatto. Gli ambiti d’uso spaziano dalla ricerca sui farmaci (per esempio per individuare potenziali candidati esaminando dati biologici sulla patologia) alla diagnostica, alla gestione delle malattie e alla farmacosorveglianza (con la raccolta e l’analisi degli eventi avversi). E la loro potenza cresce: nel 2018 la Food and Drug Administration (FDA) statunitense ha approvato il primo software che può prendere decisioni diagnostiche senza bisogno dell’interpretazione del medico (per lo screening della retinopatia diabetica). Ma queste tecnologie, pur molto promettenti, sollevano interrogativi sulla loro sicurezza ed efficacia, anche perché i criteri finora adottati per approvarli, analoghi a quelli dei dispositivi medici tradizionali, non sono del tutto adatti a questi nuovi strumenti. Ad aprile 2019 infatti la FDA ha annunciato che ne sta riesaminando la regolazione (1).

Le potenzialità e le sfide dell’intelligenza artificiale e del machine learning in medicina sono esaminate in una serie di lavori su JAMA. Uno di questi lavori (2), a firma di un team di Google Health guidato da Yun Liu, vuole offrire ai professionisti sanitari una guida su come leggere criticamente una ricerca sul machine learning coniugando criteri familiari, come i classici principi statistici addottati nella valutazione dei test diagnostici, ad alcune considerazioni specifiche. Bisogna considerare, per esempio, come sono stati addestrati gli algoritmi: alcuni adottati nella diagnostica oftalmica vengono addestrati su immagini generiche di luoghi e oggetti (quindi non immagini della retina o del cristallino per esempio) e, pur mostrando buone prestazioni nell’insieme dei pazienti, rischiano di commettere errori sistematici a danno di specifici sottogruppi. Anche in tal senso occorrono quindi cautele da parte di chi sceglie questi strumenti e, soprattutto, delle autorità che le regolamentano.

Una disamina a molte firme sulle implicazioni legali dell’uso biomedico dell’intelligenza artificiale in Europa e negli Stati Uniti è stata pubblicata nel 2017 su Intellectual Property & Technology Law Journal (3) e riassunta su un blog della società di consulenza legale Arnold & Porter (4). In Europa, a seconda delle funzioni, un software può essere classificato come dispositivo medico. Ma la classificazione è complicata e dà luogo a fraintendimenti e problemi pratici, e anche le linee guida emanate dalla Commissione Europea non hanno sgombrato il campo dai dubbi.

Pochi mesi fa però la Commissione (5) ha pubblicato un nuovo documento, che esamina le implicazioni legali dell’intelligenza artificiale più ad ampio raggio, nella sanità come nel data mining e nei veicoli a guida autonoma. E considera tra l’altro il tema cruciale della responsabilità per gli eventuali danni causati da sistemi di intelligenza artificiale. Riguardo alla salute, il rapporto sviscera problemi quali i nodi posti dal Regolamento Ue 2016/679, noto come GDPR (General Data Protection Regulation), la tensione fra diritti di portabilità e di proprietà intellettuale, o l’applicazione delle norme sui dispositivi medici alle app di cellulari e tablet. La conclusione è che, anche in sanità, restano parecchie lacune che richiederanno correzioni delle norme. Auspica quindi che i decisori politici lavorino a stretto contatto con l’industria, per produrre una legislazione che centri il punto, incidendo sui problemi concreti con soluzioni praticabili, e che trovi un equilibrio tra le varie istanze.

Sul JAMA un pezzo d’opinione di Kerstin Vokinger, esperto di legislazione e normativa delle tecnologie all’Università di Zurigo, esamina vari nodi regolatori (6). Mentre, per esempio, per dispositivi tradizionali come i pacemaker, se il modello cambia può occorrere una nuova approvazione, non è chiaro come trasporre questo principio ai software che possono intrinsecamente cambiare comportamento man mano che imparano.

Inoltre, il percorso più adoperato negli Stati Uniti per le approvazioni prevede semplicemente che il nuovo dispositivo sia riconosciuto “sostanzialmente equivalente” a uno già in commercio. Ma già per i dispositivi classici una catena di “sostanziali equivalenze” può portare negli anni a prodotti abbastanza diversi, cosa che ha già causato problemi, per esempio con certe protesi dell’anca. Con i software di intelligenza artificiale questo rischio è molto più probabile, e servirebbero revisioni periodiche del loro funzionamento. “Un software di supporto per la diagnosi del cancro del fegato e del polmone si basa su un software di imaging cardiaco approvato nel 1998 in quanto, a sua volta, sostanzialmente equivalente a dispositivi degli anni ’70. E non risulta che nell’approvare il software attuale siano stati fatti nuovi test”, scrive Vokinger.

Lo studioso analizza quindi i vari criteri necessari per assicurare un processo di approvazione e sorveglianza che regoli adeguatamente l’intero ciclo di vita del prodotto, dalla disponibilità iniziale di prove adeguate che non si accontentino di presunte equivalenze, alla previsione dei cambiamenti ammissibili in corso d’opera, di quali richiedano nuove verifiche, delle procedure di ispezione della FDA, o un piano di revisioni programmate. Infine, ci vuole trasparenza: l’intelligenza artificiale è spesso criticata per la sua oscurità agli utenti, dice Vokinger, e bisogna garantire che medici e pazienti ricevano, in un linguaggio comprensibile, tutte le informazioni necessarie per prendere decisioni informate.

 

 

Bibliografia

  1. US Food and Drug Administration. Proposed regulatory framework for modifications to artificial intelligence/machine learning (AI/ML)-based software as a medical device (SaMD). https://www.fda.gov/media/122535/download
  2. Liu Y, Chen PC, Krause J, Peng L. How to read articles that use machine learning: Users’ guides to the medical literature. JAMA 2019; 322: 1806-16.
  3. Tsang L, Kracov DA, Mulryne J, et al. The Impact of Artificial Intelligence on Medical Innovation in the European Union and United States. Intellectual Property & Technology Law Journal, August 2017.
  4. www.digitalhealthdownload.com/2017/09/impact-artificial-intelligence-medical-innovation-europe-united-states/
  5. Holder C, Iglesias Portela M, Triaille JP, Van Gyseghem JM. Legal and regulatory implications of Artificial Intelligence. The case of autonomous vehicles, m-health and data mining. Luxembourg: Publications Office of the European Union, 2019
  6. Hwang TJ, Kesselheim AS, Vokinger KN. Lifecycle Regulation of Artificial Intelligence- and Machine Learning-Based Software Devices in Medicine. JAMA 2019 Nov 22. doi: 10.1001/jama.2019.16842