I benefici della digitalizzazione nel settore sanitario sono innegabili ma non mancano i rischi, soprattutto con l’avvento di nuove tecnologie come l’Intelligenza Artificiale. La priorità primaria in questa era ad alto tasso digitale è la protezione dei dati sanitari dei pazienti. Il RRF (Recovery and Resilience Facility) dell’Unione Europea del 2021 ha dato una spinta potentissima alla sanità digitale. Tutti gli Stati dell’Unione stanno investendo sull’ammodernamento dell’assistenza primaria e sulla digitalizzazione dei servizi sanitari. Lo sta facendo anche l’Italia, con il PNRR. Sono infatti in corso di implementazione infrastrutture pubbliche dedicate per il Fascicolo Sanitario Elettronico (FSE) 2.0 e per la telemedicina.
L’avvocato Diego Fulco, Direttore Scientifico dell’Istituto Italiano per la Privacy e la Valorizzazione, anticipa scenari e normative, al centro del dibattito del Privacy Day Forum di Federprivacy, in programma il 7 giugno ad Arezzo.
“Dal settembre 2023 abbiamo una nuova normativa, ben scritta e poco nota, sul FSE 2.0, che darà nuove opportunità e nuovi doveri agli operatori sanitari, nuovi diritti agli assistiti”, afferma l’avvocato Diego Fulco. “L’AGENAS sta facendo implementare una piattaforma per l’uso dell’intelligenza artificiale nell’assistenza primaria. La cronaca ci ricorda i rischi per i dati sanitari degli assistiti: di accessi abusivi e illeciti, di mancato aggiornamento dei dati, di perdita e distruzione dei dati, di utilizzo per finalità non dichiarate.
Per fortuna, le nuove norme sono esigenti sugli aspetti di sicurezza”, prosegue Diego Fulco, “certo, con il ricorso all’intelligenza artificiale si aggiunge il rischio che il medico possa appiattirsi sulle indicazioni del sistema, magari condizionate da una cattiva qualità o parzialità dei dati sanitari, o da pregiudizi. Il rischio maggiore, forse, è di aderire in modo fideistico al paradigma di una sanità digitalizzata, senza aver sempre le necessarie prove sulla sicurezza dal punto di vista clinico, sull’affidabilità e sull’efficacia delle soluzioni tecnologiche che si scelgono. Però, gli enti coinvolti in queste innovazioni dovranno fare una Valutazione dell’impatto (DPIA) dell’uso di queste soluzioni tecnologiche. Ai sensi del GDPR, la DPIA non si occupa solo dei rischi per la privacy, ma anche di possibili conseguenze per l’incolumità fisica e per la salute derivanti dall’impostazione dei processi, da errori nella progettazione o nel settaggio degli strumenti, da mancanza di controllo umano.
La protezione dei dati sanitari e la tutela della salute non sono in conflitto”, ricorda l’avvocato, “anzi, chi rispetterà i principi e i metodi del GDPR, proteggerà anche la salute degli assistiti”.