La pandemia di COVID-19 ha favorito l’adozione di un atteggiamento “possibilista” in tutto il settore healthcare, in particolare per quanto riguarda le sperimentazioni digitali. Un approccio che ha stimolato l’innovazione, i processi di adattamento e l’adozione di modelli decentralizzati che consentono ai pazienti di partecipare ai trial senza dover effettuare ripetute visite in loco, offrendo così ai promotori della sperimentazione una soluzione per accrescere la partecipazione ed evitare possibili resistenze.
Il punto cruciale, quando si tratta della centralità del paziente e degli studi decentralizzati, è che questo cambiamento ha rilevato una verità scomoda: gli sponsor degli studi clinici non hanno una metodologia chiara che permetta loro di aggregare, rivedere e ottimizzare l’enorme volume di dati dei pazienti raccolti da fonti differenti.
In realtà, il problema non è nuovo: molti sponsor utilizzano prove cliniche decentralizzate in varie forme da oltre un decennio. Guardando al futuro, però, l’accesso a un set di dati sempre più ampio e diversificato sarà una delle principali sfide che le aziende del settore dovranno affrontare, perché il panorama sarà molto più complesso di quanto osservato fino ad oggi.
Oggi, la chiave per poter condurre studi realmente connessi e digitali, attendibili rispetto al percorso clinico del paziente e che permettano un approccio decentralizzato è adottare una strategia di dati clinici completa e sincronizzata. Senza una gestione centralizzata dei dati, semplicemente, non è possibile eseguire studi clinici decentralizzati.
Acquisire i dati dei pazienti da remoto e in tempo reale è possibile, ma gli sponsor non sono in grado di verificarli e riconciliarli alla stessa velocità. La maggior parte delle organizzazioni, infatti, utilizza ancora complessi metodi manuali per aggregare e ripulire uno alla volta ogni silos di dati. In altre parole, i sistemi e i processi attuali non sono in grado di gestire la crescita dei dati in corso in modo ragionevole, conveniente e coerente.
Uno sponsor globale ci ha rivelato che per un singolo trial clinico tali sforzi hanno richiesto l’impiego di 27 persone che lavorassero a turni, 24 ore al giorno, per sei settimane. Il tempo e i costi necessari per eseguire questa operazione per ogni trial clinico sarebbero proibitivi, poiché la maggior parte delle grandi aziende farmaceutiche esegue centinaia di studi ogni anno!
La crescita delle fonti di terze parti e dei formati non statici
Esiste un problema che si presenta ciclicamente fin dagli albori dell’acquisizione elettronica dei dati (EDC): con fonti di dati frammentate e isolate si tende a dare priorità alla velocità di raccolta sacrificando la velocità di analisi. I nuovi progetti di sperimentazione ci portano oggi a dover prendere decisioni ancora più rapide, e la crescita continua della mole di dati necessari per le sperimentazioni cliniche tradizionali e decentralizzate porta necessariamente a modificare tale approccio.
Oggi, un tipico studio di Fase III utilizza circa 10 fonti di dati diverse e genera una media di 3,6 milioni di punti dati, tre volte il livello che si vedeva 10 anni fa[1]. Uno studio[2] ha rilevato che il costo per supportare i trasferimenti di dati tra sistemi o aziende nel settore delle life sciences ha raggiunto i 156 milioni di dollari all’anno.
La proliferazione di fonti di dati di terze parti e di dati non statici sui pazienti ha quindi aggiunto una notevole complessità allo scenario. Dieci anni fa, la maggior parte dei dati clinici più importanti era archiviata nell’EDC e proveniva dai medici. Oggi, lo è solo un quarto di essi, il restante 75% è composto da dati di terze parti provenienti da smartphone e altre fonti, viene gestito in modo indipendente e deve essere riconciliato con l’EDC. Sempre più frequentemente vediamo dati di primaria efficacia e sicurezza provenire dall’esterno dell’EDC, creando una pressione sempre maggiore sulle strategie di integrazione dei dati.
Un ulteriore livello di complessità è introdotto dai formati di dati non statici, come le letture provenienti da dispositivi indossabili e di monitoraggio con formati dei dati che differiscono notevolmente tra i diversi sistemi, anche quando si tratta della stessa tipologia di dato, ad esempio la frequenza cardiaca del paziente: se viene misurata tramite uno stetoscopio in clinica verrà registrato come un singolo punto dati, se invece si utilizza un dispositivo indossabile produrrà dati continui ad alta frequenza. Alla fine, gli ingenti volumi di dati raccolti a frequenze diverse dovranno essere gestiti, riconciliati e interpretati.
La complessità nelle sperimentazioni digitali e decentralizzate
Una volta la raccolta dei dati avveniva esclusivamente sul posto, mentre con le sperimentazioni cliniche decentralizzate possono ora essere raccolti anche durante le visite in telemedicina, a domicilio, tramite le app ePRO e altro, ognuna creando il proprio silos, con scenari che spesso richiedono sistemi aggiuntivi per raccogliere i dati.
Per avere una visione chiara del paziente, anche questi dati devono essere aggregati e armonizzati. Ad esempio, per vedere la frequenza cardiaca di un paziente, ci sono più posti in cui guardare: l’EDC, il registro delle visite a domicilio o la lettura di iWatch. La fonte per ogni paziente può anche variare in base alla visita: una visita in clinica un giorno o una lettura di iWatch il successivo.
Uno sponsor, recentemente, ha condiviso con noi le sfide affrontate dopo l’installazione di un sistema progettato per gestire i dati dei pazienti provenienti da visite infermieristiche a distanza. L’applicazione non includeva uno strumento di query. Di conseguenza, quando sono emerse discrepanze nei dati, l’azienda si è trovata davanti a scelte penalizzanti: effettuare una query via email per raccogliere i dati al di fuori dal sistema, reinserire i dati nel suo EDC, oppure pagare per avere una costosa integrazione una tantum.
Se le sperimentazioni avvengono in modo completamente digitale, senza carta, diventa necessario utilizzare eSource e qui emerge un’ulteriore sfida. In questi casi, i dati non sono ancorati a un EDC, che tradizionalmente ha sempre operato come backbone per i dati sperimentali, fornendo un punto di riferimento per altre fonti da confrontare. Nel mondo eSource gestito dai siti e in cui le pratiche variano in base al sito, lavorare senza l’EDC significa perdere un’ancora fissa rispetto alla quale riconciliare i dati. Di conseguenza, i dati sono molto più difficili da ripulire.
Quando eSource ed EDC coesistono in sistemi separati, gli sponsor devono sostenere costi e impegno di risorse consistenti per poter conciliare i due. Unire e abbinare i dati a livello di datapoint dovrà essere la norma quando il processo diverrà totalmente incentrato sul paziente, e sarà lui a decidere a quali visite partecipare di persona o cosa fare in remoto. Se a questo aggiungiamo l’impatto delle modifiche del protocollo e dei progetti adattativi, la conclusione è semplice: le aziende possono fare funzionare questi sistemi per le sperimentazioni più importanti, ma i costi diventano proibitivi per uno studio clinico di medio livello.
Una piattaforma integrata che connette i pazienti ai siti con l’infrastruttura dello sponsor per la pulizia e revisione eliminerebbe molte di queste sfide ma, sfortunatamente, non esiste ancora, sebbene molti fornitori di tecnologia stiano lavorando in questa direzione.
Tempistica: fattore fondamentale per il processo decisionale data-driven
Tra il 2020 e il 2021, dopo l’entrata in vigore delle restrizioni dovute al COVID-19, alcune aziende farmaceutiche hanno investito considerevolmente in tecnologie di sperimentazione decentralizzate, per poi ritrovarsi con dati che non potevano essere collegati o verificati. Hanno aspettato mesi per estrarli, ripulirli e riconciliarli con i proprio dati EDC, trovando anomalie inaspettate, come date diverse rispetto all’evento avverso del paziente.
I ritardi nella visualizzazione dei dati impediscono ai responsabili dello studio clinico di prendere decisioni basate sui dati in modo tempestivo o di essere in grado di assicurare alle autorità di regolamentazione che i dati rappresentano un resoconto completamente accurato dell’esperienza di ciascun paziente. Ad esempio, potrebbe essere necessario determinare perché la lettura del sensore appaia fuori portata, ad esempio quando la pressione sanguigna di un paziente aumenta improvvisamente. Purtroppo, attualmente, non esiste un modo rapido per verificare alle origini quale sia la possibile causa.
Il rischio è alto: prendiamo, ad esempio, uno studio sulle malattie rare in cui i risultati di ciascun paziente sono potenzialmente significativi per gli altri. Se le letture diagnostiche di un paziente innescassero un cambiamento nel piano di trattamento, gli sponsor dovrebbero essere in grado di apportare tale cambiamento all’istante. Se c’è un ritardo prima che i dati possano essere ripuliti e controllati, lo sponsor rischia di diventare responsabile della mancata interruzione di trattamenti potenzialmente dannosi.
Stabilire flussi di dati end-to-end sarà quindi fondamentale nel momento in cui le sperimentazioni cliniche decentralizzate, e non solo la raccolta dei dati, devono essere eseguiti in tempo reale e rappresenterà la vera chiave per ottenere l’agilità degli studi clinici e per garantirne la validità dei risultati, ma sarà anche un prerequisito per una sempre maggiore evoluzione degli studi adattivi, che permettono di modificare gli aspetti del protocollo di ricerca grazie ai risultati delle analisi ad interim.
di Richard Young, vice-president, Vault CDMS, Veeva Systems
[1] Tufts CSDD Impact Report, Rising protocol design complexity is driving rapid growth in clinical trial data volume. Volume 23, Number 1, 2021
[2] Liaison Healthcare Informatics, Managing and Integrating Clinical Trials Data: A Challenge for Pharma and their CRO Partners