Login con   logo Medikey ACCEDI | REGISTRATI

Cerca nel sito
HomeUniversità e formazioneLa statistica degli studi clinici

La statistica degli studi clinici

La statistica degli studi clinici

Conoscere la statistica medica per interpretare un lavoro scientifico

Data di pubblicazione: 22 dicembre 2017

In generale, una ricerca scientifica si qualifica per tre elementi fondamentali:

  1. una completa aderenza alle normative correnti e alle esigenze etiche;
  2. un’accurata pianificazione;
  3. un’adeguata analisi statistica dei dati generati, con una corretta distinzione fra aspetti descrittivi e conclusioni con validità inferenziale, intendendosi con questo termine che le conclusioni non sono di pertinenza puramente descrittiva – valida cioè per i soli dati esaminati – ma hanno la pretesa di essere valide anche per casi che, pur non facendo parte di quelli esaminati, possono a questi essere assimilati.

L’obiettivo di questo articolo è quindi quello di fornire un’introduzione ad alcuni dei principali problemi di adeguata pianificazione, conduzione ed analisi della ricerca clinica, in modo da promuovere una presa di coscienza delle aree dove si possono annidare potenziali problemi, per anticiparli ed evitarli.

Altro scopo di questo articolo è quello di fornire elementi sufficienti ad interpretare correttamente quanto scritto o comunicato in relazione a ricerche cliniche proprie o altrui, così da rendersi conto quali conclusioni sono effettivamente sostenute dai dati riportati, quali no, e quali sono del tutto arbitrarie.

Disegno sperimentale

Qualsiasi protocollo sperimentale deve avere come oggetto una ricerca valida, indipendentemente dal suo valore. Si noti però che, come possono esistere ricerche valide ma prive di valore, allo stesso modo possono esistere ricerche di valore ma non valide: per esempio, ricerche in cui l’obiettivo non è presumibilmente raggiungibile per problemi di numerosità.

Uno dei requisiti spesso citati per considerare scientificamente valida una ricerca è che i trattamenti siano assegnati in maniera randomizzata e in cieco. In effetti, l’allocazione casuale è il metodo normalmente utilizzato per assegnare i soggetti ai gruppi di trattamento così che si rendano ugualmente probabili tutte le possibili allocazioni di soggetti ai gruppi di trattamento, anche se di per sé questa tecnica non è né assolutamente necessaria né imprescindibilmente condizionante nel progettare una ricerca clinica valida.

Perché si ricorre alla randomizzazione?

Il motivo sostanziale è quello di evitare che vengano assegnati allo stesso gruppo, per scelta – conscia o inconscia – dell’operatore, soggetti aventi le stesse caratteristiche prognostiche, e quindi probabilmente anche la stessa risposta ai trattamenti. Il metodo di randomizzazione produce, in teoria, gruppi confrontabili per tutti i fattori controllabili (quindi noti). Se effettivamente i gruppi sono sovrapponibili per gli aspetti noti, non vi è ragione di ipotizzare che differiscano per fattori ignoti o, comunque, non controllati. Il disegno sperimentale basato sulla randomizzazione dei pazienti e condotto in condizioni di cecità rappresenta il gold standard della sperimentazione clinica. Non sempre questi disegni sperimentali sono applicabili. In ogni specifica condizione di studio si potrà comunque identificare uno (o più) disegni sperimentali che corrispondano ai requisiti etici, scientifici e normativi richiesti.

“Tabella 1. – Definizioni pertinenti al disegno sperimentale

Disegno sperimentale metodo di attribuzione del trattamento in esame o di altro trattamento ai soggetti
Non controllato tutti i soggetti ricevono il trattamento in esame
Controllato o anche comparativo: parte dei soggetti riceve il trattamento in esame, parte un altro trattamento
Aperto: sia lo sperimentatore che il soggetto sono a conoscenza del trattamento assegnato
In cieco semplice sebbene i due trattamenti impiegati siano distinguibili, il soggetto non è a conoscenza del trattamento assegnato
In cieco semplice con doppio osservatore (observer blind) il responsabile dell’assegnazione del farmaco (a conoscenza di quello assegnato) è diverso dallo sperimentatore che esegue i rilievi (non a conoscenza del farmaco assegnato)
In doppio cieco né lo sperimentatore né il soggetto sono a conoscenza del farmaco assegnato (i due trattamenti sono indistinguibili)
In doppio cieco con doppia mascheratura sebbene i due trattamenti in esame siano distinguibili, né lo sperimentatore né il soggetto sono a conoscenza del farmaco assegnato perché ogni soggetto riceve entrambi i farmaci, di cui uno contiene principio attivo e l’altro solo placebo. Una variante di questa tecnica prevede la mascheratura di uno solo dei due trattamenti, ma è di uso limitato
Randomizzato i trattamenti sono assegnati casualmente, secondo una sequenza predeterminata, esclusivamente sulla base dell’ordine secondo cui i soggetti sono arruolati
Multicentrico uno studio condotto secondo un unico protocollo, svolto in differenti sedi, pertanto condotto da più di un ricercatore ma in conformità agli stessi dettagli operativi
Cross-over lo stesso soggetto viene esposto, in tempi diversi, a uno o più trattamenti diversi, secondo una sequenza generalmente randomizzata. I trattamenti possono inoltre essere assegnati secondo uno qualunque degli schemi riportati sopra. Requisito essenziale è che le condizioni del soggetto all’inizio di ciascun trattamento siano le stesse (condizione pressoché impossibile da rispettare se non in casi molto particolari)

È bene convincersi immediatamente che la scelta della numerosità campionaria (quanti soggetti) per una ricerca sperimentale non è affatto una scelta libera e arbitraria dello sperimentatore. Al contrario, non si tratta generalmente neppure di una scelta, ma è imposta dalle condizioni sperimentali.

Prima di iniziare una ricerca, quali informazioni deve avere a disposizione il clinico sperimentatore?

  1. Obiettivo primario dello studio;
  2. misura primaria dell’esito (endpoint) ed eventualmente il numero di endpoint primari correlati;
  3. metodi di analisi più probabilmente applicabili alle differenze fra gruppi;
  4. risultato atteso nel gruppo di controllo;
  5. deviazione standard della misura dell’esito nel gruppo di controllo se il metodo di analisi viene ipotizzato come parametrico (come per esempio il t-test o l’analisi della varianza);
  6. entità della differenza tra gruppi (effetto) considerata di interesse (clinico o comunque considerata probante) che si vuole evidenziare con la ricerca;
  7. grado di certezza con cui si vuole rilevare la differenza fra gruppi (ovvero, la potenza dello studio, generalmente 80% o più);
  8. livello di significatività che viene considerato dimostrare la non casualità della differenza osservata (generalmente 5% o meno);
  9. incidenza attesa di casi non valutabili per qualsiasi ragione (ritiro consenso, drop-out, ecc.).

Sulla base di queste informazioni lo statistico può stimare la numerosità campionaria, ammesso che tutti gli altri elementi dello studio siano stati adeguatamente impostati, a partire dalle ipotesi e dagli obiettivi.

Raccolta dei dati

Una ricerca sperimentale è tanto valida quanto validi sono i suoi obiettivi. La misura dell’esito in relazione agli obiettivi primari (i dati) è di conseguenza di importanza sostanziale per la validità della ricerca.

Le informazioni da registrare (i “dati clinici”) devono rispondere ad alcuni requisiti logici e ad alcuni requisiti statistici.

Sotto il profilo logico, vanno raccolte tutte le informazioni necessarie a definire correttamente e completamente il campione sperimentale, a determinare se l’obiettivo primario è stato raggiunto o meno, a documentare eventuali obiettivi secondari. È anche importante che la frequenza di raccolta dei dati sia coerente con l’obiettivo della ricerca: la raccolta di dati inutili è costosa in termini di tempo di raccolta, gestione ed elaborazione, e può diminuire la qualità complessiva dello studio.

D’altra parte, la mancata raccolta di dati necessari, o una insufficiente frequenza di raccolta, invalida quasi certamente i risultati dello studio. Di conseguenza, un’adeguata valutazione dei dati da raccogliere e della frequenza con cui saranno raccolti diventa parametro essenziale per una buona ricerca.

Sotto questo profilo, la stesura di un adeguato protocollo di studio, con la relativa necessità di spiegare esattamente che cosa si fa, quando e perché, è un valido aiuto alla razionalizzazione della ricerca. Altro notevole aiuto può venire dalla progettazione di un’adeguata scheda di raccolta dati.

I dati devono però essere appropriati alla ricerca. In primo luogo, devono misurare proprio ciò che si intende misurare (devono cioè essere “validi”), e lo devono misurare indipendentemente dallo sperimentatore coinvolto e dal soggetto coinvolto (devono cioè essere “affidabili”).

Di conseguenza, il dato da raccogliere deve essere accuratamente e precisamente definito sotto tutti i profili:

  • quale dato deve esattamente essere raccolto (evitando tutte le ambiguità);
  • come e con quale strumentazione (eventualmente anche a che ora del giorno, con quanti decimali, etc);
  • come deve essere documentato per consentire un’eventuale valutazione indipendente in cieco da parte di un esperto indipendente esterno alla ricerca.

requisiti fondamentali per una misura da utilizzare nella ricerca sperimentale sono quindi validità (o accuratezza), riproducibilità e precisione.

  • La validità o accuratezza di una misura indica quanto sia appropriata la misura stessa a descrivere la realtà osservata. Una misura è valida quando è appropriata alla realtà misurata.
  • La riproducibilità indica la possibilità di ottenere lo stesso risultato ripetendo la stessa misura o da parte dello stesso osservatore o da parte di altri osservatori, sullo stesso soggetto o su altri soggetti sperimentali aventi le stesse caratteristiche.
  • La precisione indica il grado di approssimazione della misura effettuata al valore reale dell’entità misurata. Non sempre una maggiore precisione significa misura più valida: per esempio, per valutare variazioni di glicemia in diabetici, basta una precisione di 1 mg/dl; precisioni maggiori sono inutili perché clinicamente irrilevanti. Se, però, la stessa misura viene effettuata in mmol/L, allora occorrono almeno due decimali per avere la stessa precisione.

Il campionamento

La definizione dei soggetti da includere in una ricerca deve essere precisa e non ambigua.

Questa definizione viene data nei criteri di inclusione e di esclusione nel protocollo di studio e determina la popolazione bersaglio da cui il campione viene estratto e alla quale i risultati possono essere applicati.

In termini statistici, una popolazione è un universo omogeneo per una o più caratteristiche (per esempio, tutti i soggetti con diabete mellito di tipo II) e da questa popolazione si estraggono campioni che possano dare stime adeguate dei parametri della popolazione stessa.

parametri sono quantità impiegate per descrivere le caratteristiche della popolazione (per esempio, il valore medio vero di glicemia e la misura della dispersione intorno alla media nella popolazione dei pazienti diabetici di tipo II, che ci può consentire di stimare il tale parametro differisce da quello della popolazione non diabetica. Si noti però che questa informazione da sola non ci consentirà probabilmente un’adeguata classificazione dei soggetti).

Le ricerche sperimentali forniscono informazioni scientifiche se e solo se il campione studiato è rappresentativo della popolazione bersaglio, alla quale saranno presumibilmente applicati i risultati ottenuti.

I dati si possono usare per descrivere la realtà (analisi descrittiva) o per fare ipotesi sulla realtà anche al di fuori del gruppo esaminato (statistica inferenziale). L’analisi si esegue sulle quantità misurate (variabili). Per non confondere causa ed effetto è essenziale chiarire quali variabili non sono influenzate dall’osservatore (dipendenti) e quali sono artificialmente modificate (indipendenti).

Raccolti i dati secondo il disegno sperimentale scelto, bisogna interpretarli, cioè capire dalla loro distribuzione se abbiano un significato, e quale sia questo significato. Questo è il compito della biostatistica o biometria.

La biostatistica è quindi la scienza che si occupa di scoprire le relazioni quantitative esistenti nella realtà, in relazione a problemi di ordine biologico e medico.

A partire dalle variabili osservate nello studio condotto – considerando che le variabili sono tutto ciò che uno può misurare, controllare o manipolare in una ricerca – e dalla conoscenza approfondita del campione esaminato in relazione alla popolazione da cui il campione proviene, la biostatistica permette di esprimere delle relazioni esistenti in forma concisa ma informativa (statistica descrittiva) oppure di fare ipotesi sulla realtà (statistica inferenziale).

Per entrambe, occorre in primo luogo identificare quali variabili sono state semplicemente misurate senza interferenza o con la minima interferenza possibile da parte dell’osservatore e quali sono invece state artificialmente alterate come parte del disegno sperimentale o come parte della procedura di misura.

Le variabili misurate senza interferenza sono definite variabili dipendenti; quelle artificialmente modificate sono chiamate variabili indipendenti. La loro funzione è completamente diversa nella descrizione dei dati e nell’analisi inferenziale, e una confusione tra variabili dipendenti e indipendenti può alterare completamente il significato inferenziale delle osservazioni. In pratica, si rischia di scambiare la causa con l’effetto.

L’interpretazione dei dati dipende dai tre criteri fondamentali della biostatistica: rappresentatività, significatività e potenza.

Un campionamento adeguato permette di raggiungere allo stesso tempo i tre requisiti indicati, una volta perfettamente identificate le variabili dipendenti ed indipendenti.

Validità dei casi per l’analisi

La definizione di quali casi (pazienti) vanno effettivamente analizzati e quali devono essere esclusi dall’analisi statistica è una delle aree più controverse della biostatistica, tuttavia è anche un requisito fondamentale da introdurre nella struttura del protocollo e successivamente nell’articolo scientifico, altrimenti non è correttamente valutabile, da parte degli esperti e del Comitato Etico, l’adeguatezza del campione sperimentale prescelto. In linea di principio, devono essere sempre e comunque sottoposti ad analisi tutti dati raccolti in tutti i soggetti randomizzati, anche se le analisi pertinenti all’obiettivo primario possono essere condotte solo su un sottoinsieme dei soggetti, perché alcuni non sono effettivamente valutabili.

  • Ricerca di tollerabilità e di safety: i casi da includere sono comunque sempre tutti quei casi che hanno (o possono avere) ricevuto una o più dosi o applicazioni del trattamento in studio. Naturalmente, il protocollo di studio indicherà esattamente quali sono le variabili definite di tollerabilità e di safety.
  • Valutazioni di efficacia: si segue al principio indicato comunemente “intention to treat” (ITT). Non esiste una definizione univoca del principio, al contrario, nella letteratura recente sono disponibili numerose definizioni, non sempre del tutto sovrapponibili

Agli scopi pratici, una valida definizione è la seguente: “tutti i casi eligibili, indipendentemente dall’aderenza con il protocollo, dovrebbero essere inclusi dell’analisi dei risultati se appena possibile

Si possono quindi intraprendere i passi seguenti, adattandoli al singolo studio:

  1. escludere tutti i casi non randomizzati;
  2. escludere tutti i casi che non rispettano i criteri di inclusione, ammesso che questi siano stati definiti in maniera inequivocabile. Non possono essere invece esclusi casi sulla base di giudizi soggettivi sulla eligibilità. Sussiste inoltre la pratica di mantenere in analisi i casi con violazioni ai criteri dello studio introdotti solo per convenienza (per esempio, limiti di età quando l’età non altera presumibilmente la risposta), mentre vengono esclusi i casi con violazioni ai criteri che potenzialmente influenzano il risultato. Tutte queste esclusioni devono essere decise prima di aprire il codice di randomizzazione nel corso del Blind Data Review.
  3. includere i casi che non soddisfano i criteri di esclusione, in quanto questi sono generalmente introdotti per migliorare le condizioni di sicurezza, non perché possano influenzare i risultati di efficacia;
  4. escludere i casi che non hanno ricevuto il trattamento pianificato poiché non possono fornire dati in corso di trattamento;
  5. includere i casi che hanno ricevuto il trattamento sbagliato (nel gruppo del trattamento effettivamente ricevuto). Tuttavia, se tali casi superano il 4-5% del totale dei casi, la validità dello studio deve essere riesaminata.

Il gruppo di soggetti risultante da queste operazioni viene considerato come campione ITT e dovrebbe includere almeno il 95% di tutti i casi reclutati, perché lo studio si possa considerare valido.

Un altro grosso problema nasce in relazione alla gestione dei dati mancanti (missing data). Anche in questo caso la preoccupazione è quella di minimizzare il rischio di bias nel condurre i confronti tra gruppi di trattamento.

Alcuni dati possono mancare per tutta una serie di motivi, in primo luogo perché il caso non è più disponibile dopo un certo tempo di osservazione. Altri dati possono mancare invece in modo occasionale. In tutti i casi, il soggetto deve essere incluso nella valutazione complessiva se risponde ai criteri ITT.

Tuttavia, sorgono notevoli problemi di analisi. L’inclusione di questi casi risulta relativamente semplice quando si impiegano tecniche di valutazione successo/fallimento o analisi del tipo delle analisi di sopravvivenza. Molto più complessa risulta invece l’analisi nel caso i dati mancanti siano di tipo parametrico o entrino in metodi che richiedono la presenza di tutti i dati per essere applicabili, come l’analisi della varianza per misure ripetute e in generale i metodi statistici multivariati dove la presenza di un dato missing in una sola variabile comporta l’esclusione del paziente dall’analisi statistica.

In questi casi si possono utilizzare diversi metodi di sostituzione dei dati mancanti. Nel caso per esempio di studi di farmacologia sperimentale, data l’estrema omogeneità dei singoli casi nel campione, si può utilizzare adeguatamente la sostituzione del caso mancante con la media dei valori disponibili dagli altri casi appartenenti allo stesso gruppo. Nel caso di dati mancanti, ma con la disponibilità del dato precedente e del dato seguente a quello mancante (raccolta ripetuta nel tempo), si può ricorrere alla sostituzione del dato mancante con la media ponderata dei dati disponibili prima e dopo.

Una delle tecniche di sostituzione più frequentemente impiegate, soprattutto quando il dato manca da un certo tempo in avanti, è quella definita come “last observation carried forward” (LOCF). In questa tecnica, si riporta l’ultimo valore effettivamente misurato, in tutte le osservazioni seguenti. Tuttavia, neppure questa tecnica è esente da critiche.

Analisi descrittiva

L’insieme delle tabelle e grafici raccolti sulle variabili principali della ricerca costituisce la base per l’analisi esploratoria. Gli elementi essenziali per la loro interpretazione sono però le misure statistiche associate, ovvero l’analisi descrittiva. In analisi descrittiva si ricercano quei fattori della o delle variabili che permettano di ottenere:

  • una descrizione delle misure effettuate (parametri della distribuzione normale, misure di tendenza centrale e di dispersione, outlier);
  • una descrizione della distribuzione per categorie (tabelle di contingenza; misure di associazione/indipendenza tra variabili);
  • una descrizione della forma della distribuzione delle variabili principali (distribuzione normale o non normale, usando metodi quantitativi per determinare eventuali deviazioni dalla normalità, necessità e/o possibilità di trasformazioni per ridurre la variabile a una distribuzione normale);
  • una misura delle eventuali correlazioni tra variabili (lineare/non lineare);

così da poter determinare eventuali procedure di correzione e da poter selezionare i metodi di analisi statistica più adeguati.

L’analisi descrittiva inizia richiedendo alcune tabelle e alcuni grafici, e un certo numero di misure di tendenza centrale, di dispersione e di forma della distribuzione. L’analisi descrittiva si può applicare a tutte le variabili. Naturalmente, se esistono più gruppi, è importante ottenere l’analisi descrittiva per ciascun gruppo separatamente, oltre che l’analisi della variabile nel suo complesso.

Verifica di ipotesi statistiche

L’obiettivo primario di una ricerca sperimentale è la possibilità di sottoporre a verifica una o più ipotesi. La domanda più comune in queste ricerche è “c’è una differenza fra il trattamento A e il trattamento B?” o, detto in altri termini, “il fatto che un gruppo di soggetti è stato esposto a una sollecitazione e l’altro gruppo a una sollecitazione diversa, ha effettivamente influenzato il fattore che è stato scelto come misura primaria dell’esito in questo studio?”. In termini pratici, potremmo trovarci a voler rispondere a una domanda di questo genere: “l’esposizione per ventiquattro mesi a una dieta priva di cloruro di sodio ha prodotto una diminuzione di pressione arteriosa in soggetti ipertesi, rispetto a soggetti ugualmente ipertesi esposti a una dieta normosodica, a parità di altre condizioni?”.

Traducendo questa domanda in termini formali, è come chiedersi se l’esposizione A e l’esposizione B somministrate a due gruppi di soggetti estratti dalla stessa popolazione, hanno causato una variazione del parametro primario, tale che la media stimata per la popolazione μ risulti diversa nei due gruppi di esposizione, per cui li si possa ritenere, dopo l’esposizione, rappresentare due popolazioni differenti.

In termini statistici sintetici, questo si esprime con le definizioni:

Ipotesi zero H0 : μa = μb

Ipotesi alternativa  H1 : μa  ≠ μb.

Alla fine dello studio, dovremo avere dei metodi per decidere se ci sono sufficienti evidenze per respingere l’ipotesi zero (in favore dell’ipotesi alternativa) oppure se non è possibile respingerla. Per potere fare questo, dobbiamo però in primo luogo decidere che limite di errore possiamo accettare nel caso la scelta fra le due ipotesi fosse sbagliata (cioè, non coerente con la realtà dei fatti).

In statistica, come nella realtà, gli errori che si possono commettere sono di due tipi: accettare una differenza che non esiste, oppure non accorgerci che una differenza esiste. In termini formali, il primo corrisponde a respingere l’ipotesi zero, mentre non vi sono sufficienti evidenze (falso positivo); il secondo ad accettare come vera l’ipotesi zero mentre non è così (falso negativo).

Questi due errori sono anche definiti, rispettivamente, errore di primo tipo (tipo I, o α) ed errore di secondo tipo (tipo II o β).

L’errore di tipo I (α) è l’errore che si commette quando l’effetto vero è nullo, ma lo studio produce un valore di p significativo che porta il ricercato a respingere – erroneamente – l’ipotesi zero. Nel caso α sia fissato al valore 0.05, ci si deve aspettare un errore di tipo I nel 5% degli studi nei quali è vera l’ipotesi zero. Per definizione, un errore di tipo I non può capitare negli studi in cui l’ipotesi zero è falsa.

L’errore di tipo II (β) è l’errore che si commette quando l’effetto vero NON è nullo, ma lo studio produce un valore di p NON significativo che porta il ricercato a NON respingere – erroneamente – l’ipotesi zero. Poiché la potenza statistica corrisponde a (1-β), nel caso si voglia una potenza dell’80% ci si deve attendere un errore di tipo II nel 20% degli studi (assumendo che l’ipotesi zero sia falsa, il che è un assunto dell’analisi di potenza).

Definito l’errore β accettato, è automaticamente definita la potenza (1-β). La potenza indica la proporzione di studi che darà un effetto statisticamente significativo (assumendo l’entità dell’effetto studiato, la dimensione del campione e il criterio α come specificati nel piano dello studio)

Test di significatività statistica

Ricordiamo che i test di significatività statistica hanno un unico obiettivo: determinare con che probabilità i dati rilevati presentano la distribuzione osservata nel caso sia vera l’ipotesi zero (o nulla). Il loro impiego più frequente è la verifica di ipotesi, ovvero la verifica della diversità di distribuzione dei dati appartenenti a due o più campioni.

Nella tabella successiva vengono riportati i test più appropriati per l’analisi statistica di significatività in funzione del tipo di variabili rilevate e della distruzione osservata.

Tabella 2. – Test per l’analisi statistica di significatività in funzione del tipo di variabili

Numerovariabili Numero campioni Variabili continue Variabili ordinali Variabili nominali
1 1 (confronto a valore noto) confronto della statistica del campione contro la distribuzione attesa (t, F) confronto della distribuzione del campione contro la distribuzione attesa (chi quadrato)
2 2 (indipendenti) ANOVA a una via; t-test per dati indipendenti Mann-Whitney, Kolmogorov-Smirnov chi quadrato, test esatto di Fisher
3 2 (dipendenti) ANOVA per misure ripetute, t-test per dati dipendenti Wilcoxon test del segno
4 ≥2 ANOVA a più vie, MANOVA Friedman chi quadrato, regressione log-lineare
5 1 test di correlazione, regressione, coefficienti di correlazione coefficienti di correlazione di rango (Kendall, Spearman) test di indipendenza
6 ≥2 confronto dei coefficienti di correlazione, analisi di covarianza
7 ≥3 analisi di regressione multipla

Controlli di verifica di adeguatezza di un protocollo o di un articolo scientifico

Dopo avere scritto un protocollo di ricerca clinica o un articolo scientifico, conviene verificarlo per controllare di avere preso in considerazione tutti gli aspetti pertinenti, ad evitare emendamenti in corso di esecuzione e il rischio di disomogeneità nel caso di studi multicentrici.

Anche se si è steso il protocollo tenendo conto delle linee-guida raccomandate GCP o da altri documenti ufficiali, rimangono sempre delle aree di dubbio e dei punti di miglioramento e messa a punto. Questa sezione comprende un certo numero di domande da farsi dal punto di vista statistico prima di considerare definito il protocollo. Non tutte sono pertinenti a tutti i protocolli, e certamente questa lista è a sua volta incompleta e migliorabile. Lo scopo è comunque quello di cercare completezza, chiarezza e inequivocabilità della stesura operativa del protocollo finale o di un articolo scientifico dal punto di vista della metodologia statistica.

Check list per la verifica dell’adeguatezza di un protocollo o di un articolo scientifico »

L’autore

Dr. Claudio Iannacone

Senior Biostatistician Consultant presso SPARC Consulting

Bibliografia

  • ICH E3 Structure and content of clinical study reports, Reference Number CPMP/ICH/137/95.
  • ICH E6 (R2) Good clinical practice, Reference Number EMA/CHMP/ICH/135/1995.
  • ICH E8 General considerations for clinical trials, Reference Number CPMP/ICH/5746/03.
  • ICH E9 statistical principles for clinical trials, Reference Number CPMP/ICH/363/96.
  • ICH E10 Choice of control group in clinical trials, Reference Number, CPMP/ICH/364/96.
  • Altman DG: Practical statistics for medical research. Chapman Hall, London (UK), 1991.
  • Bland M: An introduction to medical statistics. Oxford University Press, Oxford (UK), 1987.
  • Clayton D, Hills M. Statistical models in epidemiology. Oxford (UK) 1993; Oxford University Press.
  • Earnshaw J.J., How to write a clinical paper for publication, Surgery (Oxford), Vol. 30, Issue 9, Sep. 2012, Pages 437-441
  • International Committee of Medical Journal Editors. Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. 2014. Available at: http://www.icmje.org/icmje-recommendations.pdf (accessed November 2017).
  • Kramer MS: Clinical epidemiology and biostatistics. Springer-Verlag; Berlin-Heidelberg (D), 1988.
  • Marascuilo LA, Serlin RC: Statistical methods for the social and behavioral sciences. H. Friedman & Co., New York (USA), 1988.
  • O’Connor M, Woodford FP: Writing scientific papers in English. Elsevier-Excerpta Medica-North Holland, Amsterdam, 1978.
  • Petitti DB: Meta-analysis, decision analysis and cost-effectiveness analysis. Oxford University Press, Oxford (UK), 1994.
  • Pocock SJ: Clinical trials. A practical approach. Wiley, Chichester (UK), 1983.
  • Roscoe JT: Fundamental research statistics for the behavioural sciences. Holt, Renehart & Winston, New York (USA), 1975.
  • Snedecor GW, Cochran WG: Statistical methods, 6th Ed. Iowa State University Press, Ames (Iowa, USA), 1980.
  • Sokal RS, Rohlf FJ: Introduction to biostatistics 2nd Ed. WE Freeman & Co., New York (USA), 1987.
  • Spilker B, Schoenfelder J: Presentation of clinical data. Raven Press, New York (USA), 1990.
  • Spriet A, Simon P: Méthodologie des essais cliniques des médicaments. Karger, Paris, 1985.
  • Zar JH. Biostatistical Analysis, Fourth Edition. London 1999: Prentice Hall Inc.
  • Zolman JF: Oxford University Press, Oxford (UK), 1993.

Contenuti correlati

Sara, specializzanda in Pediatria

Enrico, specializzando in Cardiologia

Vito, specializzando in Malattie Infettive e Tropicali