In statistica, il tasso di errore familiare (FWER) si riferisce alla probabilità che una o più false scoperte (errori di tipo I) si verifichino in più test di ipotesi. Questo è un concetto chiave per i ricercatori che desiderano ridurre i tassi di errore durante l'esecuzione di più test.
John Tukey ha introdotto il concetto di tasso di errore di tipo familiare nel 1953 per misurare la probabilità che un errore di tipo I si verifichi in un gruppo specifico.
Il concetto di tasso di errore familiare rientra nell'importante quadro della statistica, che comprende concetti relativi agli esperimenti. Ryan propose nel 1959 il tasso di errore sperimentale, che rappresenta la probabilità che si verifichi un errore di tipo I in un esperimento. Il tasso di errore sperimentale può essere pensato come un insieme di test in cui tutti i test dell'insieme sono controllati in modo uniforme.
In statistica, la parola "famiglia" ha diverse definizioni. Hochberg e Tamhane (1987) definiscono una "famiglia" come "qualsiasi insieme di inferenze che tengono conto in modo significativo di una misura complessiva dell'errore". Questa definizione enfatizza la correttezza e gli effetti di selezione nell'analisi statistica.
Quando si conducono più test di ipotesi, possono verificarsi diversi risultati. Ad esempio, presupponendo che ci siano m ipotesi, il numero di ipotesi vere e il numero di falsi positivi influenzeranno la conclusione statistica finale.
Il fulcro del tasso di errore familiare è controllare almeno un errore di tipo I.
Esistono diversi metodi tradizionali per controllare i tassi di errore familiare. I più noti includono:
Prendiamo come esempio la procedura Bonferroni, un metodo molto semplice che controlla il tasso di errore familiare complessivo dividendo il livello di significatività di ciascun test di ipotesi per il numero totale di test.
La ricerca ha evidenziato che il metodo ladder di Holm è più potente del metodo Bonferroni e può controllare efficacemente il tasso di errore di tutte le ipotesi.
Nel testare le ipotesi, gli statistici devono considerare anche le dipendenze tra i test. I metodi tradizionali come Bonferroni e Holm forniscono una soluzione relativamente conservativa adatta per il rilevamento delle dipendenze tra test in ipotesi multiple.
Tuttavia, la natura conservativa di questi metodi significa anche che le loro prestazioni potrebbero essere limitate da qualche tipo di struttura di dipendenza. In alcuni casi, l’adozione di strategie di ricampionamento, come l’introduzione di metodi di bootstrap e sostituzione, può migliorare la capacità di controllare i tassi di errore e migliorare le prestazioni di rilevamento.
Tra tutte queste strategie, il controllo del tasso di errore basato sulla famiglia offre una protezione più rigorosa rispetto al controllo del tasso di rilevamento di falsi errori (FDR).
Vale la pena notare che ciascun metodo ha i propri punti di forza e di debolezza nel controllo dei tassi di errore. È fondamentale scegliere una strategia di controllo adeguata in base al contesto della ricerca e alle caratteristiche dell'ipotesi. Inoltre, il controllo dei tassi di errore familiare è spesso parte del tentativo di ridurre l’incertezza e il rischio decisionale, che è fondamentale nella ricerca scientifica.
Nel lungo termine, come bilanciare il controllo dei tassi di errore e il mantenimento della validità dei risultati continuerà a rappresentare una sfida nella ricerca statistica. In questo contesto, l’innovazione di John Tukey merita la nostra riflessione, e come cambierà il suo impatto sulla scienza dei dati?