Test F

In statistica il test F per il confronto di due varianze è un test di ipotesi basato sulla distribuzione F di Fisher-Snedecor e volto a verificare l'ipotesi che due popolazioni che seguono entrambe distribuzioni normali abbiano la stessa varianza.

Procedimento

Se le popolazioni X e Y seguono rispettivamente le distribuzioni normali N ( μ X , σ X 2 ) {\displaystyle {\mathcal {N}}(\mu _{X},\sigma _{X}^{2})} e N ( μ Y , σ Y 2 ) {\displaystyle {\mathcal {N}}(\mu _{Y},\sigma _{Y}^{2})} , allora

  • i campioni X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\ldots ,X_{n}} e Y 1 , Y 2 , , Y m {\displaystyle Y_{1},Y_{2},\ldots ,Y_{m}} si suppongono indipendenti, i primi isonomi a X e i secondi isonomi a Y;
  • gli stimatori delle varianze osservate S X 2 {\displaystyle S_{X}^{2}} e S Y 2 {\displaystyle S_{Y}^{2}} sono variabili aleatorie indipendenti;
  • le variabili aleatorie n 1 σ X 2 S X 2 {\displaystyle {\tfrac {n-1}{\sigma _{X}^{2}}}S_{X}^{2}} e m 1 σ Y 2 S Y 2 {\displaystyle {\tfrac {m-1}{\sigma _{Y}^{2}}}S_{Y}^{2}} seguono rispettivamente le distribuzioni chi quadro χ 2 ( n 1 ) {\displaystyle \chi ^{2}(n-1)} e χ 2 ( m 1 ) {\displaystyle \chi ^{2}(m-1)} ;
  • il rapporto F = σ Y 2 σ X 2 S X 2 S Y 2 {\displaystyle F={\tfrac {\sigma _{Y}^{2}}{\sigma _{X}^{2}}}{\frac {S_{X}^{2}}{S_{Y}^{2}}}} segue la distribuzione di Fisher-Snedecor F ( n 1 , m 1 ) {\displaystyle {\mathcal {F}}(n-1,m-1)} .

Variabile di decisione

Sotto l'ipotesi H 0 = ( σ X 2 = σ Y 2 ) {\displaystyle H_{0}=(\sigma _{X}^{2}=\sigma _{Y}^{2})} , ovvero se le due popolazioni hanno la stessa varianza, allora la variabile aleatoria

F = S X 2 S Y 2 {\displaystyle F={\frac {S_{X}^{2}}{S_{Y}^{2}}}}

segue la distribuzione di Fisher-Snedecor

F ( n 1 , m 1 ) {\displaystyle {\mathcal {F}}(n-1,m-1)}

di parametri n-1 e m-1, dove n e m sono le numerosità dei due campioni.

La scelta del numeratore non influenza il test: sotto l'ipotesi nulla la variabile aleatoria 1 / F {\displaystyle 1/F} segue la distribuzione F ( m 1 , n 1 ) {\displaystyle {\mathcal {F}}(m-1,n-1)} .

Il test

Come regione di accettazione, al livello di significatività α, viene preso l'intervallo compreso tra i quantili di ordine α 2 {\displaystyle {\frac {\alpha }{2}}} e 1 α 2 {\displaystyle 1-{\frac {\alpha }{2}}} , mentre la regione di rifiuto è quella esclusa:

A = ] f α 2 , f 1 α 2 [ ; R = ] 0 , f α 2 [     ] f 1 α 2 , [ {\displaystyle {\mathcal {A}}=]f_{\frac {\alpha }{2}},f_{1-{\frac {\alpha }{2}}}[;\qquad {\mathcal {R}}=]0,f_{\frac {\alpha }{2}}[\ \cup \ ]f_{1-{\frac {\alpha }{2}}},\infty [}

Un valore appartenente all'intervallo ] 0 , f α 2 [ {\displaystyle ]0,f_{\frac {\alpha }{2}}[} suggerisce che la varianza di X sia minore della varianza di Y, mentre un valore appartenente all'intervallo ] f 1 α 2 , [ {\displaystyle ]f_{1-{\frac {\alpha }{2}}},\infty [} suggerisce l'inverso.

Econometria

In molti casi la statistica F può essere calcolata con un processo più diretto:

F = ( SSR 1 SSR 2 p 2 p 1 ) ( SSR 2 n p 2 ) {\displaystyle F={\frac {\left({\frac {{\mbox{SSR}}_{1}-{\mbox{SSR}}_{2}}{p_{2}-p_{1}}}\right)}{\left({\frac {{\mbox{SSR}}_{2}}{n-p_{2}}}\right)}}} [1]

dove SSRi è la somma dei quadrati residui (dall'inglese Sum of Square Residuals) del modello i.

In econometria vale anche la seguente formula di moltiplicazioni tra matrici:

F = ( R β ^ r ) ( R V a r ( β ^ ) R ^ ) 1 ( R β ^ r ) q {\displaystyle F={\frac {(R{\hat {\beta }}-r)({\hat {RVar({\widehat {\beta }})R'}})^{-1}(R{\hat {\beta }}-r)}{q}}}

dove:

  • R {\displaystyle R} è la matrice dei vincoli;
  • r {\displaystyle r} è il parametro d'eguagliaza;
  • ( R V a r ( β ^ ) R ^ ) 1 {\displaystyle ({\hat {RVar({\widehat {\beta }})R'}})^{-1}} è l'inversa della matrice con le covarianze;
  • q {\displaystyle q} è il numero dei vincoli di H 0 {\displaystyle H_{0}} .

Solitamente gli strumenti sono rilevanti se F ≥ 10

Una tavola dei valori critici del test F può essere trovata qui.

Applicazione alla comparazione di diverse statistiche χ 2 {\displaystyle \chi ^{2}}

In analisi dei dati il test F viene comunemente usato per confrontare i risultati ottenuti con due diversi metodi e valutati con l'estimatore χ 2 {\displaystyle \chi ^{2}} .[2] Se si hanno due variabili χ 1 2 {\displaystyle \chi _{1}^{2}} e χ 2 2 {\displaystyle \chi _{2}^{2}} che seguono la distribuzione di χ 2 {\displaystyle \chi ^{2}} a ν 1 {\displaystyle \nu _{1}} e ν 2 {\displaystyle \nu _{2}} gradi di libertà rispettivamente, si può costruire la variabile f {\displaystyle f} :

f = χ 1 2 / ν 1 χ 2 2 / ν 2 {\displaystyle f={\frac {\chi _{1}^{2}/\nu _{1}}{\chi _{2}^{2}/\nu _{2}}}}

che sarà distribuita secondo la Distribuzione F:

p ( f ; ν 1 , ν 2 ) = Γ [ ( ν 1 + ν 2 ) / 2 ] Γ [ ν 1 / 2 ] Γ [ ν 2 / 2 ] ( ν 1 ν 2 ) ν 1 / 2 f 1 / 2 ( ν 1 2 ) ( 1 + f ν 1 / ν 2 ) 1 / 2 ( ν 1 + ν 2 ) {\displaystyle p(f;\nu _{1},\nu _{2})={\frac {\Gamma [(\nu _{1}+\nu _{2})/2]}{\Gamma [\nu _{1}/2]\Gamma [\nu _{2}/2]}}\left({\frac {\nu _{1}}{\nu _{2}}}\right)^{\nu _{1}/2}{\frac {f^{1/2(\nu _{1}-2)}}{(1+f\nu _{1}/\nu _{2})^{1/2(\nu _{1}+\nu _{2})}}}\quad } .

Per capire se χ 1 2 {\displaystyle \chi _{1}^{2}} e χ 2 2 {\displaystyle \chi _{2}^{2}} siano consistenti si usa, quindi, l'integrale della distribuzione di probabilità per f {\displaystyle f} :

P f ( f 0 ; ν 1 , ν 2 ) = f 0 p ( f , ν 1 , ν 2 ) d f {\displaystyle P_{f}({f^{0};\nu _{1},\nu _{2}})=\int _{f^{0}}^{\infty }p(f,\nu _{1},\nu _{2})df}

dove f 0 {\displaystyle f^{0}} è il particolare valore di f {\displaystyle f} ottenuto.

Il valore di P f {\displaystyle P_{f}} fornisce la probabilità di trovare un valore di f {\displaystyle f} pari a f 0 {\displaystyle f^{0}} o più alto da dati casuali se χ 1 2 {\displaystyle \chi _{1}^{2}} e χ 2 2 {\displaystyle \chi _{2}^{2}} sono in accordo.

Tipicamente il test F usato per i χ 2 {\displaystyle \chi ^{2}} confronta due fit applicati agli stessi dati per capire se uno è migliore dell'altro. Se il valore di P f {\displaystyle P_{f}} è minore del livello di confidenza scelto (ad es. 5%), si ha una significativa differenza nella bontà dei due fit.

Note

  1. ^ GraphPad Software Inc, How the F test works to compare models, su graphpad.com, GraphPad Software Inc, 2007/10/11.
  2. ^ Bevington, P.R. Robinson, D. K. - Data reduction and error analysis for physical sciences , Mc Graw Hill

Collegamenti esterni

  • (EN) F-test, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  Portale Matematica
  Portale Statistica