Fisher-Snedecor
Densité de probabilité
Fonction de répartition
Paramètres
d
1
>
0
,
d
2
>
0
{\displaystyle d_{1}>0,\ d_{2}>0}
degré de liberté
Support
x
∈
[
0
,
+
∞
[
{\displaystyle x\in [0,+\infty [\!}
Densité de probabilité
(
d
1
x
)
d
1
d
2
d
2
(
d
1
x
+
d
2
)
d
1
+
d
2
x
B
(
d
1
2
,
d
2
2
)
{\displaystyle {\frac {\sqrt {\frac {(d_{1}\,x)^{d_{1}}\,\,d_{2}^{d_{2}}}{(d_{1}\,x+d_{2})^{d_{1}+d_{2}}}}}{x\,\mathrm {B} \!\left({\frac {d_{1}}{2}},{\frac {d_{2}}{2}}\right)}}\!}
Fonction de répartition
I
d
1
x
d
1
x
+
d
2
(
d
1
/
2
,
d
2
/
2
)
{\displaystyle I_{\frac {d_{1}x}{d_{1}x+d_{2}}}(d_{1}/2,d_{2}/2)\!}
Espérance
d
2
d
2
−
2
{\displaystyle {\frac {d_{2}}{d_{2}-2}}\!}
pour
d
2
>
2
{\displaystyle d_{2}>2}
Mode
d
1
−
2
d
1
d
2
d
2
+
2
{\displaystyle {\frac {d_{1}-2}{d_{1}}}\;{\frac {d_{2}}{d_{2}+2}}\!}
pour
d
1
>
2
{\displaystyle d_{1}>2}
Variance
2
d
2
2
(
d
1
+
d
2
−
2
)
d
1
(
d
2
−
2
)
2
(
d
2
−
4
)
{\displaystyle {\tfrac {2\,d_{2}^{2}\,(d_{1}+d_{2}-2)}{d_{1}(d_{2}-2)^{2}(d_{2}-4)}}\!}
pour
d
2
>
4
{\displaystyle d_{2}>4}
Asymétrie
(
2
d
1
+
d
2
−
2
)
8
(
d
2
−
4
)
(
d
2
−
6
)
d
1
(
d
1
+
d
2
−
2
)
{\displaystyle {\tfrac {(2d_{1}+d_{2}-2){\sqrt {8(d_{2}-4)}}}{(d_{2}-6){\sqrt {d_{1}(d_{1}+d_{2}-2)}}}}\!}
pour
d
2
>
6
{\displaystyle d_{2}>6}
Kurtosis normalisé
12
d
1
(
5
d
2
−
22
)
(
d
1
+
d
2
−
2
)
+
(
d
2
−
4
)
(
d
2
−
2
)
2
d
1
(
d
2
−
6
)
(
d
2
−
8
)
(
d
1
+
d
2
−
2
)
{\displaystyle 12{\tfrac {d_{1}(5d_{2}-22)(d_{1}+d_{2}-2)+(d_{2}-4)(d_{2}-2)^{2}}{d_{1}(d_{2}-6)(d_{2}-8)(d_{1}+d_{2}-2)}}}
pour
d
2
>
8
{\displaystyle d_{2}>8}
modifier
En théorie des probabilités et en statistiques , la loi de Fisher ou encore loi de Fisher-Snedecor ou encore loi F de Snedecor est une loi de probabilité continue [ 1] , [ 2] , [ 3] . Elle tire son nom des statisticiens Ronald Aylmer Fisher et George Snedecor .
La loi de Fisher survient très fréquemment en tant que loi de la statistique de test lorsque l'hypothèse nulle est vraie, dans des tests statistiques , comme les tests du ratio de vraisemblance , dans les tests de Chow utilisés en économétrie, ou encore dans l'analyse de la variance (ANOVA) via le test de Fisher .
↑ (en) Milton Abramowitz (éditeur) et Irene A. Stegun (éditeur), Handbook of Mathematical Functions : With Formulas, Graphs, and Mathematical Tables , New York, Dover Publications , 1972 , 1046 p. (ISBN 978-0-486-61272-0 , lire en ligne )
↑ NIST (2006). Engineering Statistics Handbook - F Distribution
↑ (en) Alexander Mood , Franklin A. Graybill et Duane C. Boes , Introduction to the Theory of Statistics , McGraw-Hill , 1974 , 3e éd. (ISBN 978-0-07-042864-5 ) , p. 246-249