Distribución t de student
Función de densidad de probabilidad
Función de distribución de probabilidad Parámetros
ν ν -->
>
0
{\displaystyle \nu >0\!}
grados de libertad (real) Dominio
x
∈ ∈ -->
(
− − -->
∞ ∞ -->
;
+
∞ ∞ -->
)
{\displaystyle x\in (-\infty ;+\infty )\!}
Función de densidad (pdf)
Γ Γ -->
(
(
ν ν -->
+
1
)
/
2
)
ν ν -->
π π -->
Γ Γ -->
(
ν ν -->
/
2
)
(
1
+
x
2
/
ν ν -->
)
− − -->
(
ν ν -->
+
1
)
/
2
{\displaystyle {\frac {\Gamma ((\nu +1)/2)}{{\sqrt {\nu \pi }}\,\Gamma (\nu /2)}}(1+x^{2}/\nu )^{-(\nu +1)/2}\!}
Función de distribución (cdf)
1
2
+
x
Γ Γ -->
(
ν ν -->
+
1
2
)
⋅ ⋅ -->
2
F
1
(
1
2
,
ν ν -->
+
1
2
;
3
2
;
− − -->
x
2
ν ν -->
)
π π -->
ν ν -->
Γ Γ -->
(
ν ν -->
2
)
{\displaystyle {\begin{matrix}{\frac {1}{2}}+x\Gamma \left({\frac {\nu +1}{2}}\right)\cdot \\[0.5em]{\frac {\,_{2}F_{1}\left({\frac {1}{2}},{\frac {\nu +1}{2}};{\frac {3}{2}};-{\frac {x^{2}}{\nu }}\right)}{{\sqrt {\pi \nu }}\,\Gamma \left({\frac {\nu }{2}}\right)}}\end{matrix}}}
donde
2
F
1
{\displaystyle \,_{2}F_{1}}
es la función hipergeométrica Media
0
{\displaystyle 0}
para
ν ν -->
>
1
{\displaystyle \nu >1}
, indefinida para otros valores Mediana
0
{\displaystyle 0}
Moda
0
{\displaystyle 0}
Varianza
ν ν -->
ν ν -->
− − -->
2
{\displaystyle {\frac {\nu }{\nu -2}}\!}
para
ν ν -->
>
2
{\displaystyle \nu >2}
, indefinida para otros valores Coeficiente de simetría
0
{\displaystyle 0}
para
ν ν -->
>
3
{\displaystyle \nu >3}
Curtosis
6
ν ν -->
− − -->
4
{\displaystyle {\frac {6}{\nu -4}}\!}
para
ν ν -->
>
4
{\displaystyle \nu >4}
Entropía
ν ν -->
+
1
2
[
ψ ψ -->
(
1
+
ν ν -->
2
)
− − -->
ψ ψ -->
(
ν ν -->
2
)
]
+
log
-->
[
ν ν -->
B
(
ν ν -->
2
,
1
2
)
]
{\displaystyle {\begin{matrix}{\frac {\nu +1}{2}}\left[\psi ({\frac {1+\nu }{2}})-\psi ({\frac {\nu }{2}})\right]\\[0.5em]+\log {\left[{\sqrt {\nu }}B({\frac {\nu }{2}},{\frac {1}{2}})\right]}\end{matrix}}}
ψ ψ -->
{\displaystyle \psi }
: función digamma,
B
{\displaystyle B}
: función beta Función generadora de momentos (mgf)
(No definida)
En probabilidad y estadística , la distribución
t
{\displaystyle t}
(de Student ) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño y la desviación estándar poblacional es desconocida.
Fue desarrollada por William Sealy Gosset bajo el pseudónimo “Student” .
Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos varianzas muestrales y para la construcción del intervalo de confianza para la diferencia entre las partes de dos poblaciones cuando se desconoce la desviación típica de una población y esta debe ser estimada a partir de los datos de una muestra.
Historia y etimología
El estadístico William Sealy Gosset, conocido como "Student"
La distribución de Student fue descrita en el año 1908 por William Sealy Gosset .
En estadística, la distribución t fue derivada por primera vez como distribución posterior en 1876 por Helmert [ 1] [ 2] [ 3] y Lüroth .[ 4] [ 5] [ 6] La distribución t también apareció en una forma más general como distribución Pearson Tipo IV en el artículo de Karl Pearson de 1895.[ 7]
En la literatura en lengua inglesa, la distribución toma su nombre del artículo de William Sealy Gosset de 1908 en Biometrika bajo el seudónimo de "Student".[ 8] Una versión del origen del seudónimo es que el empleador de Gosset prefería que el personal utilizara seudónimos al publicar artículos científicos en lugar de su nombre real, o prohibía totalmente la publicación de artículos[ 9] , por lo que utilizó el nombre de "Estudiante" para ocultar su identidad. Otra versión es que Guinness no quería que sus competidores supieran que utilizaban la prueba t para determinar la calidad de la materia prima .[ 10] [ 11]
Gosset trabajó en la fábrica de cerveza Guinness en Dublín , Irlanda , y se interesó por los problemas de las muestras pequeñas, por ejemplo, las propiedades químicas de la cebada, donde el tamaño de las muestras podía ser de sólo 3. El artículo de Gosset se refiere a la distribución como la "distribución de frecuencias de las desviaciones típicas de muestras extraídas de una población normal". Se hizo muy conocida gracias al trabajo de Ronald Fisher , que llamó a la distribución "distribución de Student" y representó el valor de la prueba con la letra t .[ 12] [ 13]
Distribución t de Student a partir de una muestra aleatoria
Sea
X
1
,
… … -->
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
variables aleatorias independientes distribuidas
N
(
μ μ -->
,
σ σ -->
2
)
{\displaystyle N(\mu ,\sigma ^{2})}
, esto es,
X
1
,
… … -->
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
es una muestra aleatoria de tamaño
n
{\displaystyle n}
proveniente de una población con distribución normal con media
μ μ -->
{\displaystyle \mu }
y varianza
σ σ -->
2
{\displaystyle \sigma ^{2}}
.
Sean
X
¯ ¯ -->
=
1
n
∑ ∑ -->
i
=
1
n
X
i
{\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}
la media muestral y
S
2
=
1
n
− − -->
1
∑ ∑ -->
i
=
1
n
(
X
i
− − -->
X
¯ ¯ -->
)
2
{\displaystyle S^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\right)^{2}}
la varianza muestral. Entonces, la variable aleatoria
X
¯ ¯ -->
− − -->
μ μ -->
σ σ -->
/
n
{\displaystyle {\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}}
sigue una distribución normal estándar (es decir, una distribución normal con media 0 y varianza 1) y la variable aleatoria
X
¯ ¯ -->
− − -->
μ μ -->
S
/
n
{\displaystyle {\frac {{\overline {X}}-\mu }{S/{\sqrt {n}}}}}
donde
S
{\displaystyle S}
ha sido sustituido por
σ σ -->
{\displaystyle \sigma }
, tiene una distribución
t
{\displaystyle t}
de student con
n
− − -->
1
{\displaystyle n-1}
grados de libertad.
Definición
Notación
Sean
X
{\displaystyle X}
una variable aleatoria continua y
v
>
0
{\displaystyle v>0}
, si
X
{\displaystyle X}
tiene una distribución
t
{\displaystyle t}
con
v
{\displaystyle v}
grados de libertad entonces escribiremos
X
∼ ∼ -->
t
v
{\displaystyle X\sim t_{v}}
o
X
∼ ∼ -->
t
(
v
)
{\displaystyle X\sim t(v)}
.
Función de densidad
La distribución
t
{\displaystyle t}
-student tiene como función de densidad
f
X
(
x
)
=
Γ Γ -->
(
v
+
1
2
)
v
π π -->
Γ Γ -->
(
v
2
)
(
1
+
x
2
v
)
− − -->
v
+
1
2
{\displaystyle f_{X}(x)={\frac {\Gamma \left({\frac {v+1}{2}}\right)}{{\sqrt {v\pi }}\;\Gamma \left({\frac {v}{2}}\right)}}\left(1+{\frac {x^{2}}{v}}\right)^{-{\frac {v+1}{2}}}}
para
x
∈ ∈ -->
R
{\displaystyle x\in \mathbb {R} }
, donde
v
{\displaystyle v}
denota los grados de libertad y
Γ Γ -->
{\displaystyle \Gamma }
es la función gamma .
La expresión anterior también suele escribirse como
f
X
(
x
)
=
1
v
B
-->
(
1
2
,
v
2
)
(
1
+
x
2
v
)
− − -->
v
+
1
2
{\displaystyle f_{X}(x)={\frac {1}{{\sqrt {v}}\;\operatorname {B} \left({\frac {1}{2}},{\frac {v}{2}}\right)}}\left(1+{\frac {x^{2}}{v}}\right)^{-{\frac {v+1}{2}}}}
donde
B
{\displaystyle \operatorname {B} }
es la función beta .
En particular, para valores enteros de
v
{\displaystyle v}
se tiene que
para
v
>
1
{\displaystyle v>1}
par
Γ Γ -->
(
v
+
1
2
)
v
π π -->
Γ Γ -->
(
v
2
)
=
(
v
− − -->
1
)
(
v
− − -->
3
)
⋯ ⋯ -->
5
⋅ ⋅ -->
3
2
v
(
v
− − -->
2
)
(
v
− − -->
4
)
⋯ ⋯ -->
4
⋅ ⋅ -->
2
{\displaystyle {\frac {\Gamma \left({\frac {v+1}{2}}\right)}{{\sqrt {v\pi }}\;\Gamma \left({\frac {v}{2}}\right)}}={\frac {(v-1)(v-3)\cdots 5\cdot 3}{2{\sqrt {v}}(v-2)(v-4)\cdots 4\cdot 2}}}
para
v
>
1
{\displaystyle v>1}
impar
Γ Γ -->
(
v
+
1
2
)
v
π π -->
Γ Γ -->
(
v
2
)
=
(
v
− − -->
1
)
(
v
− − -->
3
)
⋯ ⋯ -->
4
⋅ ⋅ -->
2
π π -->
v
(
v
− − -->
2
)
(
v
− − -->
4
)
⋯ ⋯ -->
5
⋅ ⋅ -->
3
{\displaystyle {\frac {\Gamma \left({\frac {v+1}{2}}\right)}{{\sqrt {v\pi }}\;\Gamma \left({\frac {v}{2}}\right)}}={\frac {(v-1)(v-3)\cdots 4\cdot 2}{\pi {\sqrt {v}}(v-2)(v-4)\cdots 5\cdot 3}}}
Función de distribución
La función de distribución puede ser escrita en términos de
I
{\displaystyle I}
, la función beta incompleta .
Para
x
>
0
{\displaystyle x>0}
F
X
(
x
)
=
∫ ∫ -->
− − -->
∞ ∞ -->
x
f
(
u
)
d
u
=
1
− − -->
1
2
I
x
(
t
)
(
v
2
,
1
2
)
{\displaystyle F_{X}(x)=\int _{-\infty }^{x}f(u)du=1-{\frac {1}{2}}I_{x(t)}\left({\frac {v}{2}},{\frac {1}{2}}\right)}
donde
x
(
t
)
=
v
t
2
+
v
{\displaystyle x(t)={\frac {v}{t^{2}+v}}}
Una fórmula alternativa, válida para
x
2
<
v
{\displaystyle x^{2}<v}
es
∫ ∫ -->
− − -->
∞ ∞ -->
x
f
(
u
)
d
u
=
1
2
+
x
Γ Γ -->
(
v
+
1
2
)
π π -->
v
Γ Γ -->
(
v
2
)
2
F
1
(
1
2
,
v
+
1
2
;
3
2
;
− − -->
x
2
v
)
{\displaystyle \int _{-\infty }^{x}f(u)du={\frac {1}{2}}+x{\frac {\Gamma \left({\frac {v+1}{2}}\right)}{{\sqrt {\pi v}}\;\Gamma \left({\frac {v}{2}}\right)}}{}_{2}F_{1}\left({\frac {1}{2}},{\frac {v+1}{2}};{\frac {3}{2}};-{\frac {x^{2}}{v}}\right)}
donde
2
F
1
{\displaystyle {}_{2}F_{1}}
es un caso particular de la función hipergeométrica .
Casos particulares
Ciertos valores de
v
{\displaystyle v}
dan una forma especial a la función de densidad y de distribución.
v
=
1
{\displaystyle v=1}
Función de densidad:
f
X
(
x
)
=
1
π π -->
(
1
+
x
2
)
{\displaystyle f_{X}(x)={\frac {1}{\pi (1+x^{2})}}}
Función de distribución:
F
X
(
x
)
=
1
2
+
1
π π -->
arctan
-->
(
x
)
{\displaystyle F_{X}(x)={\frac {1}{2}}+{\frac {1}{\pi }}\arctan(x)}
Véase Distribución de Cauchy .
v
=
2
{\displaystyle v=2}
Función de densidad:
f
X
(
x
)
=
1
2
2
(
1
+
x
2
2
)
3
2
{\displaystyle f_{X}(x)={\frac {1}{2{\sqrt {2}}\left(1+{\frac {x^{2}}{2}}\right)^{\frac {3}{2}}}}}
Función de distribución:
F
X
(
x
)
=
1
2
+
x
2
2
1
+
x
2
2
{\displaystyle F_{X}(x)={\frac {1}{2}}+{\frac {x}{2{\sqrt {2}}{\sqrt {1+{\frac {x^{2}}{2}}}}}}}
v
=
3
{\displaystyle v=3}
Función de densidad:
f
X
(
x
)
=
2
π π -->
3
(
1
+
x
2
3
)
2
{\displaystyle f_{X}(x)={\frac {2}{\pi {\sqrt {3}}\left(1+{\frac {x^{2}}{3}}\right)^{2}}}}
Función de distribución:
F
X
(
x
)
=
1
2
+
1
π π -->
[
x
3
(
1
+
x
2
3
)
+
arctan
-->
(
x
3
)
]
{\displaystyle F_{X}(x)={\frac {1}{2}}+{\frac {1}{\pi }}\left[{\frac {x}{{\sqrt {3}}\left(1+{\frac {x^{2}}{3}}\right)}}+\arctan \left({\frac {x}{\sqrt {3}}}\right)\right]}
v
=
∞ ∞ -->
{\displaystyle v=\infty }
Función de densidad:
f
X
(
x
)
=
1
2
π π -->
e
− − -->
x
2
2
{\displaystyle f_{X}(x)={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}}
Véase Distribución normal .
Función de distribución:
F
X
(
x
)
=
1
2
[
1
+
erf
-->
(
x
2
)
]
{\displaystyle F_{X}(x)={\frac {1}{2}}\left[1+\operatorname {erf} \left({\frac {x}{\sqrt {2}}}\right)\right]}
Véase Función error .
Propiedades
Si
X
{\displaystyle X}
es una variable aleatoria tal que
X
∼ ∼ -->
t
v
{\displaystyle X\sim t_{v}}
entonces
X
{\displaystyle X}
satisface algunas propiedades.
La media de
X
{\displaystyle X}
para valores
v
>
1
{\displaystyle v>1}
es
E
-->
[
X
]
=
0
{\displaystyle \operatorname {E} [X]=0}
Varianza
La varianza de
X
{\displaystyle X}
para valores
v
>
2
{\displaystyle v>2}
es
Var
-->
(
X
)
=
v
v
− − -->
2
{\displaystyle \operatorname {Var} (X)={\frac {v}{v-2}}}
Curtosis
La curtosis de
X
{\displaystyle X}
para valores
v
>
4
{\displaystyle v>4}
es
6
v
− − -->
4
{\displaystyle {\frac {6}{v-4}}}
Caracterización
La distribución
t
{\displaystyle t}
de Student con
v
{\displaystyle v}
grados de libertad puede definirse como la distribución de la variable aleatoria
T
{\displaystyle T}
definida por:
T
:=
Z
X
v
∼ ∼ -->
t
v
{\displaystyle T:={\frac {Z}{\sqrt {\frac {X}{v}}}}\sim t_{v}}
donde
Para una constante
μ μ -->
{\displaystyle \mu }
no nula, el cociente
(
Z
+
μ μ -->
)
v
X
{\displaystyle (Z+\mu ){\sqrt {\frac {v}{X}}}}
es una variable aleatoria que sigue la distribución no central
t
{\displaystyle t}
de Student con parámetro de no-centralidad
μ μ -->
{\displaystyle \mu }
.
Intervalos de confianza para muestras de la distribución normal
Sean
X
1
,
… … -->
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
una muestra aleatoria proveniente de una población con distribución
N
(
μ μ -->
,
σ σ -->
2
)
{\displaystyle N(\mu ,\sigma ^{2})}
donde
μ μ -->
{\displaystyle \mu }
y
σ σ -->
{\displaystyle \sigma }
son desconocidos.
Se tiene que
X
¯ ¯ -->
− − -->
μ μ -->
σ σ -->
/
n
∼ ∼ -->
N
(
0
,
1
)
{\displaystyle {\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}\sim N(0,1)}
y
(
n
− − -->
1
)
S
2
σ σ -->
2
∼ ∼ -->
χ χ -->
n
− − -->
1
2
{\displaystyle {\frac {(n-1)S^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}
son independientes entonces el cociente
X
¯ ¯ -->
− − -->
μ μ -->
σ σ -->
/
n
(
n
− − -->
1
)
S
2
σ σ -->
2
n
− − -->
1
∼ ∼ -->
t
n
− − -->
1
{\displaystyle {\frac {\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}{\sqrt {\frac {\frac {(n-1)S^{2}}{\sigma ^{2}}}{n-1}}}}\sim t_{n-1}}
esto es
X
¯ ¯ -->
− − -->
μ μ -->
S
/
n
∼ ∼ -->
t
n
− − -->
1
{\displaystyle {\frac {{\overline {X}}-\mu }{S/{\sqrt {n}}}}\sim t_{n-1}}
Sea
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
∈ ∈ -->
R
{\displaystyle t_{n-1,1-\alpha /2}\in \mathbb {R} }
tal que
P
-->
[
Y
≤ ≤ -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
]
=
1
− − -->
α α -->
2
{\displaystyle \operatorname {P} [Y\leq t_{n-1,1-\alpha /2}]=1-{\frac {\alpha }{2}}}
siendo
Y
∼ ∼ -->
t
n
− − -->
1
{\displaystyle Y\sim t_{n-1}}
entonces
P
-->
[
− − -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
≤ ≤ -->
X
¯ ¯ -->
− − -->
μ μ -->
S
/
n
≤ ≤ -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
]
=
1
− − -->
α α -->
P
-->
[
− − -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
≤ ≤ -->
X
¯ ¯ -->
− − -->
μ μ -->
≤ ≤ -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
]
=
1
− − -->
α α -->
P
-->
[
− − -->
X
¯ ¯ -->
− − -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
≤ ≤ -->
− − -->
μ μ -->
≤ ≤ -->
− − -->
X
¯ ¯ -->
+
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
]
=
1
− − -->
α α -->
P
-->
[
X
¯ ¯ -->
− − -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
≤ ≤ -->
μ μ -->
≤ ≤ -->
X
¯ ¯ -->
+
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
]
=
1
− − -->
α α -->
{\displaystyle {\begin{aligned}&\operatorname {P} \left[-t_{n-1,1-\alpha /2}\leq {\frac {{\overline {X}}-\mu }{S/{\sqrt {n}}}}\leq t_{n-1,1-\alpha /2}\right]=1-\alpha \\&\operatorname {P} \left[-t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\leq {\overline {X}}-\mu \leq t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\right]=1-\alpha \\&\operatorname {P} \left[-{\overline {X}}-t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\leq -\mu \leq -{\overline {X}}+t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\right]=1-\alpha \\&\operatorname {P} \left[{\overline {X}}-t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\leq \mu \leq {\overline {X}}+t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\right]=1-\alpha \\\end{aligned}}}
por lo tanto un intervalo de
(
1
− − -->
α α -->
)
100
% % -->
{\displaystyle (1-\alpha )100\%}
de confianza para
μ μ -->
{\displaystyle \mu }
cuando
σ σ -->
2
{\displaystyle \sigma ^{2}}
es desconocida es
(
X
¯ ¯ -->
− − -->
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
,
X
¯ ¯ -->
+
t
n
− − -->
1
,
1
− − -->
α α -->
/
2
S
n
)
{\displaystyle \left({\overline {X}}-t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}},{\overline {X}}+t_{n-1,1-\alpha /2}\;{\frac {S}{\sqrt {n}}}\right)}
Distribución t de Student generalizada
En términos del parámetro de escala σ̂
La distribución
t
{\displaystyle t}
de Student puede generalizarse a 3 parámetros, introduciendo un parámero locacional
μ μ -->
^ ^ -->
{\displaystyle {\widehat {\mu }}}
y un parámetro de escala
σ σ -->
^ ^ -->
{\displaystyle {\widehat {\sigma }}}
mediante la relación
X
=
μ μ -->
^ ^ -->
+
σ σ -->
^ ^ -->
T
{\displaystyle X={\widehat {\mu }}+{\widehat {\sigma }}\;T}
o
T
=
X
− − -->
μ μ -->
^ ^ -->
σ σ -->
^ ^ -->
{\displaystyle T={\frac {X-{\widehat {\mu }}}{\widehat {\sigma }}}}
esto significa que
x
− − -->
μ μ -->
^ ^ -->
σ σ -->
^ ^ -->
{\textstyle {\frac {x-{\widehat {\mu }}}{\widehat {\sigma }}}}
tiene la distribución clásica
t
{\displaystyle t}
de Student con
v
{\displaystyle v}
grados de libertad.
La resultante distribución
t
{\displaystyle t}
de Student no estandarizada tiene por función de densidad :[ 14]
p
(
x
|
ν ν -->
,
μ μ -->
^ ^ -->
,
σ σ -->
^ ^ -->
)
=
Γ Γ -->
(
ν ν -->
+
1
2
)
Γ Γ -->
(
ν ν -->
2
)
π π -->
ν ν -->
σ σ -->
^ ^ -->
(
1
+
1
ν ν -->
(
x
− − -->
μ μ -->
^ ^ -->
σ σ -->
^ ^ -->
)
2
)
− − -->
ν ν -->
+
1
2
{\displaystyle p(x|\nu ,{\widehat {\mu }},{\widehat {\sigma }})={\frac {\Gamma ({\frac {\nu +1}{2}})}{\Gamma ({\frac {\nu }{2}}){\sqrt {\pi \nu }}{\widehat {\sigma }}}}\left(1+{\frac {1}{\nu }}\left({\frac {x-{\widehat {\mu }}}{\widehat {\sigma }}}\right)^{2}\right)^{-{\frac {\nu +1}{2}}}}
donde
σ σ -->
^ ^ -->
{\displaystyle {\widehat {\sigma }}}
no corresponde a la desviación estándar , esto es, no es la desviación estándar de la distribución escalada
t
{\displaystyle t}
, simplemente es parámetro de escala de la distribución.
La distribución puede ser escrita en términos de
σ σ -->
^ ^ -->
2
{\displaystyle {\widehat {\sigma }}^{2}}
, el cuadrado del parámetro de escala:
p
(
x
|
ν ν -->
,
μ μ -->
^ ^ -->
,
σ σ -->
^ ^ -->
2
)
=
Γ Γ -->
(
ν ν -->
+
1
2
)
Γ Γ -->
(
ν ν -->
2
)
π π -->
ν ν -->
σ σ -->
^ ^ -->
2
(
1
+
1
ν ν -->
(
x
− − -->
μ μ -->
^ ^ -->
)
2
σ σ -->
^ ^ -->
2
)
− − -->
ν ν -->
+
1
2
{\displaystyle p(x|\nu ,{\widehat {\mu }},{\widehat {\sigma }}^{2})={\frac {\Gamma ({\frac {\nu +1}{2}})}{\Gamma ({\frac {\nu }{2}}){\sqrt {\pi \nu {\widehat {\sigma }}^{2}}}}}\left(1+{\frac {1}{\nu }}{\frac {(x-{\widehat {\mu }})^{2}}{{\widehat {\sigma }}^{2}}}\right)^{-{\frac {\nu +1}{2}}}}
Otras propiedades de esta versión de la distribución son:[ 14]
E
-->
[
X
]
=
μ μ -->
^ ^ -->
para
ν ν -->
>
1
,
Var
-->
(
X
)
=
σ σ -->
^ ^ -->
2
ν ν -->
ν ν -->
− − -->
2
para
ν ν -->
>
2
,
Moda
-->
(
X
)
=
μ μ -->
^ ^ -->
.
{\displaystyle {\begin{aligned}&\operatorname {E} [X]={\widehat {\mu }}\quad \quad \quad {\text{para }}\,\nu >1,\\&\operatorname {Var} (X)={\widehat {\sigma }}^{2}{\frac {\nu }{\nu -2}}\,\quad {\text{para }}\,\nu >2,\\&\operatorname {Moda} (X)={\widehat {\mu }}.\end{aligned}}}
En términos del parámetro inverso de escala λ
Una parametrización alterna está en términos del parámetro inverso de escala
λ λ -->
{\displaystyle \lambda }
definido mediante la relación
λ λ -->
=
1
σ σ -->
^ ^ -->
2
{\textstyle \lambda ={\frac {1}{{\widehat {\sigma }}^{2}}}}
. La función de densidad está dada por:[ 14]
p
(
x
|
ν ν -->
,
μ μ -->
^ ^ -->
,
λ λ -->
)
=
Γ Γ -->
(
ν ν -->
+
1
2
)
Γ Γ -->
(
ν ν -->
2
)
(
λ λ -->
π π -->
v
)
1
2
(
1
+
λ λ -->
(
x
− − -->
μ μ -->
^ ^ -->
)
2
v
)
− − -->
ν ν -->
+
1
2
{\displaystyle p(x|\nu ,{\widehat {\mu }},\lambda )={\frac {\Gamma ({\frac {\nu +1}{2}})}{\Gamma ({\frac {\nu }{2}})}}\left({\frac {\lambda }{\pi v}}\right)^{\frac {1}{2}}\left(1+{\frac {\lambda (x-{\widehat {\mu }})^{2}}{v}}\right)^{-{\frac {\nu +1}{2}}}}
Otras propiedades de esta versión de la distribución son:[ 14]
E
-->
[
X
]
=
μ μ -->
^ ^ -->
para
ν ν -->
>
1
,
Var
-->
(
X
)
=
1
λ λ -->
ν ν -->
ν ν -->
− − -->
2
para
ν ν -->
>
2
,
Moda
-->
(
X
)
=
μ μ -->
^ ^ -->
.
{\displaystyle {\begin{aligned}&\operatorname {E} [X]={\widehat {\mu }}\quad \quad \quad {\text{para }}\,\nu >1,\\&\operatorname {Var} (X)={\frac {1}{\lambda }}{\frac {\nu }{\nu -2}}\,\quad {\text{para }}\,\nu >2,\\&\operatorname {Moda} (X)={\widehat {\mu }}.\end{aligned}}}
Distribuciones relacionadas
Si
X
∼ ∼ -->
t
v
{\displaystyle X\sim t_{v}}
entonces
X
2
∼ ∼ -->
F
1
,
v
{\displaystyle X^{2}\sim \operatorname {F} _{1,v}}
donde
F
1
,
v
{\displaystyle \operatorname {F} _{1,v}}
denota la distribución F con
1
{\displaystyle 1}
y
v
{\displaystyle v}
grados de libertad.
Véase también
Referencias
↑ Helmert FR (1875). «Über die Berechnung des wahrscheinlichen Fehlers aus einer endlichen Anzahl wahrer Beobachtungsfehler». Z. Math. U. Physik 20 : 300-3.
↑ Helmert FR (1876). «Über die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und uber einige damit in Zusammenhang stehende Fragen». Z. Math. Phys. 21 : 192-218.
↑ Helmert FR (1876). «Die Genauigkeit der Formel von Peters zur Berechnung des wahrscheinlichen Beobachtungsfehlers directer Beobachtungen gleicher Genauigkeit» [La precisión de la fórmula de Peters para calcular el error de observación probable de observaciones directas de la misma precisión] . Astron. Nachr. (en alemán) 88 (8–9): 113-132. Bibcode :1876AN.....88..113H .
↑ Lüroth J (1876). «Vergleichung von zwei Werten des wahrscheinlichen Fehlers» . Astron. Nachr. 87 (14): 209-20. Bibcode :1876AN.....87..209L .
↑ «Estudios de historia de la probabilidad y la estadística. XLIV. Un precursor de la distribución t .». Biometrika 83 (4): 891-898. 1996.
↑ Sheynin O (1995). «El trabajo de Helmert en la teoría de errores». Arch. Hist. Exact Sci. 49 (1): 73-104. S2CID 121241599 . doi :10.1007/BF00374700 .
↑ Pearson, K. (1 de enero de 1895). «Contribuciones a la teoría matemática de la evolución. II. Skew Variation in Homogeneous Material». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 186 : 343-414 (374). Bibcode :1895RSPTA.186..343P . ISSN 1364-503X . doi :10.1098/rsta.1895.0010 .
↑ "Student" [William Sealy Gosset ] (1908). pdf «El error probable de una media» . Biometrika 6 (1): 1-25. JSTOR 2331554 . doi :10.1093/biomet/6.1.1 . hdl :10338.dmlcz/143545 .
↑ Walpole, Roland; Myers, Raymond y Ye, Keying (2002). Probability and Statistics for Engineers and Scientists . Pearson Education.
↑ Wendl MC (2016). «La fama del seudónimo». Science 351 (6280): 1406. Bibcode :2016Sci...351.1406W . PMID 27013722 . doi :10.1126/science.351.6280.1406 .
↑ Mortimer RG (2005). Matemáticas para la química física (3rd edición). Burlington, MA: Elsevier. pp. 326 . ISBN 9780080492889 . OCLC 156200058 .
↑ Fisher RA (1925). «Aplicaciones de la distribución 'de Student' » . Metron 5 : 90-104. Archivado desde pdf el original el 5 de marzo de 2016.
↑ Walpole RE, Myers R, Myers S, Ye K (2006). Probability & Statistics for Engineers & Scientists (7th edición). New Delhi: Pearson. p. 237. ISBN 9788177584042 . OCLC 818811849 .
↑ a b c d Jackman, Simon (2009). Bayesian Analysis for the Social Sciences . Wiley. p. 507 .
Enlaces externos