ESTADÍSTICA DESCRIPTIVA Datos sin agrupar media
Datos agrupados n
x
=
∑= x
m: n º clas clases es
m
i
i 1
x
n
∑n c i
i =1
=
ni : n º datos datos por por clase clase
i
ci : marca de clase
n
desviaci ón tí pica pica de la poblaci ón N
∑= ( x − µ )
m
i
σ =
∑ ( c − µ )
2
σ =
i 1
N
2
i
i =1
ni
N
desviaci ón tí pica pica muestral N
s n −1
∑ ( xi i =1
=
N
− x )2 s n
n −1
∑ ( x i i =1
=
m
− x )2 s n−1
n
,
=
∑ ( ci i =1
m
− x ) 2 ni
2
i
=
s n −1
n −1
∑= ( c − x )
ni
i 1
n −1
,
coeficiente de asimetr í a N
C . A. =
∑ ( x i
n
− µ ) 3
i =1
, C . A. =
N σ 3
∑ ( x i
m
− x )3
i =1
C . A. =
( n − 1) s n3−1
∑ (c − x ) i =1
3
i
ni
( n − 1) s n3−1
coeficiente de curtosis N
C . Ap. =
∑ ( x
i
− µ )
n
4
i =1
- 3, C . Ap. =
4
N σ
∑ ( x
i
− x)
m
4
i =1
( n − 1) s
C . Ap. =
-3
4 n −1
∑ (c
i
− x ) 4 ni
i =1
( n − 1) sn4−1
-3
Diagrama de cajas
L. I . = Q1
− 1. 5
Q3
− Q1 2
L . S . = Q3
,
+ 1. 5
Q3
− Q1 2
Transformaciones Transformaciones lineales
y i
= a + bx i
sy
=
b sx
Teorema de Chebyshev Independientemente de la forma de la distribuci ón de frecuencias, o de probabilidad, de un conjunto de datos:
p ( µ − kσ
≤
X
≤ µ + k σ ) ≥ 1 −
1 k 2
Distribuciones Distribuciones bivariantes de frecuencias
f r ( x i , y j ) = distribución conjunta
nij n
,
∑ f i, j
r
( xi , y j ) = 1
f r ( x i ) =
∑f
fr ( y j ) =
( x i , y j ),
r
j
distribuciones marginales
f r ( x i , y j ) f r ( y j )
distribuciones condicionales ........
∑∑ f j
Covarianza
r
( xi , y j )
( x i , y j )( x i
f r ( y j x i ) =
,
f r ( x i , y j ) f r ( x i )
− x )( y j − y )
i
ρ ( X , Y ) =
Cov( X , Y ) s x s y
Coeficiente de correlaci ón
Y
r
i
f r ( x i y j ) = Cov ( X , Y ) =
∑f
= a + bX ,
a = y − bx ,
b=
Cov ( X , Y ) s x2
recta de regresi ón
PROBABILIDAD p( A ) + p ( A ) = 1 p( A ∪ B ) = p( A ) + p ( B ) − p ( A ∩ B ) sucesos incompatibles
p ( A ∪ B ) = p ( A ) + p( B ), p ( A B ) =
p( A ∩ B )
sucesos condicionados sucesos independientes
A∩B=∅
p ( B )
p ( A ∩ B ) = p ( A ) ⋅ p( B )
Teorema de Bayes: Si el espacio muestral lo podemos dividir en n sucesos A i, disjuntos dos a dos, de los que conocemos su probabilidad y la probabilidad condicionada
p ( Ai B ) =
p ( B Ai )
, entonces
p ( B Ai ) p ( Ai ) n
∑= p( B A ) p( A ) j
j
j 1
Fórmulas de combinatoria
V n, k
=
n! ( n − k )!
VRn , m = n m
C n, m
=
n = n!
n!
" n,m
m!( n − m)! n n2 ...
PR n 1
=
n! n1!n 2 !.....
n + m − 1 = C n+ m −1,m = m n1
+ n2 + ...... = n
2
DISTRIBUCIONES DISCRETAS DE PROBABILIDAD
$ X = 1
Distribución de Bernoulli
p x 1− x x = $,1 f ( x) = en otro caso $
si es acierto
E ( X ) = p
Distribución binomial
x = $,1,2,....., n
E ( X ) = np
en otro caso
Distribución de Poisson
x
Var ( X ) = p (1 − p)
X= nº de aciertos
C n, x p x n− x f ( x) = $
e − λ λ x f ( x) = x! $
si es #allo
X= nº de aciertos
= $,1,2,....., n
E ( X ) = Var ( X ) = λ
en otro caso
Distribución hipergeométrica
C k , x C N −k ,n − x f ( x) = C N , n $
X= nº de aciertos
' : nº aciertos po%laci&n n ⋅ k N − n E ( X ) = Var ( X ) = np N N − 1
x = $,1,2,....., n en otro caso
Distribución binomial negativa
X: nº fracasos antes de obtener k éxitos
' * - 1 ' p
p ( x+ k , p ) = E ( X ) =
'(1 - p)
Valor medio de X :
= $,1,2,....., n
Var ( X ) =
p
E ( X ) = µ =
Mediana:
Var ( X ) = np
'(1 - p) p 2
∑ x ⋅ f (x ) x
p ( X ≤ m ) ≤ ½
p ( X ≥ m ) ≥ ½
p ( X ≤ m ) ≥ p ( X > m ) p ( X < m ) ≤ p ( X ≥ m )
[
ar( ) = ( − µ ) Varianza:
2
] = ∑ ( − µ)
2
⋅ # ( )
Propiedades
3
1) E ( aX
+ b ) = aE ( X ) + b
2) 1 , X 2 ,........, X n
a, % constantes /.a. independientes
+ X 2 +........ + X n ) = E ( 1 ) + E ( X 2 ) + ........ + E ( X n ) E ( 1 ⋅ X 2 ⋅........ ⋅ X n ) = E ( 1 ) ⋅ E ( X 2 )⋅........ ⋅E ( X n ) 3 ) Var ( X ) = E ( ) − E ( X ) 4 ) Var ( aX + b ) = a Var ( X ) E ( 1
2
2
2
5 ) 1 , X 2 ,........, X n Var ( 1
/.a. independientes
+ X + ........ + X ) = Var ( ) + Var ( X ) +........ +Var ( X 2
n
Función de distribución
1
2
n
)
! ( X o ) = p ( X ≤ x o )
Función de probabilidad f ( X ) = p ( X
∑ f ( x) = 1
= x)
x
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD f ( x)
Función de probabilidad :
→
∫ f ( x) "x = 1
p (a ≤ X ≤ b) =
1 f ( x) = b - a $
Distribución uniforme
b
∫ f ( x) "x a
a ≤ x ≤ b en o#ro caso (b − a ) 2
a + b
µ =
2
12
σ 2 =
Distribución exponencial
1 −β x γ ( β ) → f ( x ) = β e $ E ( X ) = β 2
Distribución normal
N ( µ , σ )
E ( X ) = µ
→ f ( x) =
x
>$
β > $
0$ 2 Var ( X ) = β
1
σ 2π
−1
e
2σ 2
( x − µ ) 2
∀ x ∈ R
Var ( X ) = σ 2
Teorema del lí mite central
4
1 , X 2 ,........, X n es una muestra aleatoria de una poblaci ón cualquiera, y,
Si
n 2 ∑ X i ≈ N (n µ , nσ ) i =1 σ 2 2 E ( X i ) = µ Var ( X i ) = σ ⇒ X ≈ N ( µ , ) n n ( X − µ ) ≈ N ($,1) σ Distribución chi-cuadrado n − x −1 1 2 x e 2 n 2 χ n → f ( x) = 2 2 Γ ( n ) 2 $
x > $
E ( X ) = n Var ( X ) = 2n
0$
1 , X 2 ,........, X n son v.a. que siguen una distribuci ón normal tipificada 2 2 2 2 N(0,1), entonces X1 + X 2 * ........ + X n es una distribuci ón χ n , con n grados de libertad. Si
Si 1 , X 2 ,........, X n son una muestra aleatoria cuya media es x , entonces n
∑ ( x
− x )2
i
i =1
σ 2
2
sigue una una distribuci ón χ n−1 , con (n-1) grados de libertad
. Distribución t de Student Si X e Y son v.a. independientes, donde X sigue una dist. normal N(0, 1), e Y # =
X Y
2 n
n sigue una distribuci ón t de Student con n grados de una χ , entonces, la v.a. libertad Si 1 , X 2 ,........, X n son una muestra aleatoria de una poblaci ón x − µ
normal # n −1
( µ , σ 2 ) , entonces la variable
s n −1
n −1
sigue una una distribuci ón
, con (n-1) grados de libertad.
Función de distribución:
! ( x ) = p ( X
≤ x)
5
DISTRIBUCIONES MULTIVARIANTES
f ( x , y ) = p ( X
Función de probabilidad
= x,Y = y)
∑ # (, ) = 1
∫ # (, )dd = 1
,
Función de distribución
! ( x , y ) = p ( X
≤ x,Y ≤ y)
f (x, y) =
∂ 2 ! ( x , y ) ∂ x∂ y
Distribuciones marginales
#1 () =
∑ # (, )
#1 ( ) = # ( , ) d
∑ # (, )
# 2 ( ) = # ( , ) d
∫
# 2 ( ) =
∫
Distribuciones condicionadas
p ( X
= x Y = y) =
$1 ( x y ) =
= x,Y = y) p ( Y = y )
p( X
f ( x, y)
p ( Y
= y X = x) =
$ 2 ( y x ) =
f 2 ( y )
f ( x, y) f1 ( x )
f ( x , y ) = f1 ( x ) f 2 ( y )
Variables aleatorias independientes
[
o/( , ) = ( − µ ) ( − µ )
Covarianza
ρ ( X , Y ) = Correlación
= x,Y = y) p ( X = x )
p( X
] = ( ) − ( ) ( )
Cov ( X , Y )
σ x σ y
Propiedades:
Var ( X + Y ) = Var ( X ) + Var (Y ) + 2Cov ( X , Y ) Var ( aX + bY
+ c ) = a 2 Var ( X ) + b 2 Var (Y ) + 2 abCov ( X , Y )
ESTIMACION
6
θ es insesgado si:
E (θ ) = θ
Función de verosimilitud
L ( x 1 ........ x n θ )
=
f ( x 1 θ )............ f ( x n θ )
Intervalos de confianza:
para la media de una poblaci ón cualquiera (
2 σ
conocida)
σ σ µ ∈ − , + nα nα para la media de una poblaci ón normal (
2 σ
conocida)
σ σ , + 5 α µ ∈ − 5 α 1− 1− n n 2 2 para la media de una poblaci ón normal (
µ ∈ ( − t α 1− 2 para la media de una poblaci ón normal (
µ ∈ − 5 α 1− 2
2 σ
desconocida, n<30)
6 n −1
,(
n 2 σ
1−
α
6 n −1 n
2
desconocida, n ≥ 30 )
6 n −1 n
+t
,
para la varianza de una población normal (µ y
+5
2 σ
1−
α 2
6 n −1 n
desconocidas)
( n − 1)s 2n −1 ( n − 1)s n2 −1 σ ∈ , % a 2
siendo a y b constantes dependientes de la distribuci ón Ji-cuadrado.
7