[Vuelve a INICIO] [Va a Test de Hipótesis I] [Va a Test de Hipótesis II]

Curso:
Inferencia Estadística Básica
para Ingenieros Agrónomos

PARTE 1
ESTIMACIÓN DE PARÁMETROS

Índice: Ejemplos:
            - Insesgabilidad
            - Eficiencia
            - Consistencia
            - Suficiencia

            - Caso 1: Con desvío estándar conocido

            - Caso 2: Con desvío estándar desconocido

  • Intervalo de confianza para la Diferencia de Medias:

           - Caso 1: Poblaciones Normales con desvíos conocidos

           - Caso 2: Poblaciones Normales con desvíos desconocidos

Ejemplo 1: Intervalo de confianza para la Media Poblacional con desvío conocido
Ejemplo 2: Intervalo de confianza para la Media Poblacional con desvío desconocido
Ejemplo 3: Intervalo de confianza para la diferencia de Medias de poblaciones normales con desvíos conocidos
Ejemplo 4: Intervalo de confianza para la diferencia de Medias de poblaciones normales con desvíos desconocidos
Ejemplo 5: Intervalo de confianza para la variancia poblacional
Actividades complementarias:
Trabajo práctico
Autoevaluación
Evaluación

INTRODUCCIÓN

El objetivo más importante de la Estadística es obtener una inferencia con respecto a la población basándose en la información contenida en una muestra. Como las poblaciones se describen mediante medidas numéricas denominadas parámetros, el objetivo de la mayoría de las invrestigaciones estadísticas es deducir una inferencia con respecto a uno o más parámetros de la población.

Se han estudiado, hasta el momento, las nociones fundamentales de distribución de probabilidades; se está en condiciones, entonces, de tratar los métodos de inferencia estadística, los cuales comprenden los procedimientos para estimar parámetros de poblaciones y probar (contrastar) si una afirmación provisional sobre un parámetro poblacional se ve apoyada o desaprobada ante la evidencia de la muestra.

Hablando en general, hay dos tipos de inferencia: la deductiva y la inductiva. Una inferencia deductiva es un juicio o generalización que se basa en un razonamiento o proceso dialéctico a priori. Por ejemplo, se supone que dos monedas están perfectamente equilibradas y que entonces la probabilidad de cada una de caer "cara" es = 0,5 (premisa). La media o número esperado de "caras" en la jugada de las monedas deber ser 1 (conclusión). Si las premisas son ciertas, las conclusiones no pueden ser falsas.

Una inferencia inductiva , por otra parte, es un juicio o generalización derivado de observaciones empíricas o experimentales; la conclusión sobre el número promedio de "caras" con base en los resultados de una muestra de prueba. Si los resultados de las pruebas son diferentes, la conclusión también será diferente. No se requiere una suposición a priori sobre la naturaleza de las monedas. La inferencia estadística es primordialmente de naturaleza inductiva y llega a generalizaciones respecto de las características de una población al valerse de observaciones empíricas de la muestra.

Es muy probable que una estadística muestral sea diferente del parámetro de la población y sólo por coincidencia sería el uno exactamente igual al otro. La diferencia entre el valor de una estadística muestral y el correspondiente parámetro de la población se suele llamar error de estimación. Sólo se sabría cuál es el error si se conociera el parámetro poblacional, pero éste por lo general se desconoce. La única manera de tener alguna certeza al respecto es hacer todas las observaciones posibles del total de la población en la mayoría de las aplicaciones prácticas, lo cual, desde luego, es imposible o impracticable.

Y en efecto, la razón de ser de la inferencia estadística es la falta de conocimientos acerca de las características de la población. Pero que tales características se desconozcan no impide el que se actúe.

Las inferencias estadísticas se hacen por posibilidades o probabilidades. De la media de la muestra se hacen inferencias sobre la media de la población. No se sabe exactamente cuál es la diferencia entre estas dos medias, ya que la última es desconocida en la mayoría de los casos. No obstante, si se sabe que es más bien poca la probabilidad de que esta diferencia sea mayor que, por ejemplo, tres a aún dos errores estándares.

Los problemas que se tratan en la inferencia estadística se dividen generalmente en dos clases: los problemas de estimación y los de prueba de hipótesis. Como al estimar un parámetro poblacional desconocido se suele hacer una afirmación o juicio este último ofrece solamente una estimación. Es un valor particular obtenido de observaciones de la muestra. No hay que confundir este concepto con el de estimador, que se refiere a la regla o método de estimar un parámetro poblacional. Por ejemplo, se dice que X es un estimador de m porque la media muestral proporciona un método para estimar la media de la población. Un estimador es por naturaleza una estadística y como tal tiene una distribución. El procedimiento mediante el cual se llega a la obtención y se analizan los estimadores se llama estimación estadística, que a su vez se divide en estimación puntual y estimación por intervalos.

[Vuelve al índice]

ESTIMACION: GENERALIDADES

El uso principal de la inferencia estadística en la investigación empírica, es lograr conocimiento de una gran clase de unidades estadísticas (seres humanos, plantas, parcelas de tierra), de un número relativamente pequeño de los mismos elementos.

Los métodos de inferencia estadística emplean el razonamiento inductivo, razonamiento de lo particular a lo general y de lo observado a lo no observado.

Cualquier colección o agregación grande de cosas que deseamos estudiar o de las cuales deseamos hacer inferencias, se llama población. El término población tiene más significado cuando se lo junta con la definición de muestra de una población: una muestra es una parte o subconjunto de una población.

Una muestra de n elementos de la población de N elementos, debería ser seleccionada de forma tal que las características de la población puedan ser estimados con un margen de error conocido.

Los valores de varias medidas descriptivas calculadas para las poblaciones, se llaman parámetros. Para las muestras, estas mismas medidas descriptivas se llaman estadísticas.

Un parámetro describe una población de la misma manera que una estadística describe a una muestra.

Es costumbre simbolizar las estadísticas con letras romanas y los parámetros con letras griegas.

 

Estadística

Parámetro

Media aritmética

m

Variancia

s 2

Desvío estándar

S

s

Coeficiente de correlación

R

r

Una estadística calculada a partir de una muestra es un estimador del parámetro en la población. Una estimación es alguna función de los resultados de una muestra que produce un valor, llamado estimador.

El estimador da alguna información respecto al parámetro. Por ejemplo, la media de la muestra, , es un estimador de la media m en la población.

Las poblaciones pueden ser infinitas o finitas.

Para la mayoría de los propósitos de investigación, se supone que las poblaciones son infinitas, no finitas, en tamaño, las cuales son algo artificial o imaginario.

Una población finita puede ser extremadamente grande. Es posible concebir un proceso de conteo de los elementos de la población, el cual puede ser computado; luego la población es técnicamente finita. Afortunadamente no es necesario crear problemas en cuanto a la distinción entre poblaciones infinitas y finitas.

El método usado para seleccionar la muestra es muy importante al juzgar la validez de la inferencia que se hace de la nuestra a la población.

Para que una muestra sirva adecuadamente como base para obtener estimadores de parámetros poblacionales, debe ser representativa de la población.

El muestreo al azar de una población producirá muestras que "a la larga" son representativas de la población.

Si una muestra se extrae aleatoriamente, es representativa de la población en todos los aspectos, esto es, la estadística diferirá del parámetro solo por azar. La habilidad para estimar el grado de error debido al azar (error de muestreo), es un rasgo importante de una muestra al azar.

[Vuelve al índice]

ESTIMACIÓN DE PARÁMETROS

La teoría clásica de la Inferencia Estadística trata de los métodos por los cuales se selecciona una muestra de una población y, basándose en las pruebas de las muestras, se trata de:

* Estimar el valor de un parámetro desconocido, por ejemplo q .

* Verificar si q es o no igual a cierto valor predeterminado, por ejemplo q 0.

El primero de estos dos procedimientos, de inferir de una muestra a una población, se llama estimación de un parámetro; el segundo, prueba de una hipótesis acerca de un parámetro.

Dentro del primer procedimiento, la estimación de un parámetro puede tener por resultado un solo punto (estimación puntual), o un intervalo dentro del cual exista cierta probabilidad de encontrarlo (estimación por intervalos).

Un estimador puntual es un único punto o valor, el cual se considera va a estimar a un parámetro. La expresión E() = m sugiere que el único valor de es un estimador puntual insesgado o no viciado de m .

Un estimador por intervalo se construye sobre el concepto de un estimador puntual, pero además, proporciona algún grado de exactitud del estimador. Como el término lo sugiere, un estimador por intervalo es un rango o banda dentro de la cual el parámetro se supone va a caer.

[Vuelve al índice]

PROPIEDADES DE UN BUEN ESTIMADOR

Para poder utilizar la información que se tenga de la mejor manera posible, se necesita identificar las estadísticas que sean buenos estimadores, cuyas propiedades son:

Insesgabilidad: , estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.

En símbolos: es insesgado

O sea que es de esperar que si se toman muchas muestras de igual tamaño partiendo de la misma distribución y si de cada una se obtiene un valor , la media de todos los valores de ha de estar muy cerca de .

Por ejemplo:

* La media muestral es un estimador insesgado de la media poblacional, o sea que E() = m

* La variancia muestral, ¿es un estimador insesgado de la variancia poblacional?

La respuesta depende de como se defina la variancia muestral.

Si , entonces S² es un estimador sesgado de s ² pues . Mas aún, . Pero el sesgo se puede corregir alterando la definición de variancia muestral.

En efecto, si es la variancia muestral corregida, entonces ( y S² es un estimador insesgado de s ².

[Vuelve al índice]

Eficiencia: si se utilizan dos estadísticos como estimadores del mismo parámetro, entonces aquel cuya distribución muestral tenga menor variancia, es un estimador más eficiente o más eficaz que el otro. Es decir: es eficiente mínima.

Luego, si tenemos dos estimadores y de un mismo parámetro , procedemos como sigue para hallar el más eficiente entre ellos.

Se halla la razón

Si K > 1, es más eficiente que y usaremos .

Si K < 1, es más eficiente que y usaremos .

Si K = 1, y son igualmente eficientes y se puede utilizar cualquiera de los dos indistintamente.

Supongamos que una variable aleatoria X tiene una distribución simétrica. Por lo tanto la media aritmética y la mediana son iguales. Si se toma una muestra de esta distribución, ¿qué estadístico muestral, o , debería utilizarse para estimar la media de la población m ?

La respuesta depende de cuál es el estimador más eficaz. Ambos son insesgados, pero la variancia de es menor que la de , es decir que . Por lo tanto la media muestral es un estimador más eficaz que la mediana muestral.

[Vuelve al índice]

Consistencia: Si es un estimador muestral calculado a partir de una muestra de tamaño n y si es el parámetro de población que se va a estimar, entonces es un estimador consistente de si la probabilidad de que el valor absoluto de la diferencia entre y su esperanza iguale o supere a e (error admitido que tiende a cero, o sea que es tan pequeño como se quiera), tienda a cero cuando el número de elementos de la muestra tienda a infinito. En símbolos:

si n ® ¥

O equivalentemente: si n ® ¥

Es decir, para que el estimador sea consistente, es necesario que la probabilidad de que esté a menos de cierta distancia "e" del parámetro q , tienda a 1 al tender n a infinito.

Por ejemplo, se sabe que la media muestral y la variancia son estimadores consistentes ya que tienden a acercarse a los correspondientes valores de la población a medida que aumenta el tamaño de la muestra, pero un estadístico muestral puede ser un estimador sin consistencia. Por ejemplo, si el valor de la primera observación o la media entre la primera y última observación de una muestra se utilizaran para estimar la esperanza de la población, tal estimador no sería consistente pues no tiende a acercarse más y más al valor de la población cuando se aumenta el tamaño de la muestra.

[Vuelve al índice]

Suficiencia: Un estimador suficiente del parámetro q es aquel que agota toda la información pertinente sobre q que se puede disponer en la muestra. Por ejemplo, si se toma una muestra de n = 30 valores con el fin de estimar m , pueden utilizarse como estimadores la primera, la décimo quinta o la última observación, o el promedio entre la primera y la quinta observación. Pero estos estimadores no son suficientes pues no contienen toda la información disponible de la muestra. La media aritmética calculada con las 30 observaciones sí lo es pues tiene en cuenta todas las observaciones.

En definitiva, por ejemplo la media aritmética muestral y la forma corregida de la variancia muestral, son estadísticas que satisfacen los criterios o propiedades de "buenos" estimadores.

[Vuelve al índice]

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

Lo dicho hasta ahora se refiere a una estimación puntual, es decir, estimar un parámetro a través de un único valor. Esta estimación no es muy conveniente pues con ella no se puede determinar el error de muestreo, ni la precisión de la estimación, ni la confianza que merece tal estimación.

Existen otros métodos para estimar parámetros poblacionales que son mucho más precisos. Por ejemplo:

* Método de los mínimos cuadrados: se verá en Teoría de la Regresión.

* Método de los momentos: no se desarrollará.

* Método de la máxima verosimilitud: que se basa en el principio de que generalmente ocurre lo más probable (no se desarrollará)

* Método de estimación por intervalos de confianza: que se desarrolla a continuación.

El procedimiento de determinar un intervalo (a, b) que comprenda un parámetro de población q con cierta probabilidad 1 - a , se llama estimación por intervalos. Se verán los casos paramétricos, es decir aquellos en los que se tiene conocimiento del tipo de distribución de la población (Binomial, Poisson, Normal, etc.)

En general, para cualquier parámetro q y su correspondiente estimador 1, el intervalo de confianza será:

Donde:

es el límite inferior del intervalo de confianza.

es el límite superior del intervalo de confianza.

k es una constante no negativa. Es el llamado multiplicador correspondiente a 1 - a .

a es la probabilidad de que el intervalo no incluya al verdadero valor del parámetro.

1 - a es el nivel de confianza, es una medida de la fiabilidad de la estimación. Por ejemplo, si se toma a = 10%, entonces 1 - a = 90% y se dice que se tiene un intervalo de confianza del 90% y que la probabilidad de que el intervalo contenga al verdadero valor del parámetro es del 90%. Es decir, que si repetidamente se muestra y se construye tal intervalo una y otra vez, 90 de cada 100 de estos intervalos, contendrá al parámetro y 10 de ellos no.

Se puede pensar que 1 significa certeza, seguridad y a significa riesgo. La seguridad menos el riesgo, es decir 1 - a da, por lo tanto, el coeficiente de confianza de nuestras afirmaciones.

En el caso anterior, se tiene una confianza de que 90 de cada 100 intervalos que se extraigan como muestra, contendrán el verdadero valor del parámetro. Pero una vez determinado el intervalo, es decir, una vez calculados numéricamente los extremos, ya no debe hablarse en términos de confiabilidad ni en términos probabilísticos, pues la situación pasa a ser completamente determinística. De tal manera, asociado a un intervalo de confianza ya calculado, se tiene una probabilidad 0 ó 1 de que contenga al parámetro a estimar y no hay otra opción, ya que lo contiene o no lo contiene.

Resumiendo, los extremos del intervalo son variables aleatorias, mientras que el parámetro a determinar es constante.

En general, los pasos a seguir para estimar un parámetro por el método de los intervalos de confianza, son:

* Fijar el coeficiente de confianza que se desea en la estimación.

* Extraer la muestra y calcular el o los estadísticos necesarios.

* Determinar la distribución en el muestreo que tiene el estadístico empleado.

[Vuelve al índice]

INTERVALO DE CONFIANZA PARA LA MEDIA POBLACIONAL m

CASO 1) Con s conocido:

Sea donde m es desconocido y s conocido.

Sea x1, x2, ... , xn una muestra aleatoria de la variable aleatoria X y sea la media muestral.

Se sabe que independientemente del valor de n, por el teorema central del límite.

Luego, tipificando:

Se plantea: entonces:

Observaciones:

- Si las muestras se toman sin reposición de una población finita de tamaño N, debe emplearse el factor de corrección por finitud y el intervalo será:

- Si la población es sólo aproximadamente normal, la igualdad sigue siendo válida en forma aproximada.

[Vuelve al índice]

Ejemplo 1: Un grupo de investigadores en Medicina desea estimar el cambio medio de presión sanguínea por paciente en un sanatorio. Se ha seleccionado una muestra al azar de 30 pacientes y se halló que puls/seg. Los investigadores saben que la desviación estándar de los cambios de presión sanguínea para todos los pacientes es s = 3 puls/seg según estudios anteriores. Ellos desean estimar el cambio medio de la presión sanguínea por paciente con un intervalo del 95% de confianza, suponiendo que la variable aleatoria "cambios de presión sanguínea" tiene asociada una distribución normal de probabilidad.

Respuesta:

X = cambio en la presión sanguínea por paciente del sanatorio (en pulsaciones por segundo)

n = 30 s = 3 1 - a = 0.95

Por tabla: Entonces:

Límite inferior (LI) =

Límite superior (LS) =

Por lo tanto resulta el Intervalo del 95% de confianza para la media:

ICM0,95 = (3,9 ; 6,1)

Luego, puede decirse que el cambio medio en la presión sanguínea por paciente, pertenece al intervalo (3,9 ; 6,1) pulsaciones, con un nivel de confianza del 95%.

Observación: Nótese que se cae en un abuso de lenguaje pues se debería decir que el intervalo (3,9 ; 6,1) pulsaciones pertenece a la sucesión que ofrece un nivel de confianza del 95% para estimar el cambio medio de presión sanguínea, pero se simplifica la expresión para hacerla menos engorrosa o extensa.

En cuanto al tamaño óptimo de muestra, = e determina el error máximo admitido de muestreo e indica la precisión de la estimación. Lógicamente se pretende que sea lo más pequeño posible. Por otra parte, (1 - a ) es el coeficiente de confianza y se pretende que sea lo más grande posible. Pero depende del valor de a y al hacer mayor el coeficiente de confianza (1 - a ), el valor será mayor y por lo tanto el error aumentará. Esto se puede regular aumentando el tamaño de la muestra con lo que el error disminuirá.

Para el ejemplo 1, con un nivel de confianza del 95%.

Si se desea elevar el nivel de confianza a 99%, pero sin aumentar el error e de estimación, el tamaño de la muestra debería ser:

O sea que debe tomarse una muestra de aproximadamente 52 pacientes en lugar de 30.

Por el contrario, si el investigador deseara un error de estimación menor, por ejemplo 1 puls/seg, manteniendo el nivel de confianza en 95%, el tamaño de la muestra requerido será:

pacientes.

[Vuelve al índice]

CASO 2) Con s desconocido

Para estimar s se debe utilizar el desvío estándar muestral corregido.

, ya que según se ha visto, es un estimador insesgado del correspondiente parámetro poblacional s . Reemplazando en la variable tipificada por resulta:

Por lo tanto:

= 1-a

[Vuelve al índice]

Ejemplo 2: Una muestra de 15 aves tomadas al azar en un establecimiento con 5000 aves, (que elabora alimentos balanceados), permitió establecer un aumento de peso promedio de 90 g por semana y por ave, y un desvío típico de 10 g. Se busca estimar el incremento de peso promedio para las 5000 aves del establecimiento con un intervalo de confianza del 90%.

Respuesta:

X = aumento de peso por ave

n = 15 = 90 g S = 10 g ¿ICM0,90?

Por tabla:

y el intervalo resulta:

Interpretando este resultado, se dice que el aumento de peso por ave por semana en el establecimiento está entre 85,5 y 94,6 gramos, con un 90% de confianza.

[Vuelve al índice]

INTERVALO DE CONFIANZA PARA LA DIFERENCIA DE MEDIAS

CASO 1: Poblaciones normales y con y conocidos.

Se fija el nivel de confianza (1 - a ), se extraen dos muestras independientes de X1 y X2 de tamaño n. Ya se ha visto que:

y el estadístico tipificado tiene la siguiente distribución: (1)

Además, (2)

Reemplazando en (2), a Z por la expresión (1), se obtiene:

Donde:

[Vuelve al índice]

Ejemplo 3: Al determinar la superficie en miles de hectáreas de las explotaciones agrícolo-ganaderas de cierta zona, una muestra de 40 explotaciones dio una superficie media de 900 ha, con una desviación típica de 300 ha. En otra zona, al muestrear también 40 explotaciones, la superficie media fue de 600 ha con una desviación típica de 150 ha. Suponiendo que en ambas zonas la variable "superficie en ha por explotación" se distribuye normalmente, estimar por un intervalo de confianza del 90%, la diferencia entre las superficies medias de las explotaciones de ambas zonas.

Respuesta:

X1 = superficie de cada explotación agrop. de la primera zona

X2 = superficie de cada explotación agrop. de la segunda zona

, n = 40 ¿ICDM0,90?

Por tabla: Luego:

=

= 300 ± 87,24 = (212,76 ; 387,24) = (212,8 ; 387,2)

Interpretando este resultado, se dice que la diferencia entre las superficies medias de las explotaciones agrícolo-ganaderas de ambas zonas, se encuentra entre 212,8 y 387,2 ha, con un 90% de confianza.

Observación: En la fórmula también puede utilizarse y en ese caso debe considerarse en lugar de

[Vuelve al índice]

CASO 2: Poblaciones normales y con y desconocidos

Se extraen dos muestras independientes (una de cada población) de tamaños n1 y n2 respectivamente, se fija (1 - a ), se calculan y su diferencia.

a) Si s 1 y s 2 son desconocidos pero estadísticamente pueden considerares iguales (s 1 = s 2), se estiman por y se procede como en el caso 1. (Sa es la variancia amalgamada o mancomunada)

b) Si s 1 y s 2 son desconocidos pero estadísticamente no pueden considerarse iguales (s 1 ¹ s 2),

Se fija (1 - ±), se extraen dos muestras independientes, se calcula y la distribución en el muestreo del estadístico de prueba, ya tipificado, es:

~ td

donde el número de grados de libertad de la distribución t de Student viene dado por la fórmula:

De manera análoga al primer caso, se deduce que:

[Vuelve al índice]

Ejemplo 4: Las variables aleatorias X1 y X2 distribuidas normalmente, representan las edades al morir de tuberculosis de los individuos en dos ciudades. Una muestra de 10 individuos que murieron por tal enfermedad en la primera ciudad dio una edad media de 48 años y una desviación típica de 5 años. En la segunda ciudad, una muestra de 12 individuos dio una edad media de 41 años y una desviación típica de 3 años. Se desea estimar por intervalos con un 95% de confianza, la diferencia entre las edades medias de los muertos por tuberculosis en ambas ciudades, sabiendo que investigaciones anteriores no permiten tomar las desviaciones típicas de ambas variables como iguales.

X1 = edad al morir de tuberculosis en la ciudad A.

X2 = edad al morir de tuberculosis en la ciudad B.

n1 = 10, , S1 = 5

n2 = 12, , S2 = 3, s 1 ¹ s 2 ¿ICDM0,95?

Respuesta:(corresponde al item b) del caso 2)

Con estos datos, reemplazamos en la fórmula para calcular los grados de libertad:

grados de libertad.

Luego, por tabla, t0,05; 15 = 2,1315 y finalmente el intervalo resulta:

ICDM0,95 =

= 7 ± 3,843 = (3,157 ; 10,843) @ (3 ; 11)

Interpretando el resultado se puede decir que la diferencia entre las edades medias de las personas que murieron de tuberculosis en ambas ciudades, se encuentra entre 3 y 11 años, con una confianza del 95%.

[Vuelve al índice]

INTERVALO DE CONFIANZA PARA LA VARIANCIA POBLACIONAL

Suponemos: Población normal X ~ N(m , s )

Se fija (1 - ±) y el estadístico tipificado de prueba tiene una distribución muestral:

(1) donde Ã2 es la variancia poblacional.

Además: (2)

Reemplazando (1) en (2) resulta:

Invirtiendo fracciones:

Multiplicando miembro a miembro por (n - 1) .S2 para despejar Ã2, se obtiene:

Invirtiendo la desigualdad:

[Vuelve al índice]

Ejemplo 5: Un productor de fertilizantes, para controlar el buen embolsado de sus productos, pesa 15 bolsas del mismo, obteniendo una desviación típica de 0,50 kg. ¿Qué varianza puede inferirse con un 98% de confianza que tendrá la producción total?

Respuesta:

X = peso de cada bolsa de fertilizante

n = 15 S = 0,50 kg. ¿ICV0,98?

Por tabla:

Luego, el intervalo buscado es:

Se interpreta este resultado diciendo que existe un 98% de confianza de que la variancia del peso por bolsa en toda la producción de bolsas de fertilizantes de ese productor esté entre 0,12 y 0,75

Observaciones:

1) Del intervalo de confianza visto para la variancia, se deduce el correspondiente para el desvío típico:

Para el ejemplo 5:

2) Si n > 100 , los valores ya no se encuentran en la tabla de la distribución Chi cuadrado, y por lo tanto se la aproxima a una normal,

utilizando para aproximar percentiles en esta distribución:

Y el intervalo buscado es:

[Vuelve al índice]

[Vuelve a INICIO] [Va a Test de Hipótesis I] [Va a Test de Hipótesis II]