Estadística


Contraste de hipótesis


Introducción teórica

Llamaremos hipótesis estadística a una afirmación respecto a una característica de una población. Contrastar una hipótesis es comparar las predicciones que se deducen de ella con la realidad que observamos: si hay coincidencia, dentro del margen de error admisible, mantendremos la hipótesis; en caso contrario, la rechazaremos. Rechazar una hipótesis implica sustituirla por otra capaz de explicar los datos observados.

Las siguientes afirmaciones son hipótesis estadísticas:

  • El tabaco produce cáncer de pulmón.

  • Disminuir los impuestos disminuye el fraude fiscal.

  • Las mujeres son más apasionadas que los hombres.

  • Estas tres hipótesis no se refieren a individuos particulares, sino al conjunto de elementos de una o varias poblaciones. En estos ejemplos vemos que el contraste de hipótesis requiere, como pasos previos:

  • Especificar la población de interés

  • Definir la variable a que nos referimos y como medirla.

  • Relacionar la hipótesis con los parámetros de la o las poblaciones.

  • Tipo de hipótesis

    Las hipótesis estadísticas más habituales pueden clasificarse en dos grupos, según que:

  • Especifiquen un valor concreto o un intervalo para un parámetro de la distribución de una variable.

  • Establezcan la igualdad de algún parámetro en las distribuciones de una variable en dos o más poblaciones.

  • Un ejemplo del primer tipo es establecer que el tiempo medio diario invertido en desplazamiento por los estudiantes de una universidad es de 45 minutos. Del segundo, que el tiempo medio invertido es el mismo para los estudiantes de mañana y de la tarde.

    Aunque la metodología para realizar el contraste es análoga en ambos casos, es importante distinguir entre ellos porque:

  • El contraste de una hipótesis respecto a un parámetro está muy relacionado con la construcción de intervalos de confianza, y tiene frecuentemente una respuesta satisfactoria en términos de estimación.

  • La comparación dedos o más poblaciones requiere en general un diseño experimental que asegure la homogeneidad de las comparaciones.

  • Hipótesis nula y alternativa

    Llamaremos hipótesis nula, y la representaremos por H0, a la hipótesis que se desea contrastar. La hipótesis nula es en general una hipótesis simple que permite hacer

    predicciones sin ambigüedad.

    El nombre de nula proviene de que H0 representa la hipótesis que mantendremos a no ser que los datos indiquen su falsedad. “Nula” debe entenderse en el sentido de “neutra “. La hipótesis H0 nunca se considera probada, aunque puede ser rechazada por los datos. Por ejemplo, la hipótesis de que todos los elementos de una población tienen el mismo valor de una variable puede ser rechazada encontrando un elemento que no lo contenga, pero no puede ser “demostrada” más que estudiando todos los elementos de la población, tarea que puede ser imposible.

    De igual manera, la hipótesis de que la media de una población es diez puede ser rechazada fácilmente si la media verdadera está muy lejos de diez analizando una muestra suficientemente grande. Sin embargo, no puede ser “demostrada” mediante muestreo, ya que es posible que la media difiera de diez en un valor pequeño imperceptible en el muestreo). Por esta razón no afirmamos que aceptamos H0, sino que no podemos rechazarla.

    La hipótesis H0 se elige normalmente de acuerdo con el principio de simplicidad científica. Este principio establece que solamente debemos abandonar un modelo simple a favor de otro más complejo cuando la evidencia a favor de este último sea fuerte.

    Si rechazamos H0, estamos implícitamente aceptando la hipótesis alternativa, Ha, que puede ser simplemente la negación de Ha. En algunos casos queremos decidir entre dos hipótesis simples y Ha está perfectamente determinada. Sin embargo, el caso más frecuente es que H0 sea simple, del tipo y Ha se tome de una de las siguientes formas:

    • Desconocemos antes de realizar el contraste en que dirección puede ser falsa H0. Entonces Ha es simplemente la negación de. Decimos entonces que el contraste es bilateral.

    • Conocemos la dirección en que H0 puede ser falsa. Es decir, si H0 es falsa, en ese caso forzosamente (o bien). Por ejemplo, se introduce una medida en una población que, si tiene efectos, puede mejorar una variable pero es imposible que pueda empeorarla. Tenemos entonces un contraste unilateral.

    Estadístico de la prueba

    Los datos se deben sintetiza en un estadística de la prueba. Dicho estadístico se calcula para ver si es razonablemente compatible con la hipótesis nula. Cuando se prueba una proporción el estadístico de la prueba es muy simple: se cuenta el número de éxitos en la muestra para encontrar el estadístico.

    En las pruebas de hipótesis es necesario trazar una línea entre los valores del estadístico de la prueba que son relativamente probables dada la hipótesis nula y los valores que no lo son. ¿En qué valor del estadístico de la prueba comenzamos a decir que los datos apoyan a la hipótesis alternativa? Para contestar a esta pregunta se requiere conocer la distribución muestral del estadístico de la prueba. Los valores del estadístico de la prueba que son sumamente improbables bajo la hipótesis nula (tal como los determina la distribución muestral) forman una región de rechazo para la prueba estadística.

    Región de rechazo

    Llamaremos región de rechazo C asociada al contraste de hipótesis, al conjunto de valores muestrales bajo los cuales se rechaza la hipótesis nula.

    Fijada la región de rechazo automáticamente se tiene la regla de decisión. Si nuestra muestra pertenece a la región de rechazo rechazamos H0 y si no, la aceptamos.

    Precisamente el objetivo de la teoría de los contrastes o test de hipótesis es determinar para cada contraste cúal es la región de rechazo óptima en base a criterios que se especificarán.

    Nivel de significación

    Para realizar un contraste de hipótesis se define normalmente una medida de discrepancia, entre los datos muestrales y la hipótesis nula H0. Intuitivamente la discrepancia debe depender de la diferencia entre el valor del parámetro especificado por H0 y el valor del estimador calculado en la muestra. Para obtener una medida de discrepancia que no dependa de las unidades de medida de la variable podemos dividir esta diferencia por su valor promedio, que es el error típico de estimación del parámetro. Por tanto, la medida de discrepancia más habitual es:

    Hay que decidir que discrepancias consideramos inadmisibles bajo H0, es decir, cual es la máxima diferencia entre el estimador y el parámetro que estamos dispuestos a considerar compatible con H0. Esta decisión depende de:

    • La distribución de la medida de discrepancia cuando es cierta H0. Como veremos, la medida de discrepancia tiene generalmente una distribución normal, de media cero y desviación típica uno, cuando H0 es cierta.

    • Que el contraste sea unilateral o bilateral. Para contrastes unilaterales interesan las discrepancias en una dirección, mientras que para los bilaterales interesan en ambas.

    Una vez decidido que tipo de discrepancias llevan a rechazar H0, (que dependerá sólo de si el contraste es unilateral o bilateral) hay que determinar cual es la discrepancia máxima admisible, lo que dependerá de la distribución de la medida de discrepancia cuando es cierta H0.

    Llamaremos p-valor del contraste, a la probabilidad de obtener una discrepancia mayor que la observada. Rechazaremos H0 cuando el p-valor sea pequeño (menor de 0,05 o 0,01)

    Contraste de hipótesis

    Supongamos que estamos en un contexto paramétrico. Es decir, x1 , x2 ...... xn es un muestreo aleatorio simple de f siendo un parámetro desconocido. Llamaremos al espacio paramétrico, es decir, el conjunto de los valores posibles para. En los contrastes de hipótesis, lo que interesa es determinar si podemos admitir queo debemos admitir quedondey constituyen una partición de. Ambas hipótesis se tratan de forma diferente. A la primera se le conoce como hipótesis nula. A la segundacomo hipótesis alternativa. Se suele simbolizar:

    La hipótesis nula no se considera probada pero es la que mantendremos a menos que los datos evidencien lo contrario. Luego el problema en general es si admitimos o no H0.

    Hipótesis simples y compuestas

    Llamaremos hipótesis simples a aquellas que especifican un único valor para el parámetro (por ejemplo m=m0).

    Llamaremos hipótesis compuestas a las que especifican un intervalo de valores (por ejemplo: m>m0 ; a< m <b)

    Se ha definido un contraste de hipótesis como:

    donde (espacio paramétrico) y

    Diremos que la hipótesis Hi es simple sicontiene un único punto, y diremos que la hipótesis Hi es compuesta si contiene más de un valor.

    En particular, sientonces el tamaño del contraste es igual a

    Entonces si un contraste tiene hipótesis nula simple, el tamaño del contraste es el valor de la función de potencia en, y por tanto la probabilidad de rechazar la hipótesis nula si es cierta será.

    Contrastes de hipótesis simples

    Diremos que un contraste es de hipótesis simple cuando las hipótesis nula y alternativa son de la forma,

    En este caso. La función de potencia sólo tiene los valores y

    Asociada a un contraste de hipótesis simples existen 2 tipos de error:

  • rechazar H0 cuando es cierta. (Error de Tipo I)

  • aceptar H0 cuando en realidad es falsa (Error de Tipo II)

  • Sies un contraste para frente a basada en una región crítica C, los dos tipos de errores tienen las siguientes probabilidades

    (Probabilidad de error del tipo I)

    (Probabilidad de error del tipo II)

    El objetivo obvio es encontrar un contrasteque minimicey.Es claro que podemos conseguir contrastesque hagan. Para ello basta con aceptar siempre que C = 0. Pero entonces:

    (todo el conjunto de resultados) = 1

    Nuestro objetivo va a ser en general minimizar combinaciones lineales dey de.

    Lema de Neyman - Pearson

    En un contraste de hipótesis simple sea* el procedimiento que rechaza H0 cuando n · f0(x1...xn) < f1(x1...xn). Acepto H0 cuando n · f0(x1...xn) > f1(x1...xn) y toma cualquier decisión si se da n · f0(x1...xn) = f1(x1...xn).

    Sies cualquier otro contraste tal que, entonces. Y si entonces

    Contrastes uniformemente más potentes

    Volviendo al problema general del contraste de hipótesis donde x1, x2, ...., xn es un muestreo aleatorio simple de una población f(x,, donde es un parámetro desconocido y, espacio paramétrico. Seauna partición de, es decir, dos conjuntos disjuntos cuya unión es. Estamos interesados en contrastar:

    con un nivel de significación, es decir, y tal quesea máximo si.

    Supongamos quecontiene al menos dos valores, es decir, la alternativa no es simple. En este caso puede ocurrir que no exista un procedimiento de contraste que maximice para todos los valores, es decir, puede ocurrir que si existencontrastes, tales que si yentonces y es decir que ambas regiones críticas tengan nively sin embargopero, es decir, la región crítica asociada amaximiza la función de potencia en y la región crítica asociada amaximiza la función de potencia en.

    Sin embargo existen situaciones en las que aparece una región de tamaño menor o igual a y que maximiza la función de potencia en todos los valores de la hipótesis alternativa. A tal región crítica o a tal contraste se le denomina contraste o región crítica uniformemente más potente.

    Definición: En un contraste , de nivel diremos que la región crítica asociada al contraste es uniformemente más potente si:

    (es de nivel) y ,

    Se pueden encontrar test uniformemente más potentes cuando la alternativa es de tipo unilateral y la verosimilitud de la muestra verifica la propiedad de poseer un cociente de verosimilitudes monótono en un cierto estadístico.

    Definición: Sea x1, x2, ...., xn un muestreo aleatorio simple de f(x, y sea T un estadístico. Diremos que f(x, verifica o tiene cociente de verosimilitudes monótonas en T si dados y, entonces:

    depende sólo de la muestra a través de T, y es creciente en T.

    Contrastes de hipótesis compuestas con alternativa unilateral

    Diremos que la hipótesis alternativa es unilateral cuando todos los valores del espacio paramétrico bajo la alternativa están a un lado de los valores bajo la hipótesis nula. En un contraste de este tipo las hipótesis se dan:

    ;

    ó

    ;

    En este tipo de contrastes van a existir unos test uniformemente más potentes.

    Teorema: Sea x1, x2, ...., xn un muestreo aleatorio simple de f(x,, desconocido. Si f(x,tiene cociente de verosimilitud monótono en el estadístico T, entonces la región crítica es uniformemente más potente. Contraste uniformemente más potente para decidir entre:

    a nivel de significaciónes:

    donde c se determina para que

    Contrastes insesgados

    Cuando un contraste no es uniformemente más potente se le exigirá que al menos sea insesgado. Un contraste es insesgado cuando si es su función de potencia, se verifica que: y

    Dualidad entre intervalos de confianza y contraste de hipótesis

    Supongamos que (U,V) es un intervalo de confianza de nivel de confianza

    1-para el parámetroContraste de hipótesis
    desconocido en la población

    I.C. para = (U,V)

    Si deseamos contrastar frente a, podemos elegir como región crítica: , es decir, rechazar la H0 si no pertenece al intervalo de confianza (U,V). Es lo mismo que decir que x1, ..., xn es tal que el valor del parámetro no está entre los valores U y V obtenidos a partir de la muestra.

    ¿Cuál es el nivel de significación asociado a esta región crítica?

    Por lo que, si 1-es el nivel de confianza del intervalo, es el nivel de significación del contraste asociado.

    En contrastes en los que la hipótesis nula es simple y la alternativa es bilateral, se puede utilizar el intervalo de confianza sobre el parámetro para obtener un contraste de nivel, siendo 1- el nivel de confianza del intervalo. Esta prácticaes usual en este tipo de contrastes, en los que no existe uno uniformemente más potente.

    complementario del intervalo de confianza para condesconocido.

    Por tanto, en estos casos, donde la hipótesis nula es simple y la alternativa bilateral, utilizaremos el intervalo de confianza para determinar el contraste asociado.Distribución del estimador en el muestreo

    Un concepto importante en el planteamiento de la inferencia estadística es la de función de distribución de la muestra, definida en una muestra de tamaño n como:

    siendo Ni el número de observaciones muestrales o iguales que xi, es decir, la frecuencia acumulada. Esta función presenta tantos saltos como valores muestrales haya, siendo la cuantía del salto cuando no se repite el valor xi, y cuando xi se repite ni veces, lo que indica que la función de distribución empírica es siempre discreta.

    En la función de distribución empírica de la muestra podemos calcular todos sus momentos, uni o k-dimensionales, con respecto al origen o a la media, como en una población cualquiera y, para distinguirlos de los poblacionales, se les denominará momentos de la muestra o muestrales, representándolos por ar o mr (según sean respecto al origen o a la media).

    Estadístico

    Cualquier función de los elementos muestrales recibe el nombre de estadístico, siempre que no tenga parámetros desconocidos, designándose por T(X)=T(x1, ..., xn).

    En particular, se trata con estadísticos muy concretos: los momentos muestrales, el valor mínimo o máximo de la muestra, etc...

    Los elementos que integran la muestra son variables aleatorias, por lo que cualquier función de estos elementos, el estadístico, también será variable aleatoria. Como tal variable aleatoria el estadístico tendrá su propio campo de variación y su distribución de probabilidad determinados, a su vez, unívocamente por el campo de variación y la distribución de la población.

    El campo de variación del estadístico es el conjunto de valores que toma para cada uno de los elementos del espacio muestral correspondiente. Si se considera un estadístico cualquiera, se toma todas las posibles muestras y en cada una de ellas se calcula su valor, se obtiene todos sus posibles valores, su campo de variación.

    Dado que un estadístico se genera en el proceso de muestreo, su distribución de probabilidad recibe el nombre de distribución de probabilidad en el muestreo. El concepto de distribución.

    Teorema Central del Límite

    Sea x1, x2, ..., xn una sucesión de variables aleatorias independientes tales que existe su esperanza y su varianza siendo y . Entonces.

    Como entonces

    Alternativamente, el teorema central del límite se puede expresar:

    Todo fenómeno aleatorio en cuya realización intervienen múltiples causas que actúen aditivamente e independientemente tiene distribución normal, siempre que las causas tengan esperanza y varianza finita.Errores de Tipo I y de Tipo II

    Las hipótesis nula y alternativa son aseveraciones sobre la población que compiten entre sí. O la hipótesis nula H0 es verdadera, o lo es la hipótesis alternativa Ha, pero no ambas. En el caso ideal, el procedimiento de prueba de hipótesis debe conducir a la aceptación de H0 cuando sea verdadera y al rechazo de H0 cuando Ha sea verdadera. Desafortunadamente no siempre son posibles las conclusiones correctas. Como las pruebas de hipótesis se basan en información de muestra, debemos considerar la posibilidad de errores.

    Condición de la población

    H0 verdadera

    Ha verdadera

    Aceptar H0

    Conclusión correcta

    Error de tipo II

    Conclusión

    Rechazar H0

    Error de tipo I

    Conclusión correcta

    Esta tabla muestra los dos tipos de errores que se pueden cometer en la prueba de hipótesis. El primer renglón muestra lo que puede suceder cuando la conclusión es aceptar H0. Si H0 es verdadera, esta conclusión es correcta. Sin embargo, si Ha es verdadera, hemos cometido un error de tipo II, es decir, hemos aceptado H0 siendo falsa. El segundo renglón muestra lo que puede suceder cuando la conclusión es rechazar H0. Si H0 es verdadera, hemos cometido un error de tipo I, es decir, rechazar H0 cuando es verdadera. Sin embargo, si Ha es verdadera, es correcto rechazar H0.

    Si bien no se puede eliminar la posibilidad de errores en la prueba de hipótesis, sí podemos considerar la probabilidad de su ocurrencia. Se usa la siguiente notación estadística normal para indicar las probabilidades de cometer esos errores:

    = probabilidad de cometer un error de tipo I.

    = probabilidad de cometer un error de tipo II.

    Función de potencia

    Consideraremos un contraste de hipótesis:

    con región crítica C. Definimos la función de potencia del test como la probabilidad de rechazar la H0 si es el verdadero valor del parámetro.

    Por tanto

    Entonces es la “mayor” de las probabilidades de rechazar la H0 cuando es cierta. Representa por tanto la máxima probabilidad de equivocarnos al rechazar H0.

    Esta cantidad recibe el nombre de tamaño del contraste.

    En ocasiones interesa acotar esta probabilidad por una cantidad más pequeña, en general 0,05 ; 0,01 ; ó 0,1 que recibe el nombre de nivel de significación del contraste. Entonces se exige que.

    Intervalos de Confianza

    Estimación por intervalos de confianza

    Cuando estimamos un parámetro en una densidad f(x,) a partir de un muestreo aleatorio simple, lo hacemos a partir del valor de una variable aleatoria, que es estimador de. Aún cuando dicho estimador haya sido obtenido para que goce de buenas propiedades, por ejemplo ser insesgado, en la práctica nadie nos garantiza el grado de divergencia entre la estimación obtenida y el verdadero valor del parámetro desconocido. Por ello parece razonable controlar las estimaciones puntuales con otros parámetros de estimación en los cales se posee información paramétrica entre estimaciones y parámetros desconocidos. A tal efecto, surgen los intervalos de confianza para estimar parámetros. Un intervalos de confianza para un parámetro será un intervalo donde podemos controlar la probabilidad de que se encuentre verdaderamente.

    Definición: Sea x1, x2, ...., xn un muestreo aleatorio simple de una población f(x,,donde es un parámetro desconocido. Un intervalo de confianza para viene dado por dos estadísticos U y V tales. es una cantidad que fija el investigador, usualmente los valores desuelen ser 0,1 ; 0,01 ó 0,05. Por defecto

    = 0,05. U y V son estimadores por defecto y por exceso de. Diremos entonces que (U,V) es el intervalo de confianza para de nivel de confianza 1 -.

    Una vez que se observen los valores muestrales ,su sustitución en (U,V) proporciona el intervalo numérico (U,V).

    La interpretación del intervalo de confianza es el siguiente en una larga serie de determinaciones de intervalos basados en muestras distintas, el 100·(1-)% de tales intervalos contendría el valor de.

    Intervalos de Confianza

  • Intervalo de Confianza para la media de una población normal con varianza conocida:

  • Sea x1, x2, ...., xn un muestreo aleatorio simple de N,desconocido yconocido. Se desea obtener un intervalo de confianza para de nivel. Como consecuencia del teorema de Fisher se sabe que . Por tanto .

    Existe tal que

    Pero

    Por tanto:

    Entonces:

    I.C. = de nivel

  • Intervalo de confianza para la media de una normal con varianza desconocida

  • Sea x1, x2, ...., xn un muestreo aleatorio simple de N, ydesconocidos. Se desea obtener un intervalo de confianza para de nivel. Sabiendo como consecuencia del teorema de Fisher se sabe que y que , entonces:

    Por tanto existe un tal que .

    Además,

    Entonces

    y por tanto el intervalo de confianza para de niveles:

    I.C. =

  • Intervalo de confianza para la varianza de una normal:

  • Sea x1, x2, ...., xn un muestreo aleatorio simple de Ncondesconocida. puede ser conocida o desconocida. Se desea obtener un intervalo de confianza para . Según el teorema de Fisher .

    Existen cantidades Ka y Kb tales que:

    . Pero y

    Por tanto

    Luego el intervalo de confianza será: I.C. = de nivel 1-

    Si se desease obtener el intervalo de confianza para, es decir, para la desviación típica, como la raíz es función creciente, entonces:

    I.C. = para, de nivel 1-

  • Intervalo de confianza para la diferencia de medias en poblaciones normales con varianza conocida:

  • Sea x1, x2, ...., xn un muestreo aleatorio simple de Ny y1, y2, ...., yn uno de N. Ambas muestras independientes. Supongamos que y son desconocidos y yconocidas. Se desea obtener un intervalo de confianza para

    -de nivel 1-.

    Sabemos que

    Existe unverificando

    Despejando:

    Entonces

    Luego el intervalo de confianza es:

    I.C. = de nivel 1-

  • Intervalo de confianza para en una distribución de Poisson si la muestra es muy grande.

  • Sea x1, x2, ...., xn muestreo aleatorio simple de P() condesconocido y suponemos que n es muy grande.

    El EMV dees que es EMV y alcanza la Cota de Cramer Rao. Como consecuencia:

    (Teorema del límite central)

    Existe por tanto tal que

    Pero y

    Como los extremos del intervalo de confianza dependen de, tal y como ha probado el resultado, no podemos obtener un intervalo de confianza. Existen dos alternativas:

  • Método aproximado: Consiste en sustituir en los extremos anteriores el valor de Contraste de hipótesis
    por su EMV. Entonces:

  • I.C. = de nivel 1-.

  • Método exacto:

  • , pero

    Como el coeficiente dees positivo, la parábola es cóncava y por tanto la ecuación anterior se satisface para los valores decomprendido entre las dos raíces.

    Por lo que el intervalo de confianza es:

    I.C. = de nivel 1-

  • Intervalo de confianza para el parámetro el parámetro p en una distribución binomial.

  • Sea x1, x2, ...., xn muestreo aleatorio simple de B(1, p). Se desea obtener un intervalo de confianza de nivel 1-para p en muestras grandes. El estimador de máxima verosimilitud para p (que es insesgado y de mínima varianza) es.

    si n es grande

    Como consecuencia existe untal que:

    Despejando:

    Primer procedimiento (aproximado): se sustituye el parámetro en los límites de confianza para el estimador de máxima verosimilitud.

    I.C. = de nivel 1-

    Segundo procedimiento (exacto):

    Pero:

    Luego, el intervalo de confianza será:

    I.C. = Pruebas de hipótesis para diferentes parámetros y distribuciones

  • Contraste de la media de una población normal con varianza conocida

      • Contraste bilateral

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste: en donde

    siendo una muestra de la población considerada normal, varianza conocida y n = tamaño de la muestra.

    Región crítica:

    siendoel valor de la abscisa de la normal N(0,1), que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

    • Contraste unilateral

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    siendoel valor de la abscisa de la normal N(0,1), que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

  • Contraste de la media de una población normal con varianza desconocida

    • Contraste bilateral

  • Muestras grandes

  • Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    en donde

    siendo una muestra de la población considerada normal, varianza conocida y

    n = tamaño de la muestra.

    Región crítica:

    siendoel valor de la abscisa de la normal N(0,1), que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

  • Muestras pequeñas

  • Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    siendoel valor de la abscisa de la t de Student con n-1 grados de libertad, que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

    • Contraste unilateral

    a) Muestras grandes

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    siendoel valor de la abscisa de la normal N(0,1), que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

    b) Muestras pequeñas

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    siendoel valor de la abscisa de la t de Student conm (n-1) grados de libertad, que deja a su derecha un área de probabilidad igual a.

    Región de aceptación:

    Se acepta H0 si

  • Contraste para la varianza de una población normal

    • Contraste bilateral

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    en donde es el valor de la abscisa de una distribución con n-1 grados de libertad, que deja a su derecha un área de probabilidad igual a , yes el valor de la abscisa de una distribución con n-1 grados de libertad, que deja a su derecha un área de probabilidad igual a

    Región de aceptación:

    Se acepta H0 si

  • Contraste para el parámetro p de una distribución binomial.

    • Contraste bilateral

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    en dondees el estimador centrado de p,frecuencia relativa del suceso del experimento dicotómico sobre el que se construye el modelo binomial, en una muestra de tamaño n.

    Región crítica:

    Región de aceptación:

    Se acepta H0 si

    • Contraste unilateral

    Hipótesis nula:

    Hipótesis alternativa:

    Estadístico de contraste:

    Región crítica:

    Región de aceptación:

    Se acepta H0 si

    Determinación del tamaño de la muestra

    El problema de determinar el tamaño de la muestra es crucial dentro del contexto de la inferencia estadística. Se considera, para precisar, que un tamaño de la muestra excesivamente elevado puede elevar demasiado el tiempo y el dinero en el coste de la investigación y, por otra parte, si la muestra es demasiado pequeña podemos no encontrar el deseado grado de fiabilidad. En todos los intervalos de confianza considerados, la longitud del intervalo (límite superior - límite inferior) era inversamente proporcional al tamaño de la muestra, es decir, a mayor tamaño de la muestra menos longitud del intervalo y mayor precisión en nuestra estimación.

    En los contextos de los intervalos de confianza, hay que considerar dos aspectos relacionados con la frase idea razonable. En primer lugar, ¿qué nivel de confianza se debe seleccionar? En segundo lugar, ¿cuál es el límite de tolerancia para la extensión del intervalo?

    El nivel de confianza a menudo se fija en un 90% o 95%. En parte, esta es una costumbre tribal primitiva que ha pasado de generación en generación en los libros de estadística; en parte, es una traducción conveniente de una certeza razonable.

    Considerando el intervalo de confianza para la media de una distribución normal de varianza conocida, un intervalo de confianza a un nivel 1- será:

    I.C. =

    El límite inferior es

    El límite superior es

    La longitud del intervalo es:

    L = L.S. - L.I. =

    Tres son las cantidades que determinan el valor del término más-menos: el nivel

    de confianza deseado (que determina el valor z utilizado), la desviación estándary el tamaño de la muestra. Por lo general, el tamaño de la desviación estándar de la población se debe estimar. (En ocasiones, se toma una muestra inicial para estimar la desviación estándar; esta estimación proporciona una base para determinar el tamaño de la muestra adicional que se necesita). Para una tolerancia dada, una vez que el intervalo de confianza se ha especificado y se ha proporcionado una estimación de, el tamaño de muestra requerido se puede calcular por ensayo y error o con una fórmula.

    Se plantea el problema de determinar el tamaño de la muestra n, de forma que la

    diferencia entre la media poblacional y la media muestral sea en valor absoluto menor que un cierto error.

    ahora bien, se sabe que en términos de probabilidad existe una probabilidad 1- de que esté en el intervalo aleatorio de confianza

    es decir,

    Entonces

    y

    • Determinación del tamaño de la muestra para estimar la media de una población con varianza desconocida:

    Partimos del intervalo de confianza de la media al nivel 1-

    pudiendo expresarse este intervalo, también como

    donde al ser, la expresión representa el error que se comete en el proceso de estimación. Si situamos dicho error en el límite aceptado, es decir, si hacemos

    es posible determinar el tamaño de la muestra n a través de la igualdad

    • Determinación del tamaño de la muestra para estimar la proporción p de una población:

    Análogamente al caso anterior, se considera el correspondiente intervalo de confianza para el parámetro p al nivel 1-

    donde la probabilidad de cometer un error viene dada por

    concluyéndose que

    Si no se dispone de una estimación previa de p, por ejemplo, a través de una muestra piloto de tamaño reducido, se puede utilizar la cota superior

    ya que máx Resumen

    Un contraste de hipótesis requiere una hipótesis que genere predicciones sin ambigüedad de los valores de una variable en una población. Esta hipótesis se denomina hipótesis nula, H0, y el objetivo del contraste es comprobar si podemos rechazarla. Para ello se define una medida de discrepancia entre los datos y la hipótesis y se estudia su distribución cuando H0 es cierta. Se denomina p-valor a la posibilidad de que la medida de discrepancia tome su valor mayor que el observado. Se fija un nivel de significación, que representa la probabilidad de rechazar H0 cuando es cierta. Este nivel permite definir una región de rechazo. Si la discrepancia está en ella, rechazaremos H0. En caso contrario, la asumiremos provisionalmente. Los contrastes pueden ser unilaterales o bilaterales, en función de cómo establezcamos la hipótesis alternativa. Para realizar un contraste sobre la proporción en una población tomamos como medida de discrepancia el error relativo de estimación de acuerdo con H0. Si el tamaño muestral es grande, este error relativo sigue una distribución t de Student, a partir de la cual se construye la región de rechazo.

    Bibliografía

    • Curso y ejercicios de Estadística

    Ed. Alambra Univerdisad

    Autor: V. Quesada y otros

    • Introducción a la estadística para las Ciencias Sociales

    Ed. McGraw-Hill

    • Fundamentos de Inferencia Estadística

    Ed. AC

    Autor: Luis Ruiz-Maya y otros

    • Estadística para la administración y economía

    Ed. Anderson Sweeney Williams

    • Estadística aplicada a la administración y economía

    Ed. Addison-Wesley

    Autor: Hildebrand y otros

    • Apuntes de la asignatura Estadística Matemática, de Estadística de la Universidad Complutense de Madrid, profesor Conrado Manuel

    Indice

    Introducción teórica 1

    Contraste de hipótesis 5

    Distribución del estimador en el muestreo 10

    Errores de tipo I y de tipo II 12

    Intervalos de confianza 14

    Pruebas de hipótesis para diferentes parámetros y distribuciones 21

    Determinación del tamaño de la muestra 26

    Resumen 29

    Bibliografía 30

    Parte práctica 31

    Estadística: Contraste de hipótesis




    Descargar
    Enviado por:Gonzalo Muñoz
    Idioma: castellano
    País: España

    Te va a interesar