Demostración de asociación

Veterinaria. Enfermedades infecciosas. Epidemiología. Hipótesis nula. T de Student. Riesgo. Coeficiente de correlación

  • Enviado por: Sergio
  • Idioma: castellano
  • País: España España
  • 4 páginas
publicidad
publicidad

Tema 9. Demostración de asociación.

Una etapa de gran valor en la identificación de la causa de una enfermedad es la demostración de una asociación, estadísticamente significativa, entre la enfermedad y los factores causales hipotéticos.

La demostración de la asociación puede enfocarse de tres formas.

(1) puede medirse la diferencia, bajo dos circunstancias diferentes, entre la media de la distribución probable de una serie de valores de una variable. Si hay una diferencia significativa entre las medias en las dos circunstancias, éstas pueden conducir a una explicación que refleje una asociación causal.

Ej: medimos los pesos de dos grupos de lechones, uno de los cuales ha desarrollado diarrea neonatal y el otro no. El efecto de la diarrea sobre el peso se puede evaluar analizando la diferencia de las medias de los pesos en los dos grupos.

(2) Las variables se pueden clasificar por categorias y buscarse una asociación significativa entre las diversas categorías.

Ej.las perras se pueden clasificar en categorias de acuerdo a si tienen o no incontinencia urinaria fisiológica y si están ovariectomizadas o no. De esta forma se puede buscar evidencia de una asociación entre el síndrome y la castración, y estimar el grado de asociación entre enfermedad y castración.

(3) se puede buscar una correlación entre variables.

Ej: registramos la incidencia de cojeras en el ganado vacuno y las precipitaciones, para investigar si el incremento de precipitaciones está significativamente asociado con un aumento en la incidencia de cojeras.

1. PRUEBAS DE SIGNIFICACION.

La distribución normal puede utilizarse para describir la frecuencia de distribución de los valores de una variable continua y también de la media de muestras repetidas tomadas de una población de referencia. La forma de campana de una distribución normal refleja que hay una alta probabilidad de que la media de la muestra esté bajo el máximo y una probabilidad mucho más baja de que esta media esté próxima a cualquiera de los extremos. Si la media está próxima a un extremo, esto indica que la muestra es una de aquellas pocas muestras improbables que se pueden tomar de la población de referencia o más probable, que ha sido extraida de una población con una media diferente.

Es improbable que la media de una muestra provenga de una población de referencia cuando la probabilidad (P) de obtener un valor para la media de la muestra al menos tan extremo como el observado sea menor que el valor correspondiente al nivel de significación (). El valor que se toma para es 0,05 (5% de significación). En el caso de P>0,05 el resultado es presentado como significativo para P<0,05 y corrobora la afirmación de que la muestra no fue extraida de la población referencia. Si fuera necesario una mayor garantía en inferir una diferencia, se elegiría el nivel 1% (P<0,01 o 1%) o el 0,1 % (P<0,001)

2. HIPOTESIS NULA.

Cuando se parte de la base de que la muestra proviene de una población con una media no diferente a la de la población de referencia, constituye la hipótesis nula, es aquella de no diferencia.

Un resultado significativo indica que la hipótesis nula es rechazada a favor de una alternativa, la cual eatablece que la muestra ha sido extraída de una población con características diferentes de las de la población de referencia. La demostración de una diferencia significativa implica el rechazo de la hipótesis nula.

El 5% de las muestras de una población se encuentran dentro de la zona que podría inducir al rechazo de la hipótesis nula para un nivel de significación del 5%. Los resultados de las pruebas de significación y el intervalo de confianza están estrechamente relacionados.

Ej supongamos que la hipótesis nula establece un valor determinado para la media de una destribución normal. Se toma una muesta y la prueba de significación rechaza la hipótesis nula para un nivel de 5%. El correspondiente intervalo de confianza del 95% (media de la muestra 2 eeem) no contendrá el valor especificado por la hipótesis nula. A la inversa, si la prueba de significación no rechaza la hipótesis nula para el nivel del 5%, el correspondiente intervalo de confianza del 95% contendrá el valor de la media especificada por la hipótesis nula.

3. PRUEBA DE LA T DE STUDENT.

La elección de una prueba de significación adecuada depende de muchos factores, tales como el tipo de frecuencia, distribución y tamaño de la muestra. Una prueba muy utilizada para pequeñas muestras de datos distribuidos normalmente es la prueba de la t de student.

La prueba de la t de student mide las desviaciones de la media especificada por la hipótesis nula. Tiene tres aplicaciones:

(1) relacionada con una única población de referencia y una hipótesis según la cual los datos provienen de una distribución normal, con una media y la varianza 2 no se conoce. Hay n-1 grados del libertad. La prueba estadística será la siguiente:

t = ( x - ) / ( s2 / n) n= tamaño de la muestra

(2) se refiere a dos muestras de poblaciones diferentes y una hipótesis según la cual los datos provienen de una distribución normal con una diferencia conocida 1 - 2 = entre las medias de las dos poblaciones y una varianza común desconocida 2. Hay (n1+ n2 - 2) grados de libertad.

t = ( x1-x2 - ) / s2 ( 1/ n1 + 1/ n2 )

s2 = ( n1-1) s12 +( n2-1) s22 / (n1+ n2 - 2)

(3) trata de comparaciones en las cuales las observaciones entre las dos muestras están emparejadas. La prueba supone que las diferencias entre los miembros de cada par están normalmente distribuidas con una media (generalmente cero) y una varianza 2 desconocida. Hay n-1 grados de libertad.

t = ( d -) / ( s2 / n) d= media de la muestra

= varianza de las diferencias

n= tamaño de la muestra

4. GRADOS DE LIBERTAD.

El valor crítico de la prueba t que nos conduce al rechazo o no de la hipótesis nula depende del tamaño de la muestra y una cifra relacionada con él, conocida como los grados de libertad.

Si una muestra consta de n observaciones independientes (una observación no influye en el valor de la otra) hay en cierto sentido n partes de información independientes. Calculando la media en la muestra única y la prueba t de comparación emparejadas, estas utilizadan una parte de la información, quedando (n-1) para la varianza. Conociendo n-1 observaciones y la media, se establecen los valores de las restantes observaciones.

5. PRUEBA 2 DE ASOCIACION

Esta prueba estadística indica hasta que punto los valores observados se apartan de los valores que serían de esperar si no hubiera asociación entre las categorias comparadas. Se consulta una tabla de distribución de 2 para decidir si el valor observado de 2 es mayor del que sería de esperar, basándose en una hipótesis nula postulando la no asociación.

Esta prueba se puede utilizar par determinar la significación de una asociación entre una enfermedad y un factor causal hipotético.

Se elabora una tabla de dos entradas con cuatro celdillas en ella denominada tabla de contingencia 2 x 2. La estadística de 2 está dada por la siguiente ecuación:

2 = n ( ad -bc - n/2 )2 / (a+b) (c+d) (a+c) (b+d)

los grados de libertad vienen dados por: (número de filas-1) x (número de columnas-1) es decir (2-1) x (2-1) = 1.

La detección de una asociación mediante la demostración de una diferencia significativa utilizando la prueba 2 habitualmente es insuficiente. Puede ser conveniente proporcionar una medida de la diferencia entre la frecuencia de enfermedad en un grupo expuesto al factor y en un grupo no expuesto al factor. Una medida del grado de asociación indicaría el grado en el cual el factor contribuye a la aparición de la enfermedad, es decir el grado en que la enfermedad está causada por el factor.

6. ESTIMACION DEL RIESGO.

El grado en el que un factor causa una enfermedad (el riesgo asociado con el factor) viene medido en términos de su grado de asociación con la enfermedad. En la mayoría de los casos es posible construir tablas de contingencia 2 x 2 con valores mayores de cero en cada una de las cuatro celdas, a partir de la cual se puede calcular una medida relativa de riesgo como una razón de incidencia de la enfermedad en los grupos expuestos a un factor en relación a la incidencia de la enfermedad en grupos no expuestos. La tabla se constuye expresando horizontalmente la enfermedad y verticalmente el factor causal hipotético.

Enfermos

No enfermos

Factor +

a

b

Factor -

c

d

6.1. RIESGO RELATIVO.

El riesgo relativo es la razón de las dos tasas de incidencia, viene dado por:

R = p1 / p2 p1= a/ a+b y p2 = c/ c+d

* Un riesgo relativo mayor que 1 indica una asociación estadística positiva entre el factor y la enfermedad.

* Un riesgo relativo menor que 1 indica una asociación estadística negativa, puede decirse que la posesión del factor tiene un efecto protector frente a la enfermedad.

* Un riesgo relativo de 1 sugiere la no existencia de asociación.

6.2. RAZÓN DE PROBABILIDADES

La razón de probabilidades es otra medida del grado de asociación que se utiliza comúnmente en los estudios de epidemiología.

Si un suceso tiene lugar con una probabilidad p, la razón p/q se denomina la probabilidad que existe a favor de que tal suceso tenga lugar, donde q = 1-p.

Si la probabilidad de enfermedad entre animales expuestos es p1 / q1 y la probabilidad entre los no expuestos es p2 / q2 la razón de probabilidades de la enfermedad entre animales expuestos y la de no expuestos, conocida como razón de probabilidades viene dada por:

= (p1 / q1) / ( p2 / q2 ) = p1q2 / q1 p2 = ad / bc

Para enfermedades de baja frecuencia, el riesgo de enfermedad, p, es casi el mismo que la probabilidad pq, ya que q es aproximadamente igual a 1. De esta forma, la razón de probabilidades proporciona una buena aproximación al riesgo relativo.

Cuando la incidencia de la enfermedad no es baja, los valores del riesgo relativo y la razón de probabilidades divergen.

* Una razón de probabilidades mayor que 1 indica una asociación estadística significativa entre el factor y la enfermedad.

* Un riesgo relativo menor que 1 indica que la asociación no es estadísticamente significativa, puede decirse que la posesión del factor tiene un efecto protector frente a la enfermedad.

* Un riesgo relativo de 1 sugiere la no existencia de asociación.

6.3. RIESGO ATRIBUIBLE. ( )

El riesgo atribuible indica el grado en que se puede reducir la tasa de incidencia de enfermedad suprimiendo la exposición al factor causal. Proporciona una indicación de la magnitud del efecto del factor causal en la población.

= p1-p2 = (p1/p2 - 1) p2 ya que R = p1/p2

= (R -1) p2

6.4. FRACCION ETIOLOGICA. ()

La fracción etiológica es la proporción del total de casos, atribuibles a la exposición a un factor causal determinado. Representa la proporción de aparición de enfermedad que puede ser eliminada si un grupo expuesto al factor causal tiene su incidencia reducida al nivel del grupo no expuesto.

= R-1 / R x f f= proporción de individuos enfermos expuestos al factor

La fracción etiológica al igual que el riesgo atribuible es una indicación del impacto que puede tener la eliminación de un factor causal sobre la reducción de la incidencia.

7. CORRELACION.

El coeficiente de correlación (, rho) constituye una buena medida de correlación entre x e y, puede calcularse si son variables contínuas, distribuidas normalmente y cuando las observaciones sucesivas son independientes unas de otras, oscila entre +1 (asociación positiva completa) y -1 (asociación negativa completa).