Ingeniero Técnico Industrial
Conceptos matemáticos
Tema 1
Estadística Descriptiva
Estadística: Es la parte de las matemáticas que trata de obtener Estadística a partir de unos datos numéricos.
-
Estadística descriptiva: se encarga de la recogida, organización y presentación de los datos obteniendo una serie de parámetros que los representen. Es totalmente objetiva.
-
Estadística inferencial: se encarga del análisis y toma de decisiones a partir de los datos anteriores. Es un poco subjetiva. Hace uso del cálculo de probabilidades.
Definiciones:
-
Llamamos población a un conjunto de elementos con una característica común.
A cada elemento de la población, lo llamamos individuo.
-
Llamamos muestra a cualquier conjunto de la población.
Al número de individuos que componen la muestra se los llama tamaño muestral.
-
Llamamos variable estadística a cualquier característica de los individuos de la población que podemos analizar.
-
Variables categóricas o cualitativas: son aquellas que no se pueden cuantificar numéricamente.
-
Variables cuantitativas: aquellas que se pueden cuantificar numéricamente. Se pueden clasificar en:
-
Discretas: aquellas que pueden tomar un numero finito o infinito numerable de valores.
-
Continuas: aquellas que pueden tomar todos los infinitos valores de un intervalo.
Definición: Llamamos frecuencia absoluta ni de un valor Xi al número de veces que aparece dicho valor.
tamaño muestral Suponiendo X={x1,x2,...,xm}
Llamamos frecuencia absoluta acumulada Ni de un valor Xi al número de veces que aparece dicho valor y todos los anteriores a él.
Definición: Llamamos frecuencia relativa fi de un valor Xi al cociente de la frecuencia absoluta de Xi y el tamaño de la muestra.
Llamamos frecuencia relativa acumulada Fi de un valor Xi a la suma de las frecuencias relativas de dicho valor y de los anteriores a él.
Observación: Si fi.100 obtenemos el % de incidencia del valor Xi sobre la muestra.
Representaciones gráficas:
Ejemplos: (“OA”)
Para variables continuas o discretas con muchos valores, los datos se agrupan en clases.
Para formar las clases:
Redondeamos los valores (depende de los datos y precisión necesaria)
Elegimos el número de clases (entre 5 y 20)
Escribimos las clases de manera que cada elemento esté perfectamente situado en 1 y solo 1 de ellas.
Al punto medio se le llama marca de clase Xi
marca de clase
Diagrama de tallo y hojas:
Ejemplo: “Altura”
Histograma:
Lo que se debe ver en un histograma es:
-
Casos atípicos: son casos que son “raros” en función de los datos.
-
Simetría: se observa si el histograma es uniforme o simétrico en alguna de sus partes.
Medidas asociadas a una variable:
-
Centralización:
Media aritmética:
Características:
-
Tiene en cuenta todos los datos: es muy representativa.
-
Es muy sensible a los datos atípicos y asimétricos.
-
No se puede calcular para variables categóricas.
-
Moda (Mo): Es el valor de la variable que más se repite.
-
Es la única medida de centralización que se puede obtener para variables categóricas.
-
Cuando tengamos clases hablaremos de clase modal.
-
Si dos valores tienen frecuencia máxima hablaremos de variable bimodal.
-
Mediana (Me): Es un valor de la variable que deja el 50% de la distribución ordenada a su derecha y el otro 50% a su izquierda.
-
No tiene en cuenta los valores de la variable, sino su situación.
-
No es nada sensible a datos atípicos.
-
Cuando trabajamos con clases, hablamos de clase mediana.
-
Cálculo:
-
Medidas de dispersión:
-
Rango o recorrido:
-
Varianza:
-
Tiene en cuenta todos los valores.
-
Es muy sensible a los valores atípicos y asimétricos.
-
Se expresa en las unidades de la variable al cuadrado.
-
Desviación Típica:
-
Rango intercuartílico:
-
x toma valores x1,x2,...,xn
-
y toma valores y1,y2,...,yn
-
Suceso elemental: compuesto por un solo elemento muestral. Ejemplo: A
-
Suceso compuesto: formado por 2 o más puntos muestrales. Ejemplo: B
-
Suceso cierto o seguro: siempre se verifica coincide con el espacio muestral. Ejemplo: C
-
Suceso imposible: nunca se verifica ". Ejemplo: D
-
Inclusión: diremos que A está incluido en B, o que A implica B si cuando se verifica A entonces también se verifica B. Ejemplo:
-
Igualdad: diremos que A es igual a B si A está incluida en B y B está incluida en A (A=B). Ejemplo:
-
Unión: dados 2 sucesos A y B, llamamos unión de A y B a otro suceso que se verifica si se verifica A ó se verifica B. Ejemplo:
-
Intersección: dados 2 sucesos A y B, llamamos intersección de A y B a otro suceso que se verifica si se verifica A y se verifica B. Ejemplo:
-
Diferencia: dados 2 sucesos A y B, llamamos diferencia de A y B a otro suceso que se verifica cuando se verifica A y no se verifica B.
-
Diferencia simétrica: dados 2 sucesos A y B, llamamos diferencia simétrica de A y B a otro suceso que se verifica A y no se verifica B ó se verifica B y no se verifica A.
-
Propiedades:
-
Conmutativas:
-
Asociativas:
-
Idempotentes:
-
Distributivas:
-
Leyes de Morgan:
-
Si E está compuesto por n sucesos elementales A1,A2,...,An equiprobables entonces
-
Regla de Laplace: Si E está compuesto por n sucesos elementales equiprobables y sea A un suceso compuesto por k sucesos, entonces:
-
Combinatoria
-
F(t) es creciente
-
F(t) es continua por la derecha
-
Nota: estas 2 propiedades caracterizan una función puntual de probabilidad. -
Ordenando los valores
-
Distribución de Bernouilli: Suponemos que un experimento aleatorio tiene 2 posibles soluciones
-
Distribución Binomial: Suponemos que repetimos un experimento un numero n de veces de manera independiente. Si definimos:
-
Distribución de Poisson: Suponemos que estudiamos un suceso que ocurre esporádicamente a lo largo de un “soporte continuo”
-
El suceso aparece, a largo plazo, un nº medio de veces
-
La aparición del suceso ocurre de manera independiente (el nº de veces que ocurre en un intervalo de tiempo no induce a saber el nº de veces que ocurrirá en el siguiente intervalo).
-
si la v.a. es discreta
-
si la v.a. es continua
-
si la v.a. es discreta
-
si la v.a. es continua
-
Todos los individuos de la población tienen la misma posibilidad de ser elegidos.
-
Las extracciones han de realizarse con reemplazamiento.
-
Muestreo sistemático: seleccionamos el primer elemento de manera aleatoria y los demás sistemáticamente como se halla fijado.
-
Muestreo estratificado
-
Muestreo por conglomerados
-
Definimos la variable que nos define el proceso
-
Tomamos muestras de pequeño tamaño a lo largo del tiempo
-
Dibujar una línea central en la media
-
Representamos en la gráfica los puntos correspondientes a las medidas de todas las muestras
-
Ver si el proceso está bajo control.
-
Algún punto queda fuera de los limites de control, el proceso está fuera de control
-
Si aparecen 9 o más puntos seguidos entre la línea media y una de las 2 líneas de control
-
Si 2 de cada 3 puntos están situados entre las líneas de control y las líneas está fuera de control
-
Ejemplo: donde ð es desconocido.
-
Si tenemos 2 estimadores con propiedades contradictorias. Entonces tomamos el que menor error cuadrático medio tenga, siendo:
-
Si aún así no nos satisface exigiremos que al menos sea consistente
-
La potencia nos mide la fiabilidad del test. Consideramos fiable si la potencia es superior a 0,8
-
El nivel de significación ð, si no lo tenemos, suponemos por defecto que es ð=0,05
-
Seleccionamos el parámetro que queremos contrastar
-
Planteamos la hipótesis nula H0
-
Planteamos la hipótesis alternativa H1
-
Seleccionamos el nivel de significación
-
Elegimos un estadístico adecuado
-
Distinguimos entre la región de aceptación y rechazo para dicho estadístico
-
Calculamos el valor de dicho estadístico bajo la hipótesis nula
-
Tomamos decisiones sobre H0
-
Queremos hacer un contraste para ð
-
Tomamos ð
-
Sabemos que es un buen estimador de ð
-
-
Rechazamos H0 si
-
Si n es suficientemente grande aproximamos 2 (varianza poblacional) por medio de S2 (varianza muestral) y aplicamos lo anterior:
-
Si n no es suficientemente grande entonces usamos el estadístico:
Si el nº de datos es impar, tomamos el elemento xi con
Si el nº de datos es par, la Me es la semisuma de los dos datos centrales.
Observación: Se estima que en el intervalo se encuentra el 68% aproximadamente de los valores de la variable.
En el intervalo 95%
En el intervalo 99,7%
Cuartiles: Son 3 valores Q1, Q2 y Q3 que dividen a la distribución ordenada en 4 partes iguales.
Q2=Me;
Q1= Me de los valores situados a la derecha de Q2;
Q3= Me de los valores situados a la izquierda de Q2.
Definición: Coeficiente de variación:
Series temporales:
Distribuciones Bivariantes:
Suponemos que x e y son dos variables sobre la misma población.
(x,y) toma valores (x1,y1),(x2,y2),...,(xn,yn)
Covarianza:
Siendo ni la frecuencia de (xi,yi)
La covarianza relaciona los parámetros x e y.
Coeficiente de correlación: adimensional
-1 " r " 1
Diremos que hay una mayor relación entre las 2 variables cuando r se vaya acercando a los extremos, mientras que si está cerca del 0 se dice que hay poca relación entre las 2 variables.
Ajuste por mínimos cuadrados:
Recta de regresión de y sobre x
Funciones linealizables:
Función exponencial:
Modelo potencial:
Tema 2
Fundamentos de la Teoría de la Probabilidad
Definición: Llamamos experimento aleatorio o estocástico a aquel que realizado en idénticas circunstancias nunca podemos predecir los resultados. Como por ejemplo: lanzar un dado; extraer una carta.
En caso contrario el experimento se llama determinista. Por ejemplo: caída libre.
Definición: A cada una de las veces que repetimos un experimento aleatorio la llamamos prueba.
Definición: Al conjunto de los posibles resultados de un experimento aleatorio se le llama espacio muestral (E).
Definición: Llamamos suceso a cualquier subconjunto del espacio muestral. En el ejemplo de “lanzar un dado”:
E={1,2,3,4,5,6}
Sucesos: A={salir 1}
B={salir par}={2,4,6}
C={1,2,3,4,5,6}=E
D={"}
Tipos de sucesos:
Definición: Dado un suceso cualquiera A, llamamos suceso opuesto, contrario o complementario ó a aquel que se verifica cuando no se verifica A.
Ejemplo: “lanzar un dado”
A={salir par}={2,4,6}
={salir impar}={1,3,5}
Operaciones con sucesos:
B={salir par}; A={salir 4}
A={salir par}
B={salir 2,4,6}
A={salir par}={2,4,6}
B={salir primo}={2,3,5}
={2,3,4,5,6}
A={salir par}={2,4,6}
B={salir primo}={2,3,5}
={2}
Definición: Diremos que A y B son sucesos incompatibles si =" (no se verifican simultáneamente)
Ejemplo:
A={salir par}={2,4,6}
B={salir primo}={2,3,5}
A-B={4,6}
B-A={3,5}
Ejemplo:
A={salir par}={2,4,6}
B={salir primo}={2,3,5}
Definición: Diremos que n sucesos de un espacio muestral E; A1,A2,...,An forman un sistema completo de sucesos si:
Introducción al concepto de probabilidad
“Probabilidad es la medida de la incertidumbre asociada a un suceso”
Definición: Llamamos probabilidad de un suceso A al valor entorno al cual tiende a estabilizarse la frecuencia relativa del suceso A cuando se repite un nº suficiente de veces.
Definición axiomática de Kolmogorov:
Definición: Llamamos función de probabilidad a una aplicación del espacio de sucesos ().
que cumple 3 axiomas:
Consecuencias:
En efecto:
En efecto:
En efecto:
En efecto:
En efecto:
Reglas de conteo:
n= nº de elementos disponibles
m= nº de elementos elegidos
¿Influye el orden de elección? | SI ¿n=m? | NO ¿Se pueden repetir elementos? | SI Variaciones con repetición de n elementos tomados de m en m VRn,m=nm |
NO Variaciones Vn,m=n(n-1). (n-2)...(n-m+1) | |||
SI Permutaciones (Pn=n!) | |||
NO ¿se pueden repetir elementos? | SI combinaciones con repetición | ||
NO combinaciones Cn,m= |
Probabilidad condicionada
Definición: Dados 2 sucesos A y B, llamamos probabilidad de A condicionado a B a:
Definición: Decimos que A y B son independientes si P(A)=P(A/B)
En caso contrario se dicen dependientes.
Proposición: A y B son independientes si y solo si
En efecto:
Definición: Experimentos compuestos: aquel que esta formado por 2 o más experimentos compuestos.
Teorema de la probabilidad compuesta:
Sean A1,A2,...,An; n sucesos tales que
Entonces:
Teorema de la probabilidad total
Sean A1,A2,...,An; un sistema completo de sucesos con
Sea B un suceso cualquiera.
Entonces:
Demostración:
Teorema de Bayes
En las mismas condiciones del teorema anterior
Tema 3
Variables Aleatorias I
Definición: Una variable aleatoria es una función que asocia a cada elemento del espacio muestral un numero real.
Observación: Sobre un mismo espacio muestral se pueden definir varias variables aleatorias.
Ejemplo:
Experimento: Lanzar un dado
E={1,2,3,4,5,6}
Observación: Si el resultado del experimento son valores numéricos se les suele asociar el mínimo valor.
Si son resultados cualitativos se les asocia cualquier número.
Ejemplo:
Experimento: Lanzar moneda
E={C(cara),+(cruz)}
Exp: Lanzar 3 monedas
E={CCC,CC+,C+C,+CC,C++,+C+,++C,+++}
Definición: Función de distribución es una función que asocia a cada valor de la variable aleatoria la probabilidad acumulada hasta dicho valor.
Ejemplo:
Propiedades:
Variables Aleatorias Discretas: Función Puntual de Probabilidad
Definición: Diremos que una variable aleatoria X es discreta si puede tomar un numero finito de valores o infinito numerable.
Definición: Llamamos función puntual de probabilidad a una función que asocia a cada valor de la variable su probabilidad.
Propiedades:
Características de una Variable Aleatoria Discreta
Definición: Sea X una v.a. discreta con función puntual de probabilidad llamamos esperanza matemática de la v.a. X a:
Observación: La existencia de E(X) depende de la convergencia de la serie cuando X toma un nº infinito numerable de valores.
Propiedades de la esperanza:
Definición: Sea X una v.a discreta con función puntual de probabilidad . Llamamos varianza de la v.a. X a:
siendo
Propiedades:
Demostración:
Propiedades:
Definición: Llamamos desviación típica de la v.a. X a la raíz cuadrada positiva de la varianza
Variables Aleatorias Continuas: Función de Densidad
Definición: Una v.a es continua cuando puede tomar todos los valores de un intervalo.
Ejemplo: Altura de las personas, longitud de un tornillo, etc.
Observación: No se puede calcular la probabilidad de una valor determinado ya que siempre vale 0. Entonces calculamos la probabilidad de que la variable se sitúe en un intervalo.
Definición: Supongamos que tomemos una v.a. continua y los valores que toma los distribuimos en clases. Entonces podemos hacer el histograma de esa variable.
Llamamos función de densidad f(X) a la función hacia cuya gráfica tienden los histogramas de la v.a. cuando elegimos las clases cada vez mas pequeñas.
Propiedades:
Características de una Variable Aleatoria Continua
Definición: Sea X una v.a. continua con función de densidad f(X).
Llamaremos esperanza de X ó a:
Observación: La existencia de E(X) depende de la convergencia de la integral.
Definición: Sea X una v.a. continua con función de densidad f(X). Llamamos varianza de X ó a:
Definición: Llamamos desviación típica de X a:
Distribuciones Asociadas a Variables Aleatorias Discretas
Función puntual de probabilidad de la distribución de Bernouilli
X= “nº de éxitos obtenidos en los n experimentos”
Diremos que X sigue una distribución Binomial de parámetros.
Función puntual de probabilidad de la distribución Binomial
Es función puntual de probabilidad:
X la podemos considerar como suma de n variables Xi que siguen una distribución de Bernouilli.
X= “nº de veces que aparece dicho suceso en un periodo de tiempo”
Diremos que X sigue una distribución de Poisson de parámetro
Si se cumplen 2 condiciones:
Es función puntual de probabilidad:
Observación: Tanto la distribución Binomial como la Poisson son reproductivas respecto a los parámetros n y respectivamente.
Distribuciones Asociadas a Variables Aleatorias Continuas
Distribución Normal: Una v.a. X sigue una distribución normal de parámetros
Si tiene por función de densidad
Observación:
Tipificación de la normal
Si si defino
Ejemplo:
Teorema de Moivre-Laplace
Si entonces
Explicación:
Si
Observación: La distribución de Poisson se puede aproximar a una normal cuando >5
Si
Distribución exponencial: Son variables asociadas a tiempos de espera para recibir determinados servicios. X sigue una distribución exponencial de parámetros
Si tiene por función de densidad
Función de distribución
Esperanza
Varianza
Observación: Tanto la distribución normal como la exponencial son reproducidas respecto a sus parámetros.
Tema 4
Variables Aleatorias II
Definición: Si X e Y son dos v.a. definidas sobre el mismo espacio muestral. Llamamos variable aleatoria bidimensional (X,Y) a una función
Definición: Llamamos función de distribución de una variable aleatoria bidimensional (x,y) a
Variables Aleatorias Bidimensonales Discretas
Si llamo C al conjunto de posibles resultados de la v.a.b. (X,Y).
Si C tiene una cantidad finita o infinita numerable (x,y) se llama v.a.b. discreta.
Definición: Llamamos función puntual de probabilidad conjunta de una v.a.b. discreta a una función:
con
Variables Aleatorias Bidimensonales Continuas
Si C tiene una cantidad infinita de puntos (X,Y) se llama v.a.b. continua.
Definición: Llamamos función de densidad conjunta de una v.a.b. continua:
con
Distribuciones Marginales
Si (x,y) es una v.a.b. con función de distribución F(x,y). Llamamos funciones marginales de distribución de x e y a:
función puntual de probabilidad de X
función puntual de probabilidad de Y
función de densidad marginal de X
función de densidad marginal de Y
Independencia de Variables
Definición: Si (x,y) es una v.a.b. diremos que X e Y son independientes si la función de distribución conjunta es el producto de las marginales
Observación: Si X e Y son independientes
Tema 5
Muestreo y Distribuciones Muestrales
Definición:
Población: es un conjunto de elementos con una característica común (que será el objeto de estudio).
Individuo: es cada uno de los elementos de la población.
Muestra: es cualquier subconjunto de la población.
Tamaño muestral: es el numero de elementos que componen la muestra.
La característica principal de una buena muestra es que sea representativa de la población a estudiar.
Definición: Muestreo Aleatorio Simple (M.A.S.) es el que obtiene la muestra teniendo en cuenta:
Si la población es muy grande el reemplazamiento no tiene importancia.
Otros tipos de muestreo:
Estadísticos muestrales
Suponemos que tenemos una v.a. X definida sobre una determinada población. Sea (X1,X2,...,Xn) una m.a.s. de tamaño n. A cada (X1,X2,...,Xn) se le llama realización de la muestra.
Si llamamos M al conjunto de todas las posibles realizaciones de la muestra; llamamos estadístico muestral a toda función real:
Observación: como un estadístico es función de variables aleatorias este también será variable aleatoria con función de densidad
por ser Xi independientes e idénticamente distribuidas.
Distribución de la media muestral: Teorema central de límite
Suponemos que X una v.a. que sigue una distribución normal de media , y varianza 2. Tomamos (X1,X2,...,Xn) una m.a.s. y definimos
Varianza:
Si X"N(,2)
Teorema central de límite
Si X es una v.a. cualquiera con media y varianza 2 y (X1,X2,...,Xn) es una m.a.s. de tamaño n
Observación: n es suficientemente grande si n"30
Observación: si no conocemos la varianza poblacional 2 de la v.a. X entonces sigue una distribución que se llama T de Student con n-1 grados de libertad.
Distribución asociada a la proporción muestral
Suponemos que p es la proporción de individuos de una población de una determinada característica. Si tomamos una muestra aleatoria simple de tamaño n y denotamos a la proporción muestral
Graficas de control
Definición: Diremos que un proceso esta bajo control. Si la variable que lo describe sigue la misma distribución a lo largo del tiempo.
Definición: Las gráficas de control son instrumentos que se utilizan para ver si un proceso se encuentra bajo control.
Pasos a seguir para hacer una gráfica de control
Dibujar las 2 líneas de control
Estará bajo control si:
Tema 6
Introducción a la Teoría de la Aproximación
Estimación Puntual
Definición: Un estimador es un estadístico que intenta aproximar el verdadero valor de un parámetro poblacional desconocido.
Tomamos una m.a.s. de tamaño n
es un estimador de ð
X2 es un estimador de m
Propiedades de los estimadores:
Definición: Diremos que un estimador es centrado ó insesgado se la esperanza del estadístico coincide con el parámetro poblacional estimado.
= parámetro poblacional (desconocido)
= estimador
Observación: se llama sesgo
Definición: Llamamos eficiencia o precisión de un estimador a la inversa de la varianza
Precisión
Observación:
Estimación por intervalos de confianza
Definición: Llamamos intervalo de confianza para un parámetro poblacional desconocido con nivel de confianza 1-ð a una expresión del tipo de manera que
Observación: Esto quiere decir que en el 100.(1-ð)% de los intervalos que fabriquemos con las muestras obtenidas de la población, el verdadero valor del parámetro se encuentra dentro del intervalo.
Intervalo de confianza para la media poblacional con 2
Supongo que con 2 conocido y queremos fabricar un intervalo de confianza para ð con nivel de confianza (1-ð).
Tomamos una m.a.s. de tamaño n; es un buen estimador puntual de ð, y sabemos que
Intervalo de confianza para ð con 2 conocido para X normal
Determinación del tamaño muestral
Error máximo cometido al estimar ð mediante
es:
para una confianza dada 1-ð
Por tanto fijado el error:
es el tamaño muestral para cometer como máximo dicho error
Ejemplo: El tiempo de reacción de un motor sigue una distribución N (ð, 0.052) ¿Cuántas medidas deben hacerse para que al nivel de confianza al 95% error de la estimación
no sea mayor de 0.01?
Datos:
Por tanto la muestra debe ser:
Tema 7
Introducción a los Contrastes
Definición: Una hipótesis estadística es una proposición (afirmación) sobre un parámetro (desconocido) de una o varias poblaciones.
Definición: Un test o contraste de hipótesis es un procedimiento que nos hace tomar decisiones sobre determinadas proposiciones.
Definición: Hipótesis nula H0 que es la que suponemos cierta de partida
Definición: Hipótesis alternativa H1 que es la que suponemos cierta cuando rechacemos H0.
Definición: Error tipo I es el que cometemos al rechazar H0 siendo ésta cierta.
Definición: Error tipo II es el que cometemos al aceptar H0 siendo H1 cierta (H0 falsa).
Decisión | H0 cierta | H0 cierta |
Acepto H0 | Decisión correcta | Error tipo II |
Rechazo H0 | Error tipo I | Decisión correcta |
Observación: Lo ideal sería que P(Error tipo I)=P(Error tipo II)=0
Definición: Llamamos nivel de significación ð un nº fijo a de manera que P(Error tipo I) " ð
Definición: Llamamos potencia del test a la probabilidad de rechazar H0 siendo H1 cierta
Decisión | H0 cierta | H0 cierta |
Acepto H0 | Decisión correcta 1-ð | Error tipo II ð |
Rechazo H0 | Error tipo I ð | Decisión correcta 1-ð |
Observación:
Procedimiento a seguir para un test de hipótesis
Contraste para la media de una población normal 2 conocida
Suponemos con varianza 2 conocida
El estadístico adecuado será
No tenemos argumentos para rechazar H0 si
Definición: p-valor es el menor nivel de significación para el que rechacemos H0
Test unilaterales:
Test bilaterales:
Cálculo de la potencia del test
Suponemos m.a.s.
Se mide la fiabilidad del test
Observación: Para calcular la potencia tenemos que tener una alternativa fija
Suponemos que la alternativa ð=6
1-ð = P(Rechazar H0 /H1 cierta)="
Observación: El test será fiable si
Segunda forma de calcular la potencia
Calculamos
Z0 No sigue una N(0,1)
Z0- Sigue una N(0,1)
Observación: En el caso de contraste bilateral como hay 2 zonas de rechazo, entonces calculamos ð
Tema 8
Inferencia para la Media
Suponemos que queremos estimar la media de una población en la que la varianza sea desconocida,
tn= distribución t de Student con n-1 grado de libertad
Intervalo de confianza:
Contraste de hipótesis:
X~N(µ,2) con 2 desconocida: tomamos una m.a.s. de tamaño n<30
Rechazo H0 si
Acepto H0 si
Inferencia para dos medias:
Suponemos que tenemos dos poblaciones
con 12 conocida; tomamos una m.a.s. de tamaño n1
con 22 conocida; tomamos una m.a.s. de tamaño n2
Estadístico:
Inferencia para dos poblaciones con varianzas poblaciones desconocidas (distintas)
Suponemos que tenemos dos poblaciones
con 12 conocida; tomamos una m.a.s. de tamaño n1
con 22 conocida; tomamos una m.a.s. de tamaño n2
Estadístico: Aproximamos 12 por S12 y 22 por S22
Ejemplo: “Altura”
(x1,y1),(x2,y2),...,(xn,yn)
Se puede representar como un eje de coordenadas
y=ax+b
La ideal recta que se busca es la que hace mínima la distancia a todos los puntos, pero al ser difícil de encontrar:
1.
2.
3. Es simétrica respecto de =Me=Mo
4. Tiene puntos de inflexión en - y +
5. f(x) no tiene primitiva
- +
Grafica de control
Cualquiera de los 2 es válido pero X se aproximará mas al valor ð
ð = P(Rechazar H0 /H0 cierta)
1-ð = P(Aceptar H0 /H0 cierta)
ð = P(Aceptar H0 /H1 cierta)
1-ð = P(Rechazar H0 /H1 cierta)
Fórmula General de k
Descargar
Enviado por: | Pibe Murcia |
Idioma: | castellano |
País: | España |