Fiabilidad

Guía práctica. Conceptos fundamentales. Función de riesgo. Distribuciones. Poisson. Modelos paramétricos

  • Enviado por: El remitente no desea revelar su nombre
  • Idioma: castellano
  • País: España España
  • 22 páginas
publicidad

FIABILIDAD

GUIÓN PRÁCTICA FIABILIDAD

  • Introducción:

    • Perspectiva histórica.

  • Conceptos fundamentales:

    • Noción de fallo, tasa de fallo, vida media y fiabilidad.

    • Introducción de distintos enfoques de la fiabilidad industrial.

  • Distribuciones de probabilidad en fiabilidad:

    • Normal, lorNormal.

    • Poisson.

    • Exponencial.

    • Weibull.

    • No paramétrica.

  • Análisis de fiabilidad de un sistema:

    • Pruebas de vida acelerada.

    • Fiabilidad de un sistema en serie y en paralelo.

    • Introducción al análisis de fiabilidad mediante árboles de fallo.

  • INTRODUCCIÓN.

  • La teoría de fiabilidad industrial estudia métodos que deben seguirse tanto en el diseño como en la recepción, el transporte y el uso de los productos para garantizar al máximo su rendimiento. Uno de los objetivos de la teoría de la fiabilidad industrial es el abandono de la subjetividad en las precisiones sobre duración de los productos a través de la cuantificación de dichas previsiones. Así expresiones como: “Esta construcción es más segura que aquella”, “Nuestro producto es más resistente que el de la competencia”, tienen que sustituirse por comulaciones más precisas, que necesitan del lenguaje estadístico.

    La fiabilidad en la ingeniería está orientada a los fallos. El problema reside en predecir si puede ocurrir un fallo al utilizar un dispositivo y cuándo ocurrirá. Esta información es útil para determinar las políticas de mantenimiento e inspección de una empresa, así como para determinar los plazos de garantía de los productos. También puede utilizarse para predecir costes debidos al mantenimiento y a los eventuales fallos que puedan ocurrir mientras el dispositivo está operativo.

    PERSPECTIVA HISTÓRICA

    El origen de la fiabilidad puede atribuirse a los estudios para poder evaluar la mortalidad derivada de las epidemias y los métodos actuariales desarrollados por las compañías de seguros, para determinar los riesgos de sus pólizas. Como herramienta para el cálculo del riesgo se utilizaba las tablas de vida.

    La primera tabla de vida data de 1693 y es debida a Edmun Halley.

    A principios de 1900 se utilizaban los métodos actuariales tanto para estimar la supervivencia de pacientes sometidos a distintos tratamientos como para estudiar la fiabilidad de equipamientos, en particular ferrocarriles.

    La teoría matemática de la fiabilidad se desarrolla por las demandas de la tecnología moderna y en particular por las necesidades de los sistemas complejos militares. El área de mantenimiento de máquinas es una de las áreas donde la fiabilidad se aplica con sofisticadas matemáticas. La renovación y los avances de la tecnología se utilizan muy pronto para resolver problemas de reparación e inspección de dispositivos.

    En 1939 Walodie Weibull propuso una distribución para describir la duración de materiales. Esta distribución es muy utilizada ya que es muy versátil, pues admite muchas formas de funciones de riesgo.

    En 1951 Epstein y Sobel empezaron a trabajar con la distribución exponencial como modelo probabilístico para estudiar el tiempo de vida de dispositivos. Este modelo de probabilidad se basa en el concepto de población de tamaño infinito o no acotado. La distribución exponencial tiene la propiedad de no tener memoria; es decir, en el cálculo de la probabilidad de que falle un dispositivo no influye en el tiempo que hace que funciona.

    La investigación de sistemas de fiabilidad en general se inició en 1961 a partir del artículo de Bimbaum, Esary y Sauders.

    En los años 70 el análisis de fiabilidad mediante los árboles de fallo FTA (Failure tree análisis) toma fuerza por problemas relacionados con la seguridad de las centrales nucleares.

    En los 80 el objetivo principal de los trabajos de fiabilidad está en las redes de comunicaciones. Esto fue motivado por el proyecto ARPAnet del departamento de defensa americano. El resultado de esto trabajos ha encontrado aplicación en los sistemas web e internet actuales.

    En los años 90, la investigación de la fiabilidad toma nuevas direcciones con M.B. Mendel. Los orígenes de su investigación se basan en las hipótesis de que muchas de las representaciones en el espacio muestral que se han considerado en la estadística no correspondan en ingeniería a los espacios euclídeos. Por ello, utiliza la geometría diferencial como base para la aproximación de los problemas de ingeniería estadística.

  • CONCEPTOS FUNDAMENTALES.

  • Estos conceptos se introducen haciendo referencia al lenguaje y la terminología de una prueba de vida industrial.

    Fiabilidad es un concepto con muchas connotaciones distintas. Cuando se aplica al ser humano, normalmente se refiere a la habilidad de las personas para hacer ciertas tareas de acuerdo con un estándar especificado. Por extensión la palabra se aplica a una pieza de un equipo, o a un componente de un sistema, y significa la habilidad de un equipo o componente para cumplir con la funcionalidad que se requiere de él. El origen del uso del término era cualitativo.

    En su aplicación actual, la fiabilidad es casi siempre un concepto cuantitativo, y esto implica la necesidad de métodos para medirla.

    Hay muchas razones por las que la fiabilidad necesita ser cuantificada. Quizás el más importante es el económico ya que la mejora de la fiabilidad cuesta dinero, y esto puede ser justificado sólo si se puede evaluar la no fiabilidad de un equipo. Para un componente crítico, del cual su operación funcional es esencial en un sistema, la fiabilidad puede ser medida como la probabilidad de que el componente opere con éxito, y la esperanza del costo de un componente no fiable se mide como el producto de la probabilidad de fallo y el costo de fallo. En una aplicación rutinaria, donde los componentes que fallan pueden ser reparados, la media del tiempo entre fallos (Mean Time Failures) es un parámetro crítico. En ambos casos, la necesidad de una definición probabilística de fiabilidad es evidente.

    FIABILIDAD Y FALLO.

    Función de fiabilidad:

    La probabilidad de fallo como una función de tiempo puede ser definida como:

    P(t≤t) = F(t), t > 0

    Donde t es una variable aleatoria que denota el fallo tiempo. Entonces F(t) es la probabilidad de que el sistema falle por un tiempo t. En otras palabras , F(t) es el fallo de la función de distribución. Si definimos fiabilidad como la probabilidad del suceso, o la probabilidad de que el sistema realice su función deseada en un cierto tiempo t, podemos escribirlo:

    R(t) = 1 - F(t) = P(t > t) (TIEMPO DE VIDA)

    Donde R(t) es la función de fiabilidad.

    Si el tiempo de fallo es una variable aleatoria t entonces f(t) tiene una función de densidad:

    La fiabilidad (Reliability) de un producto se define como la probabilidad de que un dispositivo desarrolle su función con ciertas condiciones, durante un periodo de tiempo establecido. El valor de esta probabilidad se denota por R.

    Observación:

    La variable aleatoria duración de un dispositivo a veces no se mide en tiempo sino en otra magnitud que tiene un significado análogo, por ejemplo la fiabilidad de un cable puede referirse a la resistencia en Newton hasta la rotura, la de un neumático a los kilómetros rodados, la de una tostadora al número de ciclos, la de un motor al número de revoluciones, la de un equipo eléctrico a los kilovatios consumidos. De todas formas mantendremos la notación temporal para simplificar.

    Para no tener ambigüedades en la cuantificación de la fiabilidad es importante tener bien definido el concepto de tiempo de vida de un producto y tener identificado cuándo éste falla y de que clase de fallo se trata.

    La vida de un producto es el período de tiempo durante el que puede ser utilizado, en condiciones establecidas.

    Fallo (failure) es la pérdida de algunas de las propiedades del dispositivo que reduce, total o parcialmente, su funcionamiento.

    La manera en que se observa el fallo se denomina modo de fallo y el mecanismo de fallo (failure mechanism) se refiere al proceso químico-físico que da lugar al fallo. Por ejemplo nos puede interesar saber cuándo una pieza de un motor deja de funcionar de manera adecuada; en este caso debe precisarse muy bien cuál es el fallo. Si el fallo se detecta por el ruido del motor, se tendrá que definir como medirlo (en decibelios por ejemplo) y definir un límite superior de tolerancia, y cuando se supere el límite tenemos el fallo.

    Los fallos se pueden clasificar según la causa que lo provoca: fallo por uso indebido (misuse failure) cuando la causa es extrínseca al dispositivo, y fallo por debilidad inherente (inherent weakness failure) cuando la causa es intrínseca.

    Un sistema es un dispositivo formado por partes, la fiabilidad de las cuales es conocida. Estas partes se denominan componentes. En general, el fallo de un sistema se produce al fallar uno o varios componentes. Según sea el fallo, se denomina fallo primario (primary failure) cuando no es causado ni directa ni indirectamente por el fallo de otro dispositivo, fallo secundario cuando es causado por el fallo de otro dispositivo, y fallo por desgaste (wear-out failure) cuando es un fallo con una probabilidad de aparición que aumenta a medida que el tiempo pasa, resultado de una serie de procesos característicos del dispositivo.

    La distribución de probabilidad será distinta si los componentes se reparan o no, puesto que en un caso la variable aleatoria de interés es el tiempo entre fallos y, en el otro, el tiempo hasta el fallo.

    En los dispositivos que no se reparan, únicamente tiene sentido considerar tiempos de vida hasta el primer fallo, y la variabilidad de una unidad a otra da una distribución, que es objeto de estudio de la fiabilidad.

    Una característica de fiabilidad de la variable aleatoria T: tiempo hasta el fallo es la vida media hasta el fallo, MTTF ( mean time to failure).

    Si los dispositivos son reparados tiene sentido considerar el tiempo entre fallos consecutivos. La fiabilidad en este caso es más complicada, a menos que la distribución de probabilidad de tiempo entre fallos sea independiente de la edad del dispositivo.

    Una característica de fiabilidad de la variable aleatoria T: tiempo entre fallos consecutivos es el tiempo medio entre fallos MTBF (mean time between failure).

    En las aplicaciones sólo se dispone de un valor aproximado de estos parámetros, obtenido por un procedimiento estadístico de estimación más o menos complejo. Estos valores están muchas veces incluidos en la especificación de un producto, y pueden figurar en una relación contractual entre un cliente y un proveedor, o servir de criterio para una homologación. Es importante concretar de qué forma se obtiene una característica de fiabilidad. Un lenguaje preciso y preferiblemente normalizado ayuda a evitar malentendidos cuando se utilizan valores de las características de fiabilidad.

    Hay distintas formas de aproximar una característica de fiabilidad. En general se distinguen cuatro formas distintas: observada, evaluada, extrapolada y predicha.

    Fiabilidad observada (observed reliability) de un dispositivo que no se repara en un tiempo dado t, es la proporción de dispositivos de una muestra que hacen su función de manera satisfactoria una vez transcurrido este tiempo t. Puede expresarse en porcentaje.

    Fiabilidad evaluada (assessed reliability) hace referencia a valores obtenidos a partir de datos experimentales por un tratamiento estadístico. El resultado de este tratamiento puede dar distinto a la fiabilidad observada.

    Fiabilidad extrapolada (extrapolated reliability) se refiere a un valor obtenido al extrapolar o interpolar una fiabilidad observada o evaluada para poder obtener un valor aplicable a condiciones de estrés distintas, en que se van obteniendo resultados experimentales. Habitualmente, los valores extrapolados se basan en pruebas de vida aceleradas.

    Fiabilidad predicha (predicted reliability) designa un valor aplicable a un sistema, que se obtiene a partir de los valores observados, evaluados o extrapolados de sus componentes.

    La tasa de fallo (failure rate) es una característica de la fiabilidad que se puede interpretar como la velocidad a la que se producen los fallos, la fracción de unidades de un producto que fallan por unidad de tiempo.

    Si la tasa de fallo es constante se designa por λ y si es función del tiempo t se designa por h(t) y se llama función de riesgo (Hazard funtion).

    La tasa de fallo es una magnitud recíproca de la vida media, ya que generalmente representa un número medio de fallos por unidad de tiempo.

    Igual que las otras características de fiabilidad, la tasa de fallo para un tiempo dado pude ser observada, extrapolada, etc. Es también llamada tasa de fallo autentico (trae failure rate). La fiabilidad R(t) representa la proporción de unidades que no han fallado en el instante t.

    TIPOLOGÍAS DE LA FUNCIÓN DE RIESGO.

    • Otra cosa que se debe resaltar es la función de riesgo en forma de curva de bañera (bath-tub hazard), que tiene un riesgo inicial de decreciente pero eventualmente pasa a un riesgo creciente. Los dispositivos con baja calidad tienden a tener una fallada precoz, dejando paso a los de alta calidad. Estos tienden ha hacer bajar y a continuación aplanar la función de riesgo en la etapa de su vida para la cual ha sido diseñada. Después de este período, debido a la fatiga, empieza a crecer, y causa una función de riesgo creciente.

    'Fiabilidad'

    Observaciones: en muchas situaciones de interés aplicado la mayoría de las unidades defectuosas son separadas (quizá como resultado del control de calidad) antes de empezar el período de observación con lo cual es difícil encontrar funciones de riesgo decreciente. La fiabilidad de algunos componentes electrónicos, puede ser tan alta que el equipo del que formaran parte quedará obsoleto antes de llegar a la fase de desgaste, por lo cual en este tipo de productos no interesa la etapa del período de envejecimiento.

    En algunos productos el período de fallo precoz no forma parte de su vida comercial, ya que se organiza la producción de forma que el fallo precoz se dé dentro de la fábrica. Por esto se somete a veces a dispositivo a una prueba de resistencia con estrés más grande del correspondiente a las condiciones de funcionamiento. Estas pruebas son típicas en la industria electrónica, y se llaman pruebas de burn-in. Y es por esto, que en muchos productos solamente interesa la etapa período de fallo con tasa constante.

    ENFOQUES DE LA FIABILIDAD.

    Para finalizar este capítulo, y a manera de síntesis podemos decir que la fiabilidad en la industria se puede enfocar desde un punto de vista cuantitativo o cualitativo.

    Desde el punto de vista cuantitativo, tenemos herramientas como la curva de fiabilidad, la curva de degradación o las características de fiabilidad para cuantificar el comportamiento de la vida de los dispositivos. Estos conceptos ya han sido desarrollados a lo largo de este capítulo.

    Desde el punto de vista cualitativo las herramientas que se utilizan en la industria son el Análisis de modo de fallo y sus efectos (AMFE) y los análisis por árboles de fallos FTA (failure tree analysis).

    Fue desarrollado por la NASA en el proyecto Apolo a mediados de los años 70. Después de las aplicaciones en los viajes aéreos y espaciales así como en las centrales nucleares se utilizó de inmediato en la industria de la automoción; actualmente es una herramienta de uso habitual en la industria.

    Es una técnica de carácter preventivo que debe llevarse a cabo en las fases de diseño y desarrollo de productos y servicios a lo largo del proceso de fabricación para que se puedan detectar y prevenir los posibles modos de fallo potenciales.

    En el manual Potencial Mode and Effects Analysis de la QS 9000, normativa del sector de la automoción Ford, Opel y General Motors, pueden encontrarse las ideas fundamentales de esta técnica y la manera de aplicarlas.

  • DISTRIBUCCIONES DE PROBABILIDAD EN FIABILIDAD.

  • En muchas áreas de la estadística aplicada, la distribución Normal es el punto de partida natural para modelar la variable aleatoria de interés. Puede resultar de consideraciones puramente pragmáticas o del argumento teórico basado en el Teorema del Límite Central, el cual nos dice que si una variable aleatoria es la suma de un gran número de efectos pequeños, entonces la distribución es aproximadamente Normal. En el contexto de fiabilidad, el caso de la Normalidad tiene una importancia menor. Por un lado los tiempos de vida y las resistencias a la rotura son cantidades inherentemente positivas y además para una variable aleatoria de estas características surge de forma natural la idea de que la aparición de fallos puede seguir el proceso de Poisson, con lo que en este caso la distribución exponencial es más adecuada.

    En la práctica, los modelos utilizados en fiabilidad son generalizaciones de la distribución exponencial, tales como las distribuciones Gamma y Weibull.

    Otro aspecto distintivo del análisis estadístico de los datos de fiabilidad es el papel central que juega la función de fiabilidad y la función de riesgo (Hazard Function) y la natural aparición de datos censurados.(1)

    (1) El tratamiento estadístico en algunos casos requiere de las técnicas de muestras estadísticas no completas, puesto que la información de que se dispone sobre algunas unidades es que el fallo no ha ocurrido durante el tiempo de la prueba, denominado tiempo total de test. Estos datos se llaman censurados.

    LA DISTRIBUCIÓN NORMAL

    Como distribución del tiempo de vida.

    Tiene dos parámetros y está tabulada.

    Inconvenientes: dar valores negativos con probabilidad negativa

    DISTRIBUCIÓN LOG-NORMAL

    Representa la evolución del tiempo de la tasa de fallos en la primera fase de vida de un componente.

    Permite fijar tiempos de reparación de componentes

    Desribe la dispersión de las tasas de fallos de componentes:variable independiente tasa de fallos

    Propiedades

    Depende de dos parámetros.

    Idónea para parámetros que son a su vez producto de numerosas cantidades aleatorias.

    Asigna a valores de la variable < 0 la probabilidad 0 y de este modo se ajusta a las tasas y probabilidades de fallo.

    La esperanza matemática es mayor que su mediana, dando más importancia a valores grandes de las tasas de fallo que la normal, tendiendo a ser pesimista.

    Variable independiente :el tiempo

     Función de densidad:

    s = desviación estándar en la distribución normal

    tm = tiempo medio t= tiempo

    Para efectuar cálculos esta fórmula se suele escribir de la forma:

    Siendo fN la forma estándar de la función de densidad de la distribución normal y puede ser obtenida a partir de tablas.

    Función de fiabilidad:

    Q(t) es la función acumulativa de la probabilidad y aplicada a los fallos de las componentes, representa la probabilidad de que el componente falle antes de t.

    Y la tasa de fallos:

    Variable independiente : La tasa de fallos

    Función de densidad:

    m* y s2 son la esperanza o media y la varianza, respectivamente, de los logaritmos de las tasas de fallos.

    •Media:

    •Varianza:

    •Expresiones de algunos de los parámetros de la Log-normal:

    •Factor de dispersión D:

    EL PROCESO DE POISSON.

    El proceso de Poisson modeliza los tiempos entre sucesos aleatorios. Supongamos que se observan una serie de sucesos aleatorios; concretando, supongamos que los sucesos son fallos de unidades, de forma que las observaciones son tiempos entre fallos, por ejemplo en sistemas reparables. Las hipótesis naturales, las cuales pueden o no satisfacerse en algún ejemplo particular, son:

    - Los fallos que ocurren en intervalos de tiempo disjuntos son estadísticamente independientes.

    - La tasa de fallo (media de fallos por unidad de tiempo) es constante, así que no depende del intervalo examinado en particular.

    Cuando ambas hipótesis se cumplen, entonces el proceso de aparición de fallos se llama proceso de Poisson con tasa de fallo λ.

    El proceso de Poisson tiene dos propiedades importantes:

    - El número de fallos X en un intervalo de longitud t sigue una distribución de Poisson con media λt, de tal forma que

    k≥0

    - Los tiempos entre fallos sucesivos son variables aleatorias independientes, cada una de las cuales sigue una distribución exponencial con parámetro λ, así que:

    Pr(tiempo de fallo > t) = , 0<t<

    El tiempo medio entre fallos (MTBF) es .

    La primera propiedad está relacionada con la distribución de Poisson de parámetro λ. Además el proceso de Poisson es un buen modelo para aquellos sistemas con muchos componentes que pueden fallar, pero que la probabilidad de fallo de cada uno de ellos es pequeña. Este fenómeno es conocido con el nombre de sucesos raros.

    La segunda propiedad sugiere la distribución exponencial para tiempos de vida.

    Muchos sistemas pueden mejorar o empeorar con e tiempo. En este caso se necesitan modelos más generales como los procesos de Poisson no homogéneos (Nonhomogeneous Poisson Process) donde la tasa de fallo no es constante. Este tipo de modelos es particularmente importante en el análisis de sistemas reparables.

    MODELO EXPONENCIAL

    El modelo exponencial es bien conocido. Su función de densidad es :

    Sea T = “Tiempo de vida de una unidad”

     Dada la función de densidad podemos obtener las funciones asociadas al Análisis de datos de supervivencia:

    Probbilidad de supervivencia

    Supervivencia :

    Dado que la densidad de fallos es f (t), el tiempo T que se espera que transcurra hasta un fallo viene dado por:

    Tasa de fallos:

    El modelo exponencial es el único que tiene tasa de fallos constante: la probabilidad de

    fallar condicionada a que el elemento esté en uso no varía con el tiempo. Esta propiedad se

    denomina falta de memoria.

    Ejemplo:/

    Durante el programa de mantenimiento anual que realiza una empresa se han recogido los datos de fallos de un conjunto de 50 válvulas mecánicas habiendo fallado 2 de ellas. Para reprogramar el programa de mantenimiento preventivo que se lleva actualmente en la empresa se desea saber :

    Tasa de fallos anual para dichas válvulas.

    Qué probabilidad tiene una válvula de fallar antes de alcanzar un tiempo de funcionamiento de 4 meses.

    Cuál será la probabilidad de que la una válvula esté en funcionamiento al cabo de 6 meses.

    Cuál será la probabilidad de que el tiempo de vida esté comprendido entre 4 y 6 meses.

    a.

    Determinar un intervalo de vida con un nivel de confianza (centrado) del 90 %.

    La tasa de fallos será la relación entre el número de válvulas falladas y el número total de válvulas en funcionamiento:

    La probabilidad de que una válvula falle antes de un número determinado de meses viene expresado por la infiabilidad Q (t):

    Q(t)= 1 - exp ( - λt)
    λ= 4. 10-2

    t tiempo expresado en años

    Luego, para t = 1/3, se tendrá:
    Q (t) = 1 - exp (- 4.10 -2 . 1/3) = 1 - 1 / 1,013288 = 1 - 0,986886 = 0,013114%.


    La probabilidad de que el dispositivo falle antes de cuatro meses será del 1,3114 %.

    La probabilidad de que no se haya producido el fallo antes de los 6 meses será la fiabilidad para ese tiempo, que resultará

    R (t) = exp (-λt) = exp (- 4. 10-2 . 1/2) = exp (- 0,002) = 0,998
    Esto quiere decir que existe una probabilidad del 99,80 % de que una válvula no se averíe antes de los seis meses

    La probabilidad de que el tiempo de vida esté comprendido entre 4 y 6 meses será la diferencia entre la probabilidad de que falle antes de los 6 meses y la de que falle antes de los 4 meses; matemáticamente será la diferencia entre las infiabilidades de ambos periodos de tiempo sea:

    Pr=Q(1/2)-Q(1/3)=[1-exp(-1/2)]-[1-exp(-1/3)]=exp (- 1/3) - exp (-1/2) = 0,1124 (11,24 %)


    Representamos gráficamente lo anterior en la figura 4 y la figura 5.

    Para determinar un intervalo de vida con una confianza del 90 %, partimos de la figura 6 y la figura 7.

    Luego, debe verificarse que los valores de la infiabilidad para los momentos t, y t 2 serán respectivamente :
    Q(t1)=0,05 Q(t2)=0,95
    Sustituyendo las expresiones anteriores por sus respectivos valores
    1-exp(-t1)=0,05 1-exp(-t2)=0,95
    Despejando:
    exp(-t1)=0,95
    exp(-t2)=0,05
    Invirtiendo: (es decir 1/0,95 y 1/0.05)
    exp(t1)=1,06 de donde t1=0,05826años
    exp(t2)=20 de donde t2=2,9957años
    Luego, para un nivel de confianza del 90 %, la vida de la válvula estará comprendida entre 0,05826 y 2,9957 años.

    MODELO DE WEIBULL

    Muy utilizado en la práctica por su versatilidad

    El modelo Weibull tiene la siguiente función de densidad

    Dada la función de densidad podemos obtener las funciones asociadas al Análisis de datos de supervivencia:

    Función de fiabilidad:

    Tasa de fallos:

    Función de riesgo

    Donde * y * son parámetros positivos, el primero un parámetro de escala y el segundo un parámetro de perfil o de forma

    Según sean los valores de beta puede representar tasas de fallo crecientes , decrecientes o constantes:

    *<1: La función de riesgo o la tasa de fallo disminuye al aumentar el tiempo. Este comportamiento es propio de los fallos prematuros. Productos con esta tasa de fallo suelen ser verificados en fábrica para que los fallos nos e produzcan en el mercado

    *=1: (modelo exponencial) La función de riesgo es constante. Una tasa de fallo constante es una característica de los fallos ocasionales. En esta situación el número de fallos y el momento en que ocurren no depende del tiempo que el dispositivo funciona.

    Si β > 1 la función de riesgo es creciente. Esto indica que los fallos son debidos al envejecimiento, a la fatiga o al desgaste. En particular si 1 < β < 2, la función de riesgo crece rápidamente al principio y muy poco al final; para β = 2 la función de riesgo crece linealmente con el tiempo; para β > 2 crece poco al principio y rápido posteriormente, es decir, el intervalo de tiempo en el cual se produce un fallo es cada vez menor. Es recomendable que los dispositivos con tasa de fallo creciente tengan un plan de mantenimiento preventivo.

    Ejemplo:

    T = duración de una marca de bombilla de bajo consumo en años (20 datos):

    1.53 0.30 1.87 0.08 1.67 1.48 3.41 2.95 1.71 3.20

    0.22 2.31 0.45 3.79 2.76 0.73 0.92 2.81 3.03 2.41

    Las duraciones varían de 0.08 a 3.79

    Duración media: 1.88

    Desviación típica: 1.15

    Resolución:

    Contrastes de bondad de ajuste a una Weibull

    P-valores (mayores que 0.2) nos indican que podemos aceptar la hipótesis de que los datos provienen de una Weibull.

    Estimación de los parámetros:

    Se puede inferir que, con una probabilidad superior al 40 %, una bombilla de esta marca durará más de dos años (R(2) = 0.41).

    Se puede inferir que el 80% de las bombillas durarán aproximadamente entre 0.5 y 3.5 años, ya que R(0.5) 0.9, R(3.5) 0.1

    A partir del cuarto año, la tasa de fallos es superior a la unidad.

    MODELOS PARAMÉTRICOS

    El proceso de ajuste de modelos estadísticos a

    partir de datos muestrales es simple:

    Se estudian los datos mediante técnicas de

    estadística descriptiva

    Se elige un modelo de distribución de probabilidad

    Se estima

    Se realiza una diagnosis para detectar posibles

    errores.

  • PRUEBAS DE VIDA ACELERADA.

  • Las pruebas de vida acelerada son aquellas que se realizan a un nivel de estrés superior al de las condiciones ordinarias de funcionamiento, con el fin de provocar la aparición de fallos en un tiempo más corto. Estas pruebas se realizan exponiendo los productos a condiciones más severas que las usuales. Generalmente implica aumentar la temperatura, el voltaje, la presión, la vibración, el tiempo operativo, etc.

    Las pruebas de vida acelerada pueden usarse tanto para evaluar la capacidad de un componente para satisfacer los requisitos de fiabilidad como para tener un medio más rápido de detectar debilidades potenciales o modos de fallo.

    Por ejemplo es habitual en la industria hacer estudios del número de ciclos hasta el fallo de aparatos como lavadoras, tostadoras, etc., de forma seguida, que condensan el envejecimiento correspondiente de 6 meses a 10 años. En estos casos no es necesario un aparato matemático especial para determinar la relación de tiempo vida, puesto que se extrapola en función del tiempo operativo de los mismos.

    La relación entre los dos fallos y la tasa de fallos en condiciones aceleradas, y las correspondientes en condiciones normales de funcionamiento, debe conocerse a través de datos históricos o a partir de datos estadísticos, que relacionen el tiempo de vida de los componentes con el estrés a que están sometidos.

    Son bien conocidas, por ejemplo, las tasas las de fallo en función de las tensiones aplicadas y las temperaturas de funcionamiento de condensadores y resistencias, y las relaciones pueden usarse para evaluar unidades de un solo lote, tipo o fabricante. Una relación frecuentemente usada es que la tasa de fallo se duplica aproximadamente por cada subida de 10ºC. Puesto que estos componentes suelen ser muy fiables, se usan temperaturas elevadas en combinación con sobre tensiones, a fin de determinar tasas de fallo en un tiempo razonable.

    Los ensayos acelerados de nuevos productos es una técnica común y se usa para detectar modos de fallo potenciales.

    Las pruebas de vida aceleradas con fines de valoración se restringen a las piezas y los componentes, de los cuales se conocen las relaciones entre las tasas de fallo en condiciones normales y de estrés. Un registro importante es que las condiciones de estrés no puedan introducir nuevos modos de fallo.

    Cuando las relaciones estén bien definidas, las pruebas de vida acelerada pueden dar estimaciones de las características de fiabilidad a una fracción del coste de las pruebas ordinarias, y son ventajosas.

    La relación entre pruebas aceleradas y normales puede ser relativa a una tasa de fallo, a una tasa de degradación o cambio de una característica, o al tiempo de desgaste. Siempre que se conozca la relación, los datos en condiciones aceleradas pueden reducirse a datos en condiciones normales, generalmente multiplicados por algunas constantes apropiadas.

    De todas formas, para ciertos componentes se conocen las constantes a partir de estudios documentados. El manual MIL-HBK-217 es la fuente más consultada en la industria electrónica.

    Hay otra aplicación en que se usan las pruebas de vida aceleradas, las pruebas conocidas como burn-in, de purga, que causan el efecto de eliminar las unidades potencialmente infiables sin afectar a las unidades buenas. Un ejemplo de esta prueba es el ensayo de aceleración a 20.000 g, donde g es la aceleración de la gravedad 9,81m/s², que se aplica a los semiconductores (hay algún fabricante que ha aumentado incluso este nivel de g en un 50%, hasta 30.000 g en algunas unidades, sin observar efectos medibles sobre la actuación o longevidad de las unidad es que pasan la prueba). Tal ensayo sirve para eliminar las unidades que tienen una debilidad mecánica en potencia y una fiabilidad inferior. El ensayo puede también hacer que fallen ciertas unidades cuya fiabilidad hubiera sido satisfactoria, pero, imponiéndolo a todas las unidades, la fiabilidad general resultante del lote después del ensayo es considerablemente superior a la que hubiera sido de no haberse realizado el ensayo. Es importante que las unidades que superan la prueba no se hayan degradado.

    MODELOS DE PRUEBAS DE VIDA CON ESTRÉS CONSTANTE:

    • Modelo Arrhenius-Exponencial.

    • El modelo potencia inversa de Weibull.

    ANÁLISIS DE LA FIABILIDAD DE UN SISTEMA.

    Un sistema es, en este contexto, un dispositivo formado por partes cuya fiabilidad es conocida. Estas partes se llaman componentes.

    La actuación de un sistema puede analizarse como función de componentes individuales. Si los datos son recogidos en componentes individuales, entonces es posible hacer inferencia estadística sobre la fiabilidad de estos componentes, pero aún queda el problema del cálculo de la fiabilidad del sistema a partir de la fiabilidad de sus componentes que es lo que se desarrolla en este apartado.

    En general el fallo de un sistema se produce al fallar uno o varios componentes. El problema básico de la fiabilidad de sistemas consiste en el cálculo de la fiabilidad R(t) de un sistema a partir de la fiabilidad de sus componentes.

    SISTEMAS COHERENTES.

    La clase más conocida de sistemas son los sistemas coherentes. El concepto fundamental de los sistemas coherentes (coherent system) es que las componentes se encuentran, individualmente, en uno de los dos estados, funcionan o fallan, y el estado de los sistemas se representa en términos de los estados individuales de cada componente a través de las funciones de estructura (structure function). Ejemplos de sistemas coherentes son los sistemas enserie, en paralelo o mixtos.

    EJEMPLO DE SISTEMA EN SERIE.

    Es aquel para el que el fallo del sistema equivale al de un solo componente.

    Ejemplo de un sistema en serie formado por tres componentes:

    EJEMPLO DE SISTEMA EN PARALELO.

    Es aquel para el cual se produce un fallo cuando todos los componentes fallan.

    Ejemplo de un sistema en paralelo formado por tres componentes:

    EJEMPLO DE SISTEMA K ENTRE n

    Es un sistema más general que enlaza los sistemas serie y los sistemas paralelos. En este caso el sistema está operativo si por lo menos K componentes de entre n componentes están operativos. K = n corresponde a un sistema en serie y K = 1 corresponde a un sistema en paralelo.

    El sistema 2 entre 3 de la figura del ejemplo anterior está operativo si por lo menos dos componentes de una de las tres cadenas están operativos. En este caso la figura del primer ejemplo debería contener la restricción que los componentes fueran de la misma cadena.

    Ejemplo de un sistema 2 entre 3.

    EJEMPLO DE FIABILIDAD DE UNA RED.

    Este es un ejemplo simplificado de un problema de la fiabilidad de una red (network reliability), en la que el sistema puede ser representado por una red de componentes y el estado del sistema depende de la existencia de un camino a través del cual los componentes funcionan.

    Un sistema consiste en un computador central que tiene conectados tres terminales. El computador tiene conectada una impresora y también es posible imprimir en otra unidad central. El sistema se considera que funciona si es posible utilizar el computador y tener una impresora de salida conectada. Para esto se requiere que: (a) funcione el computador central, (b) al menos una terminal de las tres funcione, y (c) que funcione la impresora local o que la conexión con otra unidad que tiene conectada la impresora funcione.

    Este sistema puede representarse gráficamente donde 1, 2 y 3 son las tres terminales y 4 el computador, 5 la impresora local y 6 la otra unidad. Y en este caso

    A partir de este sencillo ejemplo se puede apreciar el potencial que uno puede tener para sistemas más complicados. Por ejemplo, un sistema computacional de una compañía o un universidad puede representarse mediante diagramas de este tipo donde los sistemas, mucho más grandes y complejos, pueden requerir millares de componentes y una estructura de redes complicada. También las centrales nucleares han sido modeladas por redes de este tipo.

    Este es un ejemplo de un sistema computacional.

    FIABILIDAD DE UN SISTEMA EN SERIE CON TASA DE FALLO CONSTANTE.

    Si los componentes con independientes, la fiabilidad de un sistema en serie se calcula por la regla del producto.

    Regla del producto: un sistema en serie, con los componentes independientes, funciona sí y solo sí todos los componentes funcionan:

    Hablamos de un sistema en serie con fallo constante cuando todos los componentes tienen tasa de fallo constante, es decir, cuando el tiempo de vida de los componentes se distribuye exponencial de parámetro , y por la regla del producto:

    O, equivalentemente, , donde .

    Un sistema en serie con los componentes con la tasa de fallo constante tiene la tasa de fallo constante e igual a la suma de las tasas de fallo.

    REDUNDANCIA.

    La redundancia es el principal método para aumentar la fiabilidad de un sistema y se define como la existencia de más de un medio para realizar una determinad función.

    La redundancia puede implicar el uso de dos o más componentes o conjuntos idénticos, de forma que cuando uno falla hay otros que realizan la función, o bien se pueden incluir medios diferentes para realizar la función. Una rueda de repuesto de un automóvil es un ejemplo de pieza redundante; el sextante manual usado para la navegación de un vehículo espacial en caso de fallo de los controles automáticos es un ejemplo del segundo método.

    En ambos ejemplos, el componente redundante (la rueda o el sextante) se usa sólo cuando falla el sistema primario. Este uso se llama redundancia secuencial.

    Otros sistemas redundantes se hacen funcionar simultáneamente, de modo que todos los sistemas utilizables (no fallados) realicen la función durante todo el tiempo. Este tipo se llama redundante en paralelo activo. El uso de cuatro motores de un avión es un ejemplo de éste.

    La redundancia secuencial proporciona teóricamente más fiabilidad que la redundancia en paralelo activo si las funciones de detección de fallos y conmutación son extremadamente fiables. Ambos tipos dan una fiabilidad del sistema mucho mejor que el sistema no redundante. A título de ejemplo, algunos cálculos de fiabilidad de sistemas con componentes redundantes serían:

    • La norma MIL-STD-721B define la redundancia activa como la redundancia de los sistemas en los que los objetos redundantes operan simultáneamente, en lugar de ser activados cuando son necesarios.

    • Y la redundancia secuencial (standby) se define como la redundancia de los sistemas en los que el medio alternativo de realizar una función no se activa hasta que es necesario, y es activado por el fallo del medio primario de realizar la función. Un ejemplo de éste sería un avión trimotor, que funciona siempre que funcionan dos motores.

    ANÁLISIS MEDIANTE ÁRBOLES DE FALLO.

    La fiabilidad en redes (Network reliability) se basa en una representación gráfica abstracta de un sistema. Básicamente está orientada al suceso éxito, pero en la práctica es mejor orientarla al fallo.

    Muchas veces un árbol de fallos (o árbol lógico) es el mejor dispositivo para deducir cual es el mayor evento que puede producir un fallo en el sistema.

    El análisis mediante árboles de fallo, abreviadamente FTA (failure tree analysis), es una técnica que utiliza gráficos, denominados árboles de fallo, que representan con operadores Booleanos (“Y” y “O”) las combinaciones de estados lógicos susceptibles de conducir un sistema a una situación no deseada.

    CONSTRUCCIÓN DE UN ÁRBOL DE FALLOS.

    La construcción de árboles de fallos es uno de los principales métodos de sistemas de análisis de seguridad. Fue desarrollado en los años 60 en la industria aeroespacial. Puede ser una herramienta de diseño muy útil. Se pueden identificar los accidentes potenciales en el diseño de un sistema y puede ser de ayuda para eliminar cambios de diseño costosos y retornos. También se utiliza como herramienta de diagnóstico para predecir las causas de fallo más probables de un sistema en el caso que deje de funcionar.

    Un árbol de fallos es un modelo lógico grafico donde se puede representar varias combinaciones de los posibles sucesos, de fallo y normales, que ocurren en un sistema, donde el suceso no deseado se sitúa arriba del todo del árbol. Entre los elementos de un sistema se incluyen: hardware, software, y también factores humanos y ambientales.

    Para construir un árbol de fallos de un sistema siempre se empieza definiendo el suceso principal. Antes de empezar a construirlo debe entenderse el sistema, profundizando en las limitaciones del entorno y del problema. Una vez construido, se analiza el árbol y, para que tenga aplicabilidad, deben estudiarse las medidas correctivas y adoptarse las que se consideren oportunas para evitar o disminuir la probabilidad de fallo del sistema.

    SÍMBOLOS DE LOS SUCESOS.

    El rectángulo define un suceso que es la salida de una puerta lógica, y depende del tipo de puerta lógica y de las entradas de la puerta lógica. Un suceso de fallo es un estado del sistema no normal. No necesariamente ha de ser debido al fallo de un componente. Por ejemplo, el suceso fallo puede ocurrir debido a un error de comando o de comunicación.

    El círculo define un fallo inherente básico de un elemento del sistema cuando opera sin las especificaciones diseñadas. Nos referimos a este suceso como suceso básico primario.

    El rombo representa aquel fallo, distinto del fallo primario, que no interesa desarrollar más (lo denominamos suceso básico secundario).

    Los sucesos básicos, pues, son primarios (círculo) o secundario (rombo).

    El suceso interruptor representa un suceso que, por diseño, se espera que ocurra siempre (on) o que no ocurra nunca (off).

    Suceso de fallo

    Suceso básico primario

    Suceso básico secundario

    Suceso interruptor

    PUERTAS LÓGICAS.

    Los árboles de fallo utilizan puertas O (OR gates) y puertas Y (AND gates) la puerta O es una conexión lógica entre un suceso combinado y diversos sucesos elementales, lo que significa que el suceso combinado tiene lugar cuando se da al menos alguno de los sucesos elementales. La puerta Y es una conexión lógica entre un suceso combinado y diversos suceso elementales, lo que significa que el suceso combinado tiene lugar cuando se dan simultáneamente todos lo sucesos elementales.

    Puerta O

    Puerta Y

    22

    A

    B

    C

    1

    2

    3

    4

    5

    6

    +

    Probabilidad de funcionamiento

    Diferencia de infiabilidades

    Probabilidad de funcionamiento del 90% entre t1 y t2