Química


Análisis Instrumental


TEMA 1:

METODOLOGÍA ANALÍTICA

1.1. INTRODUCCIÓN

Química analítica: estudia el conjunto de principios, leyes y términos cuya finalidad es la determinación de la composición química de una muestra natural o artificial. Este conjunto de leyes y términos utilizados para dicho fin, constituyen el análisis químico.

La química analítica se divide en dos ramas principales:

  • Cualitativa ! ¿ Qué hay ?

  • Cuantitativa ! ¿ En qué cantidad ?

El análisis cualitativo determina que tipo de elementos o grupos químicos se encuentran en la muestra analítica.

El análisis cuantitativo se refiere a la determinación de las cantidades de los mismos en la muestra.

Serán pues, métodos de la química analítica, aquellos procedimientos que permitan conseguir los fines de determinación e identificación.

1.2. PROCESO ANALITICO

El proceso analítico sigue una secuencia lógica de etapas:

1.2.1. Planteamiento del problema

Un primer paso que debe preceder al método analítico, es una definición clara del problema analítico, de manera que, el método de trabajo seleccionado dependa de la respuesta a las siguientes cuestiones:

  • Intervalo de concentración de trabajo:

  • Puede limitar el número de métodos posibles.

    A menor concentración más sensible a de ser el método empleado.

  • ¿ Qué grado de exactitud se requiere ?

  • Es preciso tener en cuenta que el tiempo necesario para llevar a cabo un trabajo, aumenta de forma exponencial con la exigencia de mayor exactitud, así, para mejorar la fiabilidad de un resultado desde, por ejemplo (desde un 2 % hasta un 0'2 %), el tiempo consumido por el analista puede aumentar en un factor de 100 o más, lo que implica que, el nivel de exactitud exigido, con frecuencia, determina el proceso analítico a seguir.

  • ¿ Qué otros componentes hay en la muestra ?

  • Para elegir un método de determinación de una ó más especies, es necesario saber, que otros compuestos lo acompañan, a fin de identificar ciertas interferencias, es posible que tengamos una muestra a parte de preguntar A y B, es necesario C.

  • ¿ Qué propiedades físico-químicas tiene la muestra ?

  • El químico también debe considerar el estado físico de la muestra para determinar se debe homogeneizarla, o si puede alterarse su composición en las condiciones de laboratorio, así como, el tratamiento más adecuado para su disolución sin pérdida de analito.

  • ¿ Cuántas muestras se analizan ?

  • Es un importante criterio en la selección de un método, ya que:

    • Para un gran número de muestras se puede emplear un tiempo considerable. El coste de estas operaciones se repartirá entre todas las muestras.

    • Para un número reducido de muestras, será menos costoso un procedimiento más largo y tedioso, que suponga un mínimo de estas operaciones.

    Ejemplo:

    Dos clientes, quieren determinar el porcentaje de Hg en la muestra de cada uno:

    A ! Quiere conocer con gran exactitud el contenido en Hg en un cargamento de mineral donde Hg es compuesto mayoritario, por lo que, podrá proveer al laboratorio muestra en cualquier proporción.

    B ! Contenido en Hg en una moneda antigua con Hg a un nivel de ppm, exigiendo que no sea dañada la moneda.

    Aún cuando el problema es el mismo, el método analítico tendrá grandes diferencias:

    A ! Podrán utilizarse métodos gravimétricos muy exactos, pero que destruyen la muestra.

    B ! Será necesario someter la muestra a un bombardeo de e- , seguido de espectroscopia con rayos , de manera que no se destruya la muestra, aunque el método es muy costoso.

    1.2.2. Obtención de la muestra para el análisis

    Muestra: porción pequeña seleccionada para su examen, de una cantidad de material que es mucho mayor.

    A la hora de recoger la muestra es de especial atención que esta sea representativa de una mucho mayor. Su composición debe reflejar lo mejor posible una porción representativa de todo el material.

    Dentro de la muestra se hayan distribuidos constituyentes, es decir, las sustancias que trataremos de determinar. Según el porcentaje de estos en la muestra, hablamos de:

    • Constituyentes principales: > al 1% del total.

    • Constituyentes secundarios : (0'1 - 1) % del total.

    • A nivel traza: < al 0'1% del total.

    • Ultratrazas: a nivel de ppm.

    La cantidad disponible de un constituyente para un procedimiento analítico elegido, depende tanto del nivel del constituyente como del tamaño de la muestra. Así, según el tamaño de la muestra sea macroscópica, semimacroscópica, semimacroscópica, microscópica, submicroscópica o ultramacroscopica, las cantidades del constituyente se hacen cada vez menores se utilizan técnicas analíticas cada vez más sofisticadas.

    Método

    Peso de muestra (mg)

    Volumen de muestra (ml)

    Macroanálisis

    > 100

    > 10

    Semimicroanálisis

    10 - 100

    1 - 10

    Microanálisis

    1 - 10

    0'1 - 1

    Ultramicroanálisis

    < 1

    < 0'1

    Muestreo: proceso por el cual se obtiene una fracción representativa siendo a menudo esta etapa la más difícil de todo el procedimiento analítico, y la que limita la exactitud de todo el procedimiento.

    Conceptos:

    • Lote: material completo del que se toman las muestras. Ej.: todo el agua de un lago.

    A menudo, los lotes están formados por unidades muéstrales. Ej.: Cajas individuales de un camión.

    • Muestra Bruta: se obtiene del lote para análisis o almacenamiento. Suele seleccionarse de modo que sea representativa del lote y su elección es crítica para realizar un análisis válido. De la muestra bruta se toma una muestra de laboratorio.

    • Muestra de laboratorio: más reducida. Debe tener exactamente la misma composición de la muestra bruta. Para realizar los análisis individuales se emplea alicuotas o porciones de prueba de la muestra de laboratorio.

    La identificación de la población de la que debe obtenerse la muestra es inmediata, mientras que la obtención de la muestra bruta, muestra de laboratorio, no son sencillas, y pueden requerir más esfuerzo e ingenio que cualquier otra etapa del esquema general de todo el análisis.

    Cuando las muestras son homogéneas (igual composición en todas sus partes), la variación en los resultados debe reflejar solamente, la habilidad del analista y la variabilidad inherente del método.

    En la realidad las muestras suelen ser heterogéneas (distinta composición en sus partes), con lo que el problema se complica en gran medida. Cuando se analiza un material heterogéneo, el resultado final depende de la forma en que se elijan las muestras del material, y de cómo se trate la muestra una vez colectada.

    En cuanto a las estrategias de muestreo:

    • Muestreo de caso homogéneo: situación más fácil. Una vez obtenido, este se divide en unidades, y aleatoriamente se analizan distintas unidades. Se obtienen resultados más precisos si se mezclan la n unidades, y se realizan n análisis de los grupos mezclados, que analizando las n unidades separadamente.

    • Muestreo de caso no homogéneo: tomamos varias muestras de cada uno de los estratos, y de cada una de ellas tomamos otro par, se mezclan y así se obtiene la muestra representativa para el análisis.

    De modo general, se describen algunos de los métodos de sólidos, líquidos y gases:

  • Muestreo de Sólidos:

    • Sólido en fragmentos o partículas: si las muestras consisten en lotes discretos se toman cogiendo una selección aleatoria de dichos lotes. Cuando existen variaciones dentro de los lotes porque ha tenido lugar una estratificación o segregación durante el transporte. Ej.: Un vagón con carbón en el que las partículas pequeñas se depositan en el fondo. Se toma una muestra representativa del lote, o bien se convierte este lote en una corriente de material, tomándose las muestras aleatoriamente.

    • Sólido en forma compacta: las muestras de metales y aleaciones se obtienen por limaduras, trituración o taladro. En general no es seguro suponer que todos los trozos de metal obtenidos de la superficie son representativos del total, por lo que se debe muestrear el interior del sólido.

    En el caso de barras o lingotes, se puede serrar la pieza, y tomar el serrín acumulado, o bien, se puede taladrar al azar, tomando como muestras las virutas formadas. El taladro debe atravesar el bloque o llegar a la mitad desde los lados opuestos.

  • Muestreo de Líquidos:

    • Homogéneos: se toman aleatoriamente distintas muestras como en el caso de los sólidos.

    • Con materiales en suspensión: se pueden tomar muestras a distintas profundidades manteniendo en constante agitación el conjunto.

    Frecuentemente se utiliza una sonda llamada “ladrón toma muestras”, la cual se sumerge a la profundidad que se desee y se habré para recoger la muestra. De esta forma se pueden obtener muestras a distintas profundidades, y por mezcla de todas ellas obtener una muestra representativa, ya que a veces es difícil la agitación.

    • Muestreo de gases:

    • Gas libre en gran cantidad: llenar un tubo con el gas con desplazamiento del aire que en principio contienen estos recipientes, que después se cierran por medio de llaves o sellando sus extremos.

    • Gas de forma inaccesible al operador: ej.: muestra de gases existente en un horno o en una tubería: sé práctica un orificio en las paredes del horno, y se introduce en el un tubo provisto de una camisa de refrigeración que conduce el gas al aparato de análisis (análisis automático), o que el gas valla a una ampolla que va a contener la muestra.

    4. Errores de muestreo

    Los grandes errores son debidos con más frecuencia a un muestreo incorrecto que a una aplicación del método no adecuado.

    Entre los químicos analíticos, existe un dicho popular: “A menos que se conozca con certeza la historia completa de una muestra cualquiera, el analista hará bien en no perder su tiempo analizándola ”.

    La libreta del analista debe contener información de cómo se colecta y almacena la muestra, antes de describir como se realiza el análisis.

    Las causas más frecuentes de error son:

    • Que el material se encuentre estratificado y la toma que se realiza no tenga en cuenta la disposición de los estratos, es decir, que no estén proporcionalmente representados.

    • Que la propiedad analítica que se mida, varíe de forma no uniforme desde la superficie hasta el centro.

    • Que en emulsiones o suspensiones durante el transporte se produzca una separación de partículas, no siendo posible agitar todo el volumen para obtener una muestra homogénea.

    Para errores aleatorios, la desviación estándar global (S0), se relaciona con la desviación estándar del proceso analítico (Sa) y la desviación estándar global del muestreo (Sm):

    So2 = Sa2 + Sm2

    En la mayoría de los casos la varianza del proceso analítico (Sa2) se conoce a partir de medidas repetidas sobre una única muestra de laboratorio, por lo que, Sm se puede calcular a partir de medidas de So, de una serie de muestras procedentes de distintas muestras brutas.

    Younden, demostró que cuando la incertidumbre de la medida Sa es menor que un tercio de la incertidumbre del muestreo (Sm), no tiene sentido mejorar la incertidumbre de la medida.

    Ejemplo:

    Sm = 10%

    • Sí Sa = 5% :

    So = ( 0'12 + 0'052 )0'5 = 0'11 = 11%

    • Sí Sa = 1% :

    So = ( 0'12 + 0'012 )0'5 = 0'10 = 10%

    1.2.3. Preparación de materiales

    La palabra reactivo se refiere a la sustancia o mezcla química usada para un propósito determinado en un procedimiento de análisis.

    En la mayoría de laboratorios lo normal es emplear reactivos de grado analítico, reactivos de gran pureza en los que el nivel de impureza es muy bajo, variando entre ( 10-2 - 10-4 ) % , ya que la presencia de impurezas puede tener efectos serios en el análisis. Sin embargo, es más importante preocuparse del ingrediente activo utilizado, es decir, la riqueza de un patrón determinado en la sustancia activa.

    Otros factores que deben ser considerados en la preparación de un reactivo analítico disuelto, son su exactitud y su estabilidad.

    Para muchas aplicaciones no es necesario preparar una solución con gran exactitud. Ej.: Reactivo en exceso, mientras que por ejemplo, en valoraciones la incertidumbre no debe ser mayor al 0'1 %.

    En cuanto a la estabilidad, algunas soluciones de reactivos se descomponen en cuestión de horas, por lo que, deben ser preparadas justo antes de su empleo mientras que otras son estables durante años.

    Antes de llevar a cabo un análisis se debe tener confianza en el procedimiento. Para ello el procedimiento completo se ha de llevar a cabo mediante estándares de referencia, similares en composición a la muestra desconocida, y además contienen una cantidad exactamente conocida del constituyente a ser determinado.

    1.2.4. Tratamiento de la muestra

    Antes de llevar a cabo el análisis es necesario homogeneizar la muestra bruta si se trata de un líquido, un polvo fino o una suspensión puede ser suficientemente homogénea para obtener de ella una muestra de laboratorio.

    Si es un sólido debe pulverizar a fin de que la muestra de laboratorio tenga la misma composición que la muestra bruta. Para ello se utiliza un mortero o molino de bolas.

    Antes del análisis, los sólidos suelen secarse a 110 ºC para eliminar el agua absorbida, aunque en algunos casos este no es efectivo, y en otros se producen cambios en la composición de la muestra por efecto del calor. Una vez obtenida la muestra le laboratorio, se disuelve para realizar el análisis. Si la muestra no se disuelve en condiciones moderadas, ni con ataques de reactivos diluidos o en condiciones de Tª moderada, puede recurrirse a la digestión ácida o a la fusión.

    Los reactivos más comunes para atacar muestras, son los inorgánicos ( HCl, HNO3) y menos frecuente disoluciones de amoniaco y de hidróxidos de metales alcalinos.

    El amoniaco concentrado mas calor, disuelve todos los metales excepto al cromo y aluminio, que sé pasiban por la formación de un óxido superficial. Tampoco disuelve reacciones que contengan Sn, Sb ó W. Muchas sustancias comunes como Si, ciertos óxidos minerales y algunas aleaciones no se disuelven en los reactivos acuosos que acabamos de indicar. En este caso esta indicado el recurso de la fusión con sales sólidas. Para ello la muestra, una vez reducida a polvo fino, se mezcla íntimamente con un exceso de unas 10 veces de fúndente, calentando hasta la fusión. Las Tas oscilan entre 300 y 1000 ºC, obteniéndose un producto soluble en agua, llamado fundido. Sin embargo, en la medida de lo posible debe evitarse utilizar este método, debido a los inconvenientes que se plantean:

  • Contaminación de la muestra con las impurezas del fúndente.

  • Las disoluciones acuosas resultantes tienen alto contenido en sales que pueden crear dificultades en las siguientes etapas del análisis.

  • Las altas Tas necesarias para una fusión aumentan el peligro de pérdidas por volatilización

  • Él fúndente ataca el recipiente donde se realiza la fusión, con lo que se produce una nueva fuente de contaminación de la muestra.

  • Por otra parte, la materia orgánica a veces debe destruirse a fin de liberar los elementos inorgánicos para su análisis. Ej.: (determinación de Mg en vegetales).

    El proceso de mineralización de la muestra se lleva a cabo por dos vías:

  • Mineralización húmeda u oxidación húmeda utilizando agentes oxidantes líquidos (HSO4 , HNO3 , HClO4 ! concentrado y en calor, reacciona explosivamente con la materia orgánica).

  • Es posible realizar la mineralización húmeda a elevadas presiones, trabajando en un autoclave a presiones de 100 atmósferas y Tas entre 250 - 300 ºC.

    Como reactivos oxidantes (HNO3 , HNO3 + HCl)

    Un procedimiento corriente de mineralización húmeda a elevada presión y Tª, se basa en la descomposición por microondas con HNO3 y otros ácidos minerales dentro de recipientes herméticos de teflón. La calefacción se lleva a cabo en hornos de microondas (especialmente diseñados), obteniéndose deficiencias espectaculares en la mineralización.

  • Mineralización seca: calcinar el componente orgánico expuesto al aire o en corriente de O2

  • 1.2.5. Eliminación de Interferencias.

    En el análisis químico, la muestra muchas veces contiene especies que pueden interferir en la determinación de los analitos de interés, bien porque producen una señal indistinguible del analito o bien porque la atenúan, siendo preciso eliminarlas. Pocas técnicas analíticas están libres de interferencias, por lo que , una etapa importante en la mayoría de estos análisis es su eliminación. La eliminación de interferencias, puede llevarse a cabo de dos maneras:

    • Químicamente: usando agentes enmascarantes ( sustancia que reacciona con el interferente para formar una especie que ya no intensifica la señal del analito).Se consigue mediante un ajuste pH , un cambio en el estado de oxidación ...

    • Físicamente: separándolas previamente a la determinación. Se realiza mediante precipitación, extracción , cromatografía o destilación.

    Todos estos procesos tienen en común la distribución de los componentes de una mezcla entre dos fases que después se pueden separar mecánicamente.

    En este capítulo estudiaremos los mecanismos de separación por precipitación.

    • Separación por Precipitación.

    Basadas en la existencia de grandes diferencias de solubilidad entre el analito y sus interferencias.

    La posibilidad teórica de este tipo de separación, puede determinarse mediante cálculos de solubilidad, pero otros factores como la coprecipitación, la excesivamente lenta velocidad de precipitación, o la dificultad para la floculación de los precipitados coloidales pueden hacerla, inviable.

    Algunos de los agentes precipitantes más útiles se describen a continuación:

  • Separaciones basadas en el control de la acidez:

  • En la práctica:

    • Separaciones en disoluciones relativamente concentradas de ácidos fuertes.

    • Separaciones en disoluciones tamponadas a pH intermedio.

    • Separaciones en disoluciones concentradas.

  • Separaciones de sulfuros a excepción de metales alcalinos y alcalinotérreos.

  • La mayoría de los cationes forman sulfuros poco solubles cuyas solubilidades difieren mucho entre sí, dado que es relativamente fácil controlar la solubilidad de una disolución acuosa por ajuste del pH. Las separaciones basadas en la formación de sulfuros insolubles han sido siempre muy utilizadas.

  • Otros precipitantes inorgánicos

  • No existen iones de uso tan general para separaciones, como los iones hidróxido y sulfuro. Los iones cloruro y sulfato, son útiles por presentar un comportamiento selectivo. Así, el cloruro se utiliza para separar Ag de la mayoría de otros metales. El sulfato se utiliza para aislar Pb, Sr, Ba.

  • Precipitantes orgánicos

  • Existen algunos reactivos útiles para aislar varios iones inorgánicos, algunos como la dimetilgliocsima, que se caracteriza por su gran selectividad formando precipitados con unos pocos iones. Otros como la 8-hidroxiquinoleina forman compuestos poco solubles con muchos cationes.

    En este caso puede conseguirse la selectividad necesaria para la separación, mediante el control del pH y la variabilidad de los productos de solubilidad de sus productos.

  • Separar iones de constituyentes presentes en cantidades traza

  • La separación cuantitativa de un elemento traza por precipitación presenta varios problemas incluso cuando no son importantes las pérdidas por solubilidad. Entre ellas destaca la sobresaturación porque de esta forma se retrasa la formación del precipitado.

    Es difícil la coagulación de pequeñas cantidades de una sustancia dispersa en forma coloidal. Además es posible que una porción apreciable del sólido se pierda en su manipulación. (Ej.: (Trasvase y filtrado).

    Para minimizar esto, se añade a la disolución una cantidad de otros iones que forman un precipitado con el reactivo. El precipitado del ion añadido se llama colector, y arrastra de la disolución la especie minoritaria de interés. (Ej.: Para aislar una muestra de oxido de manganeso se añade una pequeña cantidad de ion férrico a la disolución antes de añadir NH3 como agente precipitante. Así, el FeOH arrastra incluso pequeñas cantidades de MnOH.

    Un colector puede arrastrar a un constituyente traza, debido a que tienen solubilidades parecidas, o bien, a fenómenos de coprecipitación, y el colector no debe interferir en la determinación del elemento traza.

  • Separación por precipitación electrolítica

  • Constituye un método muy útil para hacer separaciones. Mediante ella se aísla en una fase aparte, la especie más fácilmente reducible (o bien oxidable, dependiendo del componente), ya sea el componente deseado o no deseado de la mezcla.

    En este sentido el cátodo de Hg ha encontrado una amplia aplicación en la eliminación de muchos iones metálicos antes del análisis. Por lo general los iones metálicos más frecuentemente reducibles que el Zn, se depositan fácilmente en el Hg, quedando en disolución iones tales como el Al, Be y metales alcalinos.

  • Otros métodos

    • Separación por extracción

    Se basan en el diferente grado en que los solutos (tanto inorgánicos como orgánicos), se distribuyen entre dos disolventes inmiscibles.

    • Separaciones por intercambio iónico

    Se basan en que las interferencias o el analito, son retenidos en un sólido intercambiándose por otros iones fijados previamente en él.

    • Separación de especies inorgánicas por destilación

    Tiene lugar cuando los coeficientes de partición son muy diferentes para una sustancia entre la disolución y la fase de vapor.

    • Separaciones cromatográficas

    Aquí los componentes se reparten o distribuyen entre dos fases, una de las cuales es móvil (puede ser un líquido, un gas, o un fluido supercrítico, que fluye a través de este lecho estacionario.

    1.2.6. Medida (Determinación propiamente dicha)

    La parte de la medida en general significa la determinación propiamente dicha. La medida dará lugar a la cantidad precisa del constituyente buscado en la muestra. Por ello constituye el núcleo fundamental de un análisis.

    La elección del método se hace entre una amplia variedad de técnicas posibles.

    Las categorías principales de determinaciones analíticas son las siguientes:

  • Determinación gravimétrica

  • Se convierte el constituyente en una forma que se puede pesar con precisión.

  • Determinación volumétrica

  • Se hace reaccionar el constituyente en una razón estequiométrica conocida y precisa, con un reactivo estandarizado.

  • Determinación espectroscópica

  • Se somete el constituyente a la absorción o emisión de radiación electromagnética.

  • Espectroscopía de masa

  • Los constituyentes de la muestra se examinan en espectros de masas tras hacerlos pasar por campos eléctricos y magnéticos.

  • Determinación electroquímica

  • El constituyente afecta al equilibrio redox en un electrodo adecuado, aquí se realizan medidas de magnitudes eléctricas como Voltios, Amperios, Capacidades, Resistencias, etc.

  • Determinación cromatográfica

  • Se separa el constituyente mediante el paso a través de una columna y se caracteriza mediante un detector.

  • Determinación radioquímica

  • Se determina el constituyente por medición de la emisión de partículas  o rayos  por isótopos inestables.

    De todos estos métodos, tenemos métodos volumétricos y gravimétricos entre los clásicos, y espectroscópicos, electroquímicos y cromatográficos entre los instrumentales.

    1.2.7. Interpretación y conclusiones

    En la interpretación de datos analíticos, debemos distinguir dos aspectos:

    • El primero se refiere a la confiabilidad de las mediciones, y por tanto al nivel de confianza en los resultados, es decir, como de bien se produjo todo el proceso cualitativo.

    • El segundo es la aplicación de los datos confiables a la resolución del problema, por ejemplo, podemos deducir valores confiables de los resultados obtenidos para los niveles de cloruros de agua.

    Sin una interpretación y unas conclusiones, el análisis químico no debería realizarse, pues solo constituiría una mera recolección de datos y una pérdida de tiempo valioso.

    1.2.8. Acciones

    Se incluye en esta etapa, ya que las conclusiones del proceso analítico completo deben conducir a una meta. Estos resultados pueden llevar a una mejora en los niveles de contaminación ambiental o en la calidad de una manufactura, condena de un criminal, entre otros ejemplos.

    TEMA 2:

    TRATAMIENTO ESTADÍSTICO DE LOS RESULTADOS ANALÍTICOS

    2.0. INTRODUCCIÓN

    La inferencia estadística consiste en la obtención de conclusiones a partir de un cierto número de observaciones experimentales de acuerdo a unas hipótesis formalizadas y con unas reglas de cálculo objetivas, así mediante su uso se pueden investigar posibles tendencias en los datos y aplicar criterios que permitan descubrir las causas de error no aleatorias, así mismo, el tratamiento estadístico de una serie de experimentos planificados adecuadamente que permitan ver la influencia de diversas variables con más eficacia y menos trabajo que mediante el método tradicional de mantener constantes todas las variables excepto una de ellas y de su influencia y así una pro una cada variable sucesiva.

    Es importante señalar que las técnicas de la estadística clásica son solo aplicables a un número infinito de observaciones, una situación que difiere de ser la de una serie típica de resultados cualitativos (entre 2 - 5 repeticiones). Sin embargo, la propia estadística ha realizado modificaciones para adaptar los conceptos a series pequeñas de datos. En este punto se ha establecido lo que se llama Jerarquía metodológica.

    x1 (Resultado individual) ! Una alicuota

    øx (Media de n resultados) ! n alícuotas (n < 30)

     (Media de " resultados) ! " alícuotas (n > 30)

    2.1. TIPOS DE ERRORES EN EL ANÁLISIS CUANTITATIVO

    Los análisis cuantitativos juegan un papel predominante en cualquier laboratorio analítico, por lo que, los errores que aparezcan en ellos son de gran importancia.

    Nuestro principio, será que no existen resultados cuantitativos válidos sino van acompañados de una estimación de los errores inherentes a ellos, los científicos experimentales harán una distinción fundamental entre tres tipos de errores:

    2.1.1. Errores Accidentados o Crasos

    Estos errores son tan graves que no queda otra alternativa que abandonar el experimento y empezar de nuevo.

    Ejemplos: - Pérdida de parte de la muestra

    • Contaminación de la muestra

    • Avería de algún instrumento

    Todos estos errores que ocurren, incluso en los laboratorios mejor controlados, se reconocen con mucha facilidad en consecuencias en el análisis. Solo tenemos que distinguir con detenimiento entre los errores sistemáticos y aleatorios.

    2.1.2. Errores Sistemáticos o Determinados

    Son aquellos que pueden determinarse y probablemente evitarse o corregirse. Afectan al resultado, siempre en el mismo sentido, bien por exceso o por defecto. Su magnitud puede ser constante para todas las muestras de una serie, o ser proporcional al tamaño de la muestra, o bien variar de un modo más complicado, por ejemplo el error cometido al pesar una muestra higroscópica, que es siempre positivo, ya que aumenta con el tamaño de la muestra y varía con el tiempo que se emplea en la pesada, con la humedad atmosférica y con la temperatura. El error originado por la adsorción en las columnas cromatográficas es negativo (adsorción irreversible.

    Otros errores comunes de este tipo son causados por impurezas en los reactivos, también por errores instrumentales, por ejemplo: mal calibrado de las balanzas, pH-metros.

    Errores de operación, errores del método, por ejemplo: coprecipitación de impurezas, solubilidad de precipitados, interferencias en la muestra.

    Estos errores sistemáticos o determinados, afectan a la exactitud del método analítico.

    2.1.3. Errores aleatorios o indeterminados

    Son errores fortuitos cuya magnitud y signo no pueden predecirse ni calcularse. Son producidos por el efecto de variables que no se pueden controlar, y se caracterizan porque se presentan por exceso o defecto con igual probabilidad.

    Se revelan por las pequeñas diferencias en mediciones sucesivas efectuadas por el mismo analista.

    Producen este tipo de errores los pequeños cambios en la Tª, P, humedad del ambiente, fluctuaciones en el suministro eléctrico, corrientes de aire a la hora de la pesada en balanzas de precisión.

    Estos errores afectan a la precisión de un experimento, y si se realiza un número elevado de experiencias, la exactitud puede no resultar necesariamente aceptada.

    Los errores sistemáticos dan lugar a una pérdida de exactitud pudiendo o no afectar a la precisión según que dicho error sea constante o variable.

    2.2. EXACTITUD Y PRECISIÓN

    En análisis cuantitativo de cualquier propiedad de la materia (peso, volumen, etc.), esta sujeto a cierto grado de incertidumbre, por lo que jamás se podrá conocer el verdadero valor de la magnitud. A lo que se aspira es a obtener una estimación de la magnitud que sea satisfactoria.

    La exactitud es el grado de concordancia entre el valor medido y el valor real. Como nunca se conoce el valor verdadero absoluto, una definición más realista es la concordancia entre el valor medido y el valor real aceptado.

    La precisión es el grado de concordancia entre replicas de mediciones de la misma cantidad, es decir, es la repetibilidad de un resultado.

    Es necesario distinguir entre repetibilidad y reproducibilidad, para hacer referencia a la precisión de un experimento:

    • Repetibilidad: estimación del grado de dispersión en una serie de replicas de la misma cantidad. Son experiencias llevadas a cabo por un mismo analista en un tiempo relativamente corto sin cambiar de instrumento ni de material de laboratorio, y usando las mismas disoluciones.

    • Reproducibilidad: mide el grado de dispersión entre series de resultados, o sea, experiencias realizadas en ocasiones distintas con disoluciones distintas y con material de laboratorio distinto.

    Según diferentes facetas, podemos calcular la reproducibilidad de distintas formas.

    La relación entre precisión y exactitud puede visualizarse en la fotocopia de la Tabla 1 (desviación estándar):

    En esta fotocopia se observa como las medidas de una serie pueden ser muy precisas y sin embargo poco exactas. La precisión no es garantía de exactitud, pero son necesarias medidas precisas para conseguir exactitud. Con poca precisión difícilmente se tendrá una buena exactitud.

    2.2.1. Maneras de expresar la exactitud

    Existen varias maneras y unidades para expresar la exactitud de una medida. Siempre se supone que existe un valor verdadero para establecer la comparación:

  • Error Absoluto: diferencia entre el valor medido y el valor verdadero con respecto al signo. Se expresa en las mismas unidades que la medición.

  • Cuando el valor medido es el promedio de varias mediciones, el error se llama error medio.

    Aquí el término absoluto tiene un significado distinto al significado matemático. Es una magnitud ignorando su signo. Aquí error absoluto es la diferencia entre el resultado experimental y su valor aceptado incluyendo su signo.

    Ea = X1 " Xv Xv = verdadero valor

    " xi

    Ea = øX " Xv siendo øX = ___

    N

  • Error Relativo: error absoluto o medio expresado como % del valor verdadero:

  • Xi " Xv

    ER = _____ " 100

    Xv

    øX " Xv

    ER = _____ " 100

    Xv

    EJEMPLO: El resultado de una análisis es de 2'52 gr. en comparación con el valor real que es 2'62 gr. Calcular Ea y ER :

    Ea = 2'52 " 2'62 = " 0'1 gr.

    2'52 " 2'62

    ER = _______ " 100 = 3'8 %

    2'62

    2.2.2. Maneras de expresar la precisión

    A.) Desviación estándar: medida más medida de la variabilidad de un resultado. Se define como la raíz cuadrada de la suma de los cuadrados de las diferencias, entre los valores medidos individualmente y la media de las mediciones dividida por (N - 1):

     (xi "øx)2 0'5

    S = _______

    N - 1

    Este parámetro proporciona una medida de la dispersión de un conjunto de resultados alrededor del valor medio. Tiene las mismas unidades que los datos.

    Al aumentar N, la cantidad (N - 1) se acerca cada vez más a N (población), por lo que, no tiene trascendencia usar N ó N - 1, en el cálculo de la desviación estándar. Aunque para números pequeños de observaciones (caso especialmente importante en Q. Analítica), la distinción es significativa.

     (xi "øx)2 0'5

     = ______

    N

    Experimentalmente, la S de la muestra constituye una estimación de la desviación estándar de la población (), que es la que se desea conocer. No se puede determinar realmente un número infinito de mediciones. S se aproxima a  , cuanto mayor es el tamaño de la muestra. Análogamente, la media de la muestra, resulta ser una estimación tanto más exacta en la medida de la población, cuanto mayor es el tamaño de la muestra aleatoria.

    El cuadrado de la desviación estándar, se denomina varianza (V = S2).

    B.) Desviación estándar relativa (DER): mejor medida de la precisión para fines comparativos:

    S

    CV (coef. de variación) = DER = ___ " 100

    øx

    Sus unidades son %, y es un ejemplo de error relativo, es decir, es una estimación del error dividida por una estimación del valor absoluto de la cantidad medida.

    Los errores relativos se utilizan con frecuencia en la comparación de las precisiones de los resultados obtenidos y son importantes en el cálculo de la propagación de errores.

    2.3. DISTRIBUCIÓN DE ERRORES

    Aunque la S proporciona una medida de la dispersión de un conjunto de resultados alrededor del valor medio, no indica la forma en que se encuentran distribuidos los resultados. Consideremos los resultados obtenidos en 50 determinaciones repetidas de la concentración de ion nitrato, dada con dos cifras significativas en una muestra concreta de agua. (Tabla 2.2).

    En estos gráficos (figura 2.1.), las medidas quedan distribuidas en forma casi simétrica en torno a la media, es decir, con las medidas agrupadas respecto al centro. Los resultados obtenidos en las medidas, constituyen una muestra finita de una población, por lo que, presentan los valores discretos.

    En teoría, una concentración puede tomar cualquier valor de manera que la distribución de la población se ajusta a una curva continua. El modelo matemático habitualmente empleado es la distribución normal o Gausiana descrita por la ecuación:

    Exp. ø" (x " )2 / 22ø

    Y = __________

    "2

    Un análisis un poco más detallado demuestra que cualquiera que sean los valores de  y , aproximadamente un 60 % de los valores de la población caen dentro de ±  de la media, cerca de un 95 % se ubican dentro de ± 2 de la media, y cerca de un 99'7 % se encuentran dentro de ± 3.

    La distribución normal no solo se obtiene cuando se realizan mediciones repetidas de una misma muestra, también los resultados obtenidos a menudo se adaptan a la distribución normal cuando se mide la misma magnitud para diferentes muestras de la misma población.

    2.4. DISTRIBUCIÓN MUESTRAL DE LA MEDIA O ERROR ESTÁNDAR DE LA ........MEDIA

    Hemos estudiado que la distribución estándar se encuentra relacionada con el error probable de cada observación individual. Si de una población infinita se toman diversas muestras aleatorias, todas de n observaciones, los valores medios de los diversos grupos de n observaciones, presentarán una cierta dispersión tanto menor cuanto mayor sea n.

    En el limite cuando n tiende a infinito, la media de cada muestra tiende a la media de la población (), entonces su dispersión tiende a cero.

    La desviación estándar de la media o error estándar de la media, es inversamente proporcional a la raíz cuadrada del número de observaciones:

    

    m = e.e.m. = ___

    " n

    2.5. APLICACIONES DE LA ESTADÍSTICA A LOS RESULTADOS ANALÍTICOS

    2.5.1. Intervalos de Confianza

    El intervalo alrededor de la media, determinada experimentalmente, dentro del cual podemos encontrar la media verdadera con cierto grado de probabilidad, se denomina intervalo de confianza, y los valores extremos de este intervalo son los limites de confianza. Podemos expresar los limites de confianza como:

    t 

     = øx ± ___

    " n

    Intervalo, limite de confianza

    t : Student, depende del número de grados de libertad, en nuestro caso (n - 1), y el grado de probabilidad (certeza o confianza) en nuestros resultados.

    Si suponemos que la distribución es normal, entonces el 95 % de las distribuciones normales se encontrarán en el intervalo dada por:

     

    øx " 1'96 __ <  < øx + 1'96 __

    " n " n

    También se utiliza con diferencia el intervalo de confianza al 99 % que viene dado por:

     

    øx " 2 58 __ <  < øx + 2 58 __

    " n " n

    Los limites de confianza al 95 % para la concentración de ion nitrato, se calcularían:

    øx = 0 500

    n = 50

     " S = 0 0165

    0'0165 0'0165

    0'500 - 1'96 ____ <  < 0 500 + 1 96 ____

    " 50 " 50

     = 0'500 ± 0'0046 gr / m

    A medida que el tamaño de la muestra disminuye la incertidumbre al utilizar S para aproximar  aumenta, y a fin de permitir usar S, la ecuación usada para calcular los limites de confianza se puede modificar como:

    S

     = øx ± t " __

    " n

    EJERCICIOS:

    Se determinó el contenido de ClNa de una muestra de orina, utilizando un electrodo selectivo de iones, obteniéndose los siguientes valores:

    102 mM, 97 mM, 99 mM, 98 mM, 101 mM, 106 mM

    øx = 100'5 mM;

    S = 3'27 mM;

    n - 1 = S; Nivel de confianza = 95 %; t = 2'57

    3'27

     = 100'5 ± 2'57 " __ !  = (100'5 ± 3'4) mM

    " 6

    • Calcular los limites de confianza al 95 y 99 %, para la concentración de iones de sodio:

    3'27

     = 100 5 ± 4 03 " __ !  = (100'5 ± 5'4) mM

    " 6

    Los limites de confianza se pueden utilizar como una prueba para detectar errores sistemáticos como se muestra en el siguiente ejemplo:

    Se comprueba la escala de absorbancia de un espectrofotómetro a una  concreta, usando un patrón que da una absorbancia de 0'47. Los valores determinados fueron 10, de los que se obtuvieron unos valores de: øx = 0'461 y S = 0'03. Calcular el intervalo de confianza del 95 % de la absorbancia media y decir se existe un error sistemático.

    0'003

    • = 0'461 ± 2'26 " ___ !

    " 10

    0'463

    •  = 0'461 ± 0'002 Rango de trabajo obtenido

    0'459

    Esta fuera del rango 0'47, por lo que podemos decir que existe un error sistemático en estas afirmaciones.

    2.5.2. Rechazo de Resultados

    Con frecuencia al efectuar una serie de replicas de análisis, uno de los resultados obtenidos será muy distinto de los otros. A este valor se le conoce como valor anómalo. Se han sugerido diversas pruebas estadísticas para determinar si una observación debe rechazarse. Una de las más correctas desde el punto de vista estadístico es la prueba de la Química de Pixon. Para su cálculo, se ordenan los datos en orden decreciente de su valor, y en la relación que se calcula como el cociente entre la diferencia entre el valor sospechoso y el más próximo a él dividido por el Ecubito, es decir, la diferencia entre el mayor y menor valor:

    øvalor sospechoso " valor más próximoø

    Q = __________________

    øvalor más grande " valor más pequeñoø

    La relación Q experimental calculada se compara con los valores tabulados de Q para un nivel de confianza determinado. Si la relación calculada resulta mayor o igual que el valor tabulado, se puede rechazar la observación sospechosa.

    Determinar la concentración de nitrato (NO2-) en una muestra de agua, teniendo en cuenta los siguientes resultados:

    Análisis

    1

    2

    3

    4

    [NO-2] gr/L

    0'403

    0'410

    0'401

    0'320

    Determinar si el valor de 0'38 es rechazable según el nivel de confianza del 95 %:

  • 0'401; 0'403; 0'401; 0'320

  • ø0'380 - 0'401ø

  • Q = _______ = 0'70

  • ø0'410 - 0'320ø

  • 0'70 < 0'831 valor no rechazable

  • La prueba Q es bastante estricta, no es aplicable en el caso de series pequeñas de datos.

    En una situación ideal, habría que tomar nuevas medidas cuando aparezca un dato sospechoso, sobre todo si se han tomado inicialmente pocos valores. Esto podría aclarar si debiera rechazarse o no el valor sospechoso, o si se debiera mantener. También se reduciría su efecto sobre la media y la desviación estándar.

    En el ejemplo anterior se añaden:

    0'400; 0'413; 0'411; ¿Se debería mantener el valor de 0'380?

    ø0'380 " 0'400ø

    Q = ________ = 0'606

    ø0'413 " 0'380ø

    Para n = 7 y 95 % de confianza, obtenemos una Q teórica de 0'568 < Q calculada ! ! sí tendríamos que rechazar 0'380

    Es importante tener en cuenta, que para un nivel de confianza del 95 %, existe un 50 % de riesgo de rechazar incorrectamente un valor sospechoso.

    Cuando las medidas se repitan unas cuantas veces, lo que es normal en el análisis químico, el rechazo de un valor origina una gran variación sobre la media y la desviación estándar. Además, debe evitarse el hecho de tomar tres medidas y rechazar la que más difiere de las otras dos. En general, se puede demostrar que se obtiene una estimación más confiable de la media utilizando el valor que esta en medio de los otros tres, en lugar de utilizar la media de los dos que no fueron rechazados. Pueden presentarse también valores sospechosos que pueden ser los dos próximos, o uno a cada extremo del intervalo de valores.

    Esto origina una reducción en el valor calculado de Q, ya que en el primer caso se produce una reducción del numerador, y en segundo un aumento del denominador. En este caso es necesario emplear una prueba para un par de valores anómalos.

  • Otro criterio de rechazo (Test Tn)

  • øxq " øxø

    Tn = _____

    S

    Rechazo sii Tn calculada > Tn teórico

    Ejemplo:

    El análisis de una muestra de calcita dio unos porcentajes de CaO de:

    [CaO]

    55'95

    56'00

    56'04

    56'23

    El último valor parece anómalo, ¿se puede rechazar?

    0'15

    Q = ___ = 0'54 ; QTeórica = 0'710 para nivel de confianza del 95 %

    0'28

    Como Q < Q teórica ! no se rechaza

    Aplicar Test Tn a estos datos:

    øx = 56'06

    S = 0'107 para n = 6

    56'23 " 56'06

    Tn = _______ = 1'59

    0'107

    Para un 95 % de confianza, la Tn teórica = 1'67

    Como Tn teórico es > Tn calculado ! no se rechaza

    2.5.3. Presentación de los resultados

    Como ya hemos señalado, los resultados experimentales carecen de importancia si no van acompañados de una estimación de los errores que han tenido lugar durante la medida. Es casual citar la media como la estimación de la cantidad medida, y la desviación estándar como la estimación de la precisión.

    Menos frecuente es dar el resultado en la forma de los limites de confianza al 95 % de la media.

    ts

     =øx ± __

    " n

    Redondeo de la respuesta: el número de cifras significativas indica la precisión del experimento. El número de cifras significativas es el número de dígitos que se necesitan para expresar científicamente un valor sin pérdida de exactitud.

    Ejemplos:

    142'7 4 cifras significativas (1'427" 102)

    1'4270"102 5 cifras significativas

    6'302"10"6 4 cifras significativas (0'000006302)

    92500 Este es un caso ambiguo, porque según como se exprese tendrá diferentes cifras significativas:

    9'25"104 3 cifras significativas

    92500 9'250"104 4 cifras significativas

    9'2500"104 5 cifras significativas

    Los ceros son significativos cuando se localizan en medio de un número, al final de un número y a la derecha de la coma decimal. En los demás casos no son cifras significativas.

    Este número de cifras significativas en un análisis está condicionado por la medida menos exacta:

    1'6235 " 63 = 75

    2 cifras 2 cifras

    En cuanto al redondeo se hace uso de las siguientes reglas:

    Si la última cifra significativa es menor que S, esta no sufre modificación.

    Si es mayor que 5 se incrementa en uno.

    Si es igual a 5 y no hay más cifras significativas a continuación o son cero, la anterior aumenta en una unidad si es impar la que lo precede y no se modifica si esta es par: 63'765 ± 0'028 = 63'77 ± 0'03

    63'665 ± 0'028 = 63'66 ± 0'03

    2.6. PROPAGACIÓN DE ERRORES

    Una determinación analítica requiere de ordinario la realización de varias operaciones (pesar, pipetear, etc...) cada una de las cuales puede suponer la introducción en el análisis de un error sistemático, y cada una está sujeta a errores aleatorios.

    Se puede calcular el error que afectará al resultado final, a partir de los errores que afectan a cada uno de los datos experimentales de partida.

    La naturaleza de los cálculos para tener en cuenta los errores aleatorios y sistemáticos es diferente, ya que no se propagan de igual manera. Esto se debe a que algunos errores aleatorios se compensan entre sí, mientras que cada error sistemático ocurre en un sentido definido y conocido.

    Ejemplo:

    Si el resultado final de un experimento Y viene dado por la suma A y B. Si A y B tienen un error sistemático de +1, es evidente que el error sistemático será +2. Sin embargo, si A y B tienen un error aleatorio de ±1, el error aleatorio de Y no es 2. Esto se debe a que en ocasiones el error aleatorio de A será positivo, y el de B negativo o viceversa, siendo de esperar que ambos errores se neutralicen en cierta extensión.

    2.6.l. Propagación de Errores Aleatorios.

    Si se conoce la precisión de cada observación se pueden usar reglas matemáticas sencillas para estimar la precisión del resultado final.

    Reglas:

    A.1.) Combinaciones lineales.

    En este caso el valor final de Y se calcula a partir de una combinación lineal de medidas a, b, c, :

    Y = x + ka a + kb b + kc c + ...

    La varianza tiene la propiedad de que la varianza de una suma o diferencia de cantidades independientes es igual a la suma de sus varianzas, es decir:

    Var Y = Sy2 = (ka Sa)2 + (kb Sb)2 + (kc Sc)2 + .... ó

    Sy = (ka Sa)2 + (kb Sb)2 + (kc Sc)2 + .... 0'5

    Ejemplo:

    En una valoración la lectura final de la bureta es 3,51 ml y la inicial es 15,67 ml. Ambas con una desviación estándar de 0'02 ml. ¿Cuál es el volumen de agente utilizado y su desviación estándar?

    Vol. (utilizado) = 15'67 " 3'51 = 12'16 ml

    S = [(0'02)2 + (0'02)2]0'5 = 0'028 ml

    Como puede observarse la S del resultado es mayor que la de las lecturas individuales de la bureta. Incluso el volumen utilizado se calcula a partir de una diferencia, pero es menor que la suma de las desviaciones estándar.

    A.2.) Expresiones multiplicatívas

    Si Y se calcula a partir de una expresión del tipo:

    k ab

    Y = ___ donde a, b, c, d son cantidades medidas independientemente y k

    cd

    es una constante, existiendo una relación entre los cuadrados de las desviaciones estándar relativas:

    0'5

    Sy Sa 2 Sb 2 Sc 2 Sd 2

    __ = __ + __ + __ + __

    Y a b c d

    El rendimiento cuántico de la fluorescencia , se calcula a partir de la expresión:

    If = Intensidad de luz fluorescente (S = 2 %)

    If Io = Intensidad de la luz incidente (S = 0'5 %)

     = ____ k = Cte. del instrumento

    k c l Io   = Abructividad molar (S = 1 %)

    c = Concentración (S = 0'2 %)

    l = Paso óptico (S = 0'2 %)

    donde los parámetros se definen como una estimación de las desviaciones estándar relativas.

    d.e.r = (22 + 0'22 + 0'22 + 0'52 + 12)0'5 = 2'3 %

    Puede observarse que la d.e.r. del resultado final no es mucho mayor que la mayor de todas las d.e.r., usadas para calcularla. Esto es fundamentalmente una consecuencia de elevar al cuadrado las d.e.r., y explica una cuestión general, cualquier esfuerzo por mejorar la precisión de un experimento, debe dirigirse a mejorar la precisión de los valores menos precisos.

    Cuando una cantidad se eleva a una potencia (b3), el error no se calcula como para una multiplicación (b"b"b), debido a que las cantidades implicadas no son independientes.

    Entonces, si Y = bA :

    Sy Sb

    __ = n __

    Y b

    A.3.) Otras funciones

    Si Y es una función general de X (Y = (x)) la S de X e Y, están relacionadas de la siguiente forma:

    dy

    Sy = Sx __

    dx

    Ejemplo:

    La absorvancia de una muestra está dada por A = " log (T), siendo T la transmitancia. Si el valor medio de T = 0'501 con S = 0'001, calcular A y su desviación estándar.

    A = " log 0'501 = 0'300

    dA " log e " 0'434 " 0'434

    __ = ___ = ____ = ____ = " 0'866

    dT T T 0'501

    " log e " 0'434

    A = T ___ = 0'001 " ____ = 0'0008

    T 0'501

    Es importante observar que para este método experimental se pueden encontrar las condiciones para que sea mínima la d.e.r.

    100 A 100 T log e

    d.e.r. de A = ____ = ______

    A T log T

    Ejemplo:

    La ecuación de Nerst aplicada a un análisis potenciométrico es la siguiente:

    R T E = potencial del electrodo

    E = Eº + ___ ln c Eº = potencial estándar del ion que

    n F se determina

    T = Tª absoluta

    n = nº de e- que participan en la semicélula

    c = [ ] del ion

    R = Cte. de los gases

    F = Faraday

    Obtener una expresión para la d.e.r. de la [ ] suponiendo que Tª = 298 K y que no tiene error. Calcular la d.e.r. sí n = 1 y la S (E) = 0'001 voltio.

    c = exponencial {40 n (E - Eº)}

    dc

    __ = 40 n · exponencial {40 n (E - Eº)}

    dE

    c = 40 n E · exponencial {40 n (E - Eº)} = 40 n · c · E

    c 40 n E (%)

    La d.e.r. de c será = 100 · __ = 100 " ______ !

    c c

    ! d.e.r. (c) = 100 " 0'001 " 40 = 4 %

    2.6.2. Propagación de Errores Sistemáticos

    Se distinguen grupos en función de cómo se calcula el resultado final. El error sistemático y la desviación estándar de un resultado se calcula mediante ciertas reglas sencillas:

    B.1.) Combinaciones lineales

    Si Y se calcula a partir de cantidades mediadas usando la expresión y = k + ka a + kb b + ..., y los errores sistemáticos de a, b, c, ... se calculan como incrementos (a, b, ...) podemos decir que:

     y = ka a + kb b + kc c + ...

    El error sistemático total puede ser a veces cero (sí se usa una balanza con un error de " 0'01 gr para pesadas utilizadas en la preparación de una disolución estándar). Puesto que el peso del soluto se calcula por diferencia entre dos pesadas, se eliminan los errores sistemáticos.

    B.2.) Expresiones multiplicatívas

    ab

    Si Y se calcula de la forma y = k " __ , el error sistemático relativo será:

    cd

    y a b c d

    __ = __ + __ + __ + __

    y a b c d

    Si se trata de una potencia:

    Y = bn , error sistemático relativo será:

    y b

    __ = n __

    y b

    B.3.) Otras funciones

    Para y = (x), el error sistemático será:

    dy

    y = x __

    dx

    TEMA 3:

    ANÁLISIS INSTRUMENTAL: CALIBRACIÓN

    1. INTRODUCCIÓN

    Los métodos analíticos se suelen clasificar en:

  • - Métodos clásicos: en los métodos clásicos de análisis cuantitativo la cantidad de analito se determina por medidas gravimétricas o volumétricas que son ideales para análisis de alta precisión, especialmente cuando se analiza un número pequeño de muestras que son necesarias para el análisis de materiales estándar.

  • - Métodos Instrumentales: utilizan un instrumento más o menos complejo para evaluar una propiedad física o físico-química del sistema objeto de análisis. Esta definición es un poco ambigua, pues no existe ningún análisis químico gravimétrico o volumétrico que no recurra por una parte al examen de una propiedad física como la precipitación, cambio de volumen, y por otra parte que no emplee algún artificio experimental (buretas). Además actualmente la instrumentación se utiliza también para otras muchos fines, entre los cuales cabe destacar aquellas que conducen a la morfología y estructura de las moléculas.

  • En definitiva, las técnicas instrumentales implican por una parte el estudio teórico de los principios físicos y físicos-químicos de los métodos utilizados, así como el conocimiento de tamaño, forma, estabilidad y estructura de las moléculas; y por otra parte implican la descripción y conocimiento de los componentes básicos de los instrumentos empleados.

    2. GRÁFICAS DE CALIBRACIÓN EN ANÁLISIS INSTRUMENTAL

    Según la ISO (International Stándar Office), la calibración se define como el conjunto de operaciones que permiten establecer en determinadas condiciones experimentales, la relación existente entre los valores indicados por el aparato, con los valores obtenidos en la medida de un valor conocido.

    El procedimiento operatorio en análisis instrumental para la calibración es:

    El analista prepara una serie de muestras (5 ó 6) con [ ] conocidas de analito, y las mide en el instrumento en iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a partir de la señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a partir de ella se obtiene la [ ] de analito en las muestras problema.

    El procedimiento anterior generalmente presenta varias preguntas estadísticas:

    - a*) ¿Es lineal la gráfica de calibración?, y si es curva ¿qué gráfica tiene?

    • Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿cuál es la mejor recta que pasa por esos puntos?

    • Suponiendo que la calibración es lineal, ¿cuáles son los errores estimados y los limites de confianza para la pendiente y la ordenada en el origen?

    • Cuándo la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los limites de confianza para una [ ] determinada?

    • ¿Cuál es él limite de detección del método, es decir, la menor [ ] de analito que se puede detectar con un nivel de confianza predeterminado?

    Antes de abordar estas cuestiones debemos considerar aspectos sobre el trazado de las gráficas de calibración:

    a.) Es esencial que los patrones de calibración cubran el intervalo completo de [ ] requerido en los análisis en los que se encontraron las muestras problema.

    b.) La [ ] de las muestras problema se calcula por interpolación, a excepción del método de la adición estándar, que se hace por extrapolación.

    c.) Es importante incluir una muestra en blanco en la curva de calibración. Esta muestra no contiene ningún analito, pero si contiene la misma composición que las otras muestras estándar de referencia, y está sujeta a la misma secuencia del proceso analítico. Su respuesta en la medida podría ser cero, pero por impurezas de reactivos u otras causas puede no ser así.

    d.) La curva de calibración se representa siempre con la respuesta del instrumento en el eje de ordenadas y la [ ] de los patrones en el eje de abscisas.

    Tres de las técnicas de calibración mas comúnmente usadas son la curva o gráfica analítica, el método de las adiciones estándar y el método de estándar interno.

    2.1. Curva o gráfica analítica

    En esta técnica se prepara una serie de soluciones estándar que contienen [ ] conocidas del analito teniendo en cuenta los puntos antes señalados. Dichas soluciones deben cubrir el intervalo de [ ] de interés, así como tener una composición matricial tan parecida como se pueda a la de las soluciones de las muestras problema. También se analiza una solución en blanco de fondo.

    Las respuestas netas de cada solución estándar menos la de fondo se representan frente a las [ ] de las soluciones estándar a fin de obtener la gráfica de calibración.

    Generalmente hay una relación lineal entre la señal analítica Y, y la [ ] X. Por ello, los datos se ajustan a una recta por el método de mínimos cuadrados, es decir, minimizando la suma de los cuadrados de los residuos Y.

    Una vez establecida la gráfica de calibración se puede obtener la [ ] de analito en cualquier muestra problema por interpolación del valor en dicha recta.

    2.1.1. Coeficiente de Correlación momento-producto

    Aquí se analiza el primer problema planteado en la pregunta anterior a*.

    Supongamos que la representación de una línea recta toma la expresión y = b x + a, los puntos individuales sobre la recta los denotaremos como (x1, y1), (x2, y2), etc., siendo él primer punto el blanco. blanco

    La media de los valores de x la denotaremos øx y la de y será øy , así que el punto

    ( øx,øy ) se conoce como centro de gravedad de todos los puntos.

    Para estimar si los puntos experimentales se ajustan a una recta, calculamos el coeficiente de correlación que viene dado por R y tiene la siguiente expresión:

    " ø(xi "øx) (yi "øy)ø

    r = __________ " 1 < r < +1

    ø("xi "øx)2 ("yi "øy)2ø

    En química analítica, normalmente r es > 0'99, siendo relativamente poco comunes los valores de r < 0'9.

    Es importante no despreciar cifras decimales durante los cálculos, como se muestra, aunque dos puntos de desvíen de la mejor recta, el valor de r es muy próximo a 1, sin embargo, se obtendrá un valor de r que en algunos cosos será próximo a 1, aún cuando la representación no sea lineal, por tanto siempre es necesario representar la curva de calibración.

    Por otro lado, un r = 0 no significa que x e y no están relacionadas, sino que no están linealmente relacionadas, los valores de r obtenidos en el análisis instrumental son generalmente muy altos, de manera que un valor calculado junto con la propia gráfica de calibración suele ser suficiente para asegurar al analista que ha obtenido una relación lineal útil.

    En ocasiones se obtienen valores de r más bajos, siendo necesario utilizar una prueba estadística para establecer si r es realmente significativo. El método más simple es calcular un valor de t usando la ecuación:

    ørø (n - 2)0'5

    t = ______

    (1 - r2)0'5

    Este valor está tabulado y se compara usando una prueba t de dos colas y n - 2 grados de libertad.

    Si t (calculado) es mayor que t (teórico), se puede asegurar que existe una correlación significativa. También se pueden calcular los limites de confianza de la pendiente y la ordenada en el origen, y comparar que estos parámetros están incluidos dentro de estos limites.

    2.1.2. Cálculo de la Recta de Regresión de Y sobre X (Y/X)

    Supone obtener la mejor recta a través de los puntos de la gráfica de calibración. Hablamos de regresión entre estas dos variables, ya que aceptamos que las desviaciones o errores se producen en una de ellas, en este caso la Y, y que en la otra variable posee un valor fijo y no sometido a error. En el caso en que ambas variables estén sometidas a error, hablaríamos de correlación entre ellas. (Transparencia)

    Aceptando que las desviaciones solo se producen en las ies, la recta buscada será aquella que minimice las desviaciones o residuos (diferencia entre el valor real y el calculado) de la variable Y, entre los puntos experimentales y la línea calculada.

    Como los residuos de Y algunas veces serán negativos y otros positivos, se intenta minimizar la suma de los cuadrados de los residuos. Esto explica el uso del término de mínimos cuadrados para este procedimiento.

    La recta buscada pasa por el centro de gravedad, y su pendiente y ordenada en el origen serán:

     ø(xi "øx) (yi "øy)ø

    b = __________ a =øy " bøx

    (xi "øx)

    La forma de la recta calculada se conoce como recta de regresión de Y sobre X.

    Ejemplo:

    Calcular la pendiente y la ordenada en el origen para los datos: (Datos en transparencia )

    " (xi "øx) (yi "øy) = 216 2

    " ( xi "øx)2 = 112

    øx = 6

    øy = 13 1

    216 12

    b = ___ = 1 93

    112

    a = øy " øbøx ! a = 1 52

    y = 1'93 x + 1'52

    Errores en la pendiente y ordenada en el origen

    La recta de regresión calculada se utiliza para estimar la concentración de las muestras problema por interpolación, y quizá también para estimar el limite de detección del método. Por ello son importantes los errores aleatorios en el cálculo de la pendiente y la ordenada en el origen. La desviación estándar de la pendiente y ordenada en el origen, tiene las siguientes expresiones:

    SY/X

    Sb = _______

    { " (xi "øx)2 }0'5

    0'5

    " xi

    Sa = SY/X ______

    n " (xi "øx)2

    " (yi " y )2 0'5 SY/X = ______

    n - 2

    y = puntos sobre la recta de regresión calculada, correspondientes a los valores de X, es decir, los valores de Y ajustados. El valor de y para un valor de x dado, se calcula a partir de la ecuación de regresión. Los valores de Sa y Sb se pueden utilizar para estimar los limites de confianza para la pendiente y la ordenada en el origen. Así, los limites de confianza para la pendiente vienen dados por:

    b = ± t Sb t ! se obtiene para un nivel de confianza deseado

    y n - 2 grados de libertad.

    De manera similar, los limites de confianza para la ordenada en el origen son:

    a = ± t Sa

    Ejemplo:

    Calcular los limites de confianza y la desviación estándar para la pendiente y ordenada en el origen. (Datos en la transparencia )

    0'9368 0'5

    Sy/x = ___ = 0'4329

    5

    " ( xi "øx)2 = 112

    Sy/x 0'7329

    Sb = _______ = ____ = 0'0409

    " ( xi "øx)2 0'5 "112

    n " 2 = 5

    t = 2'57 ! b = 1 93 ± 2'57 " 0'0409 !

    95 %

    ! b = 1 93 ± 0'11

    " x2 = 364

    " x2 0'5

    Sa = Sy/x ______ = 0'2950

    n " ( xi "øx)2

    a = 1'52 ± 2'57 " 0'2950 ! a = 1'52 ± 0'76

    Cálculo de la Concentración

    Una vez determinadas la pendiente y la ordenada en el origen en la recta de regresión, el fácil calcular el valor de x correspondiente al valor de y medido. Sin embargo, cuando necesitamos estimar el error en una concentración calculada utilizando una recta de regresión, el problema se complica, ya que tanto la pendiente como la ordenada en el origen están sujetas a error.

    La determinación del error en la concentración es bastante compleja, y en muchos casos se utiliza la siguiente fórmula aproximada:

    0'5

    SY/X 1 1 (yo "øy)2

    Sxo = ___ __ + __ + _______

    B m n b2 " (xi "øx)2

    yo = valor experimental de y a partir del cual se determina el valor de la [ ] de xo.

    Sxo = desviación estándar de xo.

    m = nº de lecturas para obtener el valor de Yo.

    n = nº de puntos medidos para el calibrado.

    Sí m = 1: 0'5

    SY/X 1 (yo "øy)2

    Sxo = ___ 1 + _ + _______

    b n b2 " (xi "øx)2

    Los limites de confianza pueden calcularse como:

    xo ± t Sxo ! para n - 2 grados de libertad

    Los resultados más precisos se obtienen cuando yo tiende aøy.

    Si deseamos mejorar (reducir los limites de confianza), podemos proceder de dos maneras:

  • Realizando m medidas para el valor de yo , y utilizando el valor medio de esas m medidas en el cálculo de yo. De esta manera, el primer sumando disminuye. Por ej.: Si el valor de yo = 13'5 se hubiese calculado como media de y determinaciones, los limites de confianza serían: 6'21 ± 0'36 para (Sxo = 0'14) frente a 6'21 ± 0'62 para (Sxo = 0'24).

  • Sin embargo, si se realizan muchas mediciones repetidas, en el supuesto de que se disponga de muestra, se genera mucho más trabajo y se obtiene solo un beneficio adicional.

  • Aumentando el número de puntos de la recta de regresión en la etapa de calibración. El efecto de n sobre los limites de confianza y la determinación de [ ] es más complicada, ya que además de afectar al segundo sumando en la ecuación de Sxo, influye en el valor de t. Además es necesario tener en cuenta que el uso de un gran número de muestras de calibración supone un trabajo extra considerable, pero por otra parte no es adecuado usar pocos puntos ya que entonces el cociente 1 / n aumentará a la vez que n - 2 disminuya, y aumente t, de manera que se incrementan los limites de confianza. (Lo normal es utilizar entre 6 - 8 puntos).

  • Ejercicio:

    Calcular los valores de xo y los limites de confianza a partir de los siguientes datos:

    2.2. Método de adiciones estándar

    Se utiliza cuando es imposible suprimir interferencias físicas o químicas en la matriz de la muestra.

    Supongamos que un analista desea determinar ácido Acetilsalicílico en una aspirina comercial. Si utilizamos este método, podría realizar una calibración con disoluciones acuosas de acetilsalicílico, y utilizar la gráfica de calibración resultante para la determinación de la [ ] del analito en la muestra problema.

    Sin embargo, utilizar soluciones puras para establecer la gráfica de calibración, solo es válido cuando no existen efectos matriz, es decir, no se produce aumento o disminución en la señal correspondiente al analito debido a la presencia de otros componentes en la muestra.

    Una primera solución a este problema podría ser realizar la calibración añadiendo cantidades conocidas de analito a una disolución de composición semejante a la muestra problema, pero exenta de analito. Sin embargo, esta disolución en la mayoría de los casos no se puede conseguir.

    Otra solución consiste en realizar todas las medidas sobre la muestra problema, esto se consigue usando el método de la adición estándar. Este método consiste en tomar volúmenes iguales de problema, añadir a cada uno por separado cantidades distintas de analito, excepto a una de las muestras, y finalmente diluir todas las muestras al mismo volumen final. Seguidamente se determinan las señales instrumentales para cada disolución y se representan los resultados. La escala de concentración (x) se define con las [ ] de analito agregadas a las soluciones muestra. Por tanto, la [ ] desconocida está dada por el punto en el cual la línea extrapolada corta al eje x, es decir, el valor de x para y = 0. Este valor es igual a la razón de la ordenada en el origen y la pendiente de la recta de regresión establecida por mínimos cuadrados. (Transparencia ! Fig. 5.9.)

    a y b están sujetos a error, así el valor calculado para la [ ], también lo estará. Pero en este caso el resultado no se obtiene a partir de medidas de una sola muestra, por lo que, la desviación estándar del valor extrapolado se calcula de la siguiente forma:

    0'5

    SY/X 1 øy2

    SxE = ___ _ + ________

    b n b2 " (xi "øx)2

    Puede observarse que al aumentar n mejora la precisión de la cantidad estimada, siendo necesarios al menos 6 puntos en un experimento de este tipo. Además se mejora la precisión maximizando esta cantidad, por lo que, el intervalo de [ ] a cubrir por las disoluciones de calibración debe ser lo más amplio posible. Los limites de confianza para la [ ] vendrán dados por:

    xE ± t SxE

    Ejemplo:

    La [ ] de Ag en una muestra de derechos fotográficos se determinó por absorción atómica por el método de desviaciones estándar, obteniéndose:

    [Ag adicionada] mg / ml

    0

    5

    10

    15

    20

    25

    30

    Abs.

    0'32

    0'71

    0'52

    0'60

    0'70

    0'77

    0'89

    Obtener la [ ] de Ag, los limites de confianza al 95 % de esta [ ].

    " [(xi "øx) (yi "øy)]

    b = __________ = 0 0186

    " (xi "øx)2

    a

    a =øy " bøx = 0'3218 __ = 17'3 mg / ml

    b

    Limites de Confianza:

    " (yi " y )2 0'5 SY/X = ______

    n - 2

    øy = 0'6014

    " (xi "øx)2 = 700

    0'01094 1 (0'6014)2

    SxE = _____ _ + ________ ! =

    0'0186 7 (0'0186)2 · 700

    SxE = 0'749

    xE = 17'3 ± 2'57 · 0'749 !

    n - 2 = 5

    t = 2'57 ! xE = (17,3 ± 1'9) mg / ml

    95 %

    Aunque este método es una forma de evitar los efectos de interferencia causados por la matriz, tiene dos desventajas:

    1ª.) Es un método de extrapolación, y por tanto, menos preciso que las técnicas de interpolación.

    2ª.) Es difícil de automatizar, y requiere de mayores cantidades de muestra.

    2.3. Método de Estándar Interno

    Una cantidad fija de una sustancia pura (estándar interno), se añade tanto a las soluciones muestra como a las soluciones estándar. El estándar interno debe ser una sustancia similar al analito con una señal fácilmente medible y que no interfiere con la respuesta del analito.

    Después se determinan las respuestas del analito y del estándar interno, y se calcula el cociente de las dos respuestas. De esta manera, si sé varia algún parámetro que afecte a las respuestas medidas, dichas respuestas del analito y del estándar interno, deben ser afectadas por igual. Por tanto, el cociente de respuestas depende solamente de la concentración de analito.

    Una representación de la relación o cociente de respuestas analito a estándar interno como función de la [ ] del analito, da una gráfica de calibración cuyo ajuste se hace por mínimos cuadrados:

    Respuesta analito

    _________

    Respuesta e. interno

    [analito]

    _______

    [estándar interno]

    3. PARÁMETROS CARACTERÍSTICOS

    3.1. Limites de detección y cuantificación

    En términos generales se puede definir él limite de detección de un analito, como aquella [ ] que proporciona una señal instrumental significativamente diferente de la señal de una muestra en blanco, o la señal de fondo.

    “Significativamente diferente”, da al analista un buen margen de libertad para establecer la definición exacta del limite de detección. De hecho, en la práctica existe poco acuerdo entre los Organismos Oficiales sobre este acuerdo.

    Una definición aceptable de limite de detección, que ha sido sugerida recientemente por organismos de EEUU, es que el limite de detección es la cantidad de analito que proporciona una señal y e igual a la del blanco más tres veces la desviación estándar del blanco:

    yLD = yB + 3 SB

    El limite de cuantificación o determinación considerado como el limite de [ ] más bajo para mediciones cuantitativamente precisas, se define como la cantidad de analito que proporciona una señal y e igual a la del blanco más diez veces la desviación estándar del blanco:

    yLQ = yB + 10 SB

    En la práctica, cuando se trabaja con una recta de regresión convencional, se puede usar la desviación estándar de residuos Sx/y en lugar de SB, y se puede emplear el valor de A = (0,0) como una estimación de la señal correspondiente al blanco. Una vez obtenido el valor de y obtendremos la [ ] correspondiente al limite de detección o cuantificación, a partir de la recta de calibrado.

    yLD = yB + 3 SB a + 3 Sy/x = b x + a

    yLD = a + 3 Sy/x (a + 3 Sy/x " a) 3 Sy/x

    x = ________ = ____

    y = b x + a b b

    Ejemplo: Estimar los limites de detección para determinar la fluorescencia del ejemplo anterior:

    a = yB = 1'52 ± 030

    b = 1'93 ± 0'04

    r = 0'9989

    Sy/x = SB = 0'433

    Limite de detección (LDD) = 0'67 pgr / ml

    Sx = 0'25

  • Rango lineal

  • El intervalo de [ ] en que es aplicable un método analítico va desde el limite de cuantificación hasta la [ ], a la cual, la curva de calibrado se desvía de la linealidad. En el limite de cuantificación, la desviación estándar relativa de las medidas es de aproximadamente un 10 %, y disminuye con rapidez cuando aumentan las [ ].

  • Sensibilidad

  • La sensibilidad de un instrumento o método se define como, su capacidad para discriminar entre pequeñas diferencias en la [ ] de un analito. La sensibilidad viene limitada por la pendiente de la curva de calibración y la reproducibilidad o precisión del sistema de medida, de manera que para dos métodos que tengan igual precisión, el que presente mayor pendiente en la curva de calibración será el más sensible, y viceversa.

    La IUPAC, define la sensibilidad como la pendiente de la curva de calibración a la [ ] de interés. Como la mayoría de las curvas de calibración son lineales, en ellas la sensibilidad de calibración es independiente de la [ ], e igual a la pendiente de la recta de calibrado.

    Mandel y Stichler, definen la sensibilidad analítica a una determinada [ ], teniendo en cuenta la precisión, como:

    b m b = pendiente

     = __ ó  = __ donde

    Ss Ss Ss = desviación estándar de las señales

  • Selectividad

  • La selectividad de un método analítico durante el grado de ausencia de interferencias, debidas a otras especies contenidas en la matriz de la muestra.

    Desafortunadamente, ningún método analítico está totalmente libre de interferencias, y con frecuencia deben realizarse distintas operaciones para eliminarlas.

    Consideremos una muestra que contiene un analito A, así como dos especies potencialmente interferentes (B y C), encontrándose en [ ] CA, CB, CC, con sensibilidad de calibración: ma, mb, mc. La señal medida en el instrumento vendrá dada por:

    S = ma CA + mb CB + mc CC + Sbl

    Blanco

    Se define el coeficiente de selectividad de B con respecto de A, como:

    mB

    KB,A= __

    mA

    El coeficiente de selectividad nos da la respuesta relativa del método para la especie B cuando se compara con A.

    Análogamente, el coeficiente de selectividad de C con respecto de A, será:

    mC

    KC,A = __

    mA

    Si sustituimos en la ecuación anterior estos coeficientes, obtenemos que:

    S = mA (CA + KB,A · CB + KC,A · CC) + Sbl

    Los coeficientes de selectividad pueden variar desde 0 en ausencia de interferencias hasta 1 ó más. Un coeficiente será negativo si la interferencia causa una reducción en la intensidad de la señal del analito y a la inversa.

    Los coeficientes de selectividad son parámetros de calidad útiles para describir la selectividad de los métodos analíticos, pero son poco usados.

    Ejemplo: Análisis por mininos cuadrados de datos de calibración para la determinación de Plomo, basada en el espectro de emisión de llama, condujo a la ecuación:

    y = 1'12 CPb + 0'312

    obteniéndose:

    [Pb] ppm

    Nº de replicas

    øy

    S

    10 - 0

    10

    11'62

    0'15

    1 - 0

    10

    1'12

    0'025

    0 - 00

    24

    0'0296

    0'0082

    Calcular:

  • Sensibilidad de la calibración.

  • Sensibilidad analítica a 1 y 10 ppm de Pb.

  • Limite de detección.

  • Sensibilidad = pendiente ==> m = 1'12

  • Para 10 ppm de Pb:

  • b 1'12 + discriminación

     = __ = ___ !  = 7'5 + sensibilidad

    Ss 0'15 + precisión

    + selectividad

    Para 1 ppm de Pb:

    1'12

     = ___ !  = 45

    0'025

  • y = yB + 3 SB

  • y = 0'0296 + 3 · 0'0082 = 0'054

    y - a 0'054 - 0'0296

    y = b x + a ! x = ___ ! x = ________

    b 1'12

    La [ ] en el limite de detección es x = 0'022 ppm de Pb

    3.4. RELACIÓN SEÑAL - RUIDO

    La señal analítica puede dividirse en dos partes: una causada por él / los analitos y la otra, por los componentes de la matriz de la muestra y por la instrumentación usada en la medición. En este último, parte de la señal se conoce como ruido, y constituye información no deseada, ya que degrada la exactitud y precisión del análisis, a la vez que aumenta el limite de detección. El efecto del ruido sobre la señal consistente en una parte del registro gráfico de una pequeña señal de corriente continua. (Fig. 4.1.)

    En la mayoría de las medidas, el valor promedio de la señal correspondiente al ruido se mantiene cte., y es independiente de la magnitud de la señal total. Así pues, el efecto del ruido sobre el error relativo de una medida, aumenta a medida que baja el valor de la cantidad medida. Por esta razón, para describir la calidad de un método analítico o el funcionamiento de un instrumento, la relación señal - ruido es un parámetro de calidad mucho mejor que el ruido solo.

    Para una señal cualquiera, la magnitud del ruido se define como la desviación estándar del valor de la señal medida, mientras que la señal viene dada por la media de la medida.

    Media 1 øx

    S / N = ____ = ____ = ___

    Sd D.E.R Sd

    desviación estándar

    Como norma general, la detección cierta de una señal mediante un sistema visual resulta imposible cuando la relación señal - ruido es < 2 ó 3. S / N < 2 ó 3

    Ej. Fig. 4. 2

    S / N = 4,3 S / N = 43 ! Mejor.

    Conforme la [ ] disminuye hacia el nivel traza, el problema de distinguir las señales respecto al ruido, se hace cada vez más difícil, lo que ocasiona una disminución en la exactitud y precisión de las mediciones a la vez que se aumenta el límite inferior de la cantidad de analito que se puede detectar.

    Un aumento en la relación señal - ruido, generalmente indica una reducción del ruido, y por tanto, una medición más deseable. Los dos métodos principales para la reducción del ruido, es decir, el aumento en la relación señal - ruido en análisis instrumental son:

    • En primer lugar, mediante el uso de dispositivos electrónicos como filtros, para procesar señales mientras pasan a través del instrumento o detectores sincrónicos que atenúan el ruido sin afectar de manera significativa a la señal analítica.

    • Se puede hacer un posterior tratamiento matemático de los datos, con un software adecuado, que permite extraer las señales de entornos ruidosos.

    TEMA 4:

    INTRODUCCIÓN A LOS MÉTODOS ESPECTROSCÓPICOS DE ANÁLISIS

    4.1. INTRODUCCIÓN

    Para la determinación de un analito hay métodos clásicos y métodos instrumentales. Estos últimos tienen unas ventajas sobre los primeros:

    1.) Permiten realizar análisis difíciles o imposibles por los otros métodos con una elevada selectividad y sensibilidad. Además, mientras en los métodos clásicos solo podemos determinar un analito por análisis, en los instrumentales podemos determinar simultáneamente varios analitos en un análisis.

    2.) Suelen ser más rápidos y baratos que los clásicos. Es fácil la automatización de estos métodos instrumentales.

    3.) Los instrumentos analíticos pueden conectarse a ordenadores, lo que permite un óptimo control del instrumento y manejo de datos.

    4.) Desarrollo de instrumentos inteligentes.

    A partir de ahora solo vamos a hablar de métodos instrumentales.

    Estos métodos tienen ciertas desventajas:

    1.) Requieren ser manejados por técnicos expertos.

    2.) Es necesario una calibración previa del equipo. Esta calibración previa se hace a base de métodos químicos, por lo cual la exactitud del método instrumental depende de la exactitud del método químico empleado.

    Esta calibración suele ser cara.

    Existe una gran cantidad de técnicas instrumentales. Estas pueden clasificarse en:

    • Espectroscópicas

    • Electroquímicas

    • Cromatográficas

    • Acopladas o conjuntadas

    • Diversas

    4.2. MÉTODOS ÓPTICOS: DEFINICIÓN Y CLASIFICACIÓN

    Los métodos ópticos se definen como aquellos que miden la radiación electromagnética que emana de la materia o interacciona con ella.

    Los métodos ópticos se dividen en:

  • Métodos ópticos espectroscópicos: se basan en la medida de la intensidad y longitud de onda de la energía radiante. La característica común a todos ellos es que se basan en la medida de espectros. Estos son debidos a transiciones entre estados de energía característicos.

  • Son los métodos más utilizados donde el mecanismo de extracción es la absorción o emisión de la radiación.

  • Métodos ópticos no espectroscópicos: se basan en una interacción entre radiación electromagnética y la materia que produce como resultado un cambio en la dirección de las propiedades físicas de la radiación electromagnética.

  • En estos métodos los mecanismos de interacción son la reflexión, refracción, difracción, dispersión, interferencias, polarización o la dispersión refractiva.

    Los métodos espectroscópicos van acompañados de un espectro.

    4.3. PROPIEDADES DE LA RADIACIÓN ELECTROMAGNÉTICA

    Radiación electromagnética: propagación de la energía en el espacio sin soporte de la materia por medio de ondas transversales.

    Clásicamente el comportamiento de la luz se ha atribuido a su naturaleza ondulatoria, pero hay fenómenos (absorción o emisión) que no pueden explicarse con la teoría ondulatoria y que requieren que la radiación se comporte como pequeños haces de energía, es decir, como partículas llamadas fotones.

    En la práctica, la mayor parte de la radiación electromagnética no está polarizada, es decir, presenta vectores eléctricos y magnéticos en todas las direcciones perpendiculares a la dirección de propagación, aunque para explicar la interacción de la radiación electromagnética de la materia puede utilizarse tanto el componente eléctrico como el magnético. (Resulta más fácil representar el componente eléctrico, y con él vamos a trabajar).

    Parámetros Ondulatores

    - Amplitud de una onda sinusoide: longitud del vector eléctrico en el máximo de la onda.

    - Periodo de la radiación: tiempo en segundos necesario para el paso de dos máximos o mínimos consecutivos por un punto fijo del espacio.

    Los diferentes tipos de radiación electromagnética se caracterizan generalmente por su longitud de onda o su frecuencia:

    - Longitud de onda ():longitud de un ciclo o distancia entre dos máximos o mínimos consecutivos.

    - Frecuencia (): número de ciclos que pasan por segundo por un punto fijo.

    La longitud de onda y la frecuencia se relacionan mediante la expresión:

    V _! velocidad de propagación del medio

     = __

    

    Si es en el vacío, la velocidad en el medio seria igual a la velocidad de la luz (c = 3·1010 m / s):

    c

     = __

    

    Es importante señalar que la frecuencia es la única característica verdadera de una radiación dada, ya que viene determinada por la fuente y permanece invariable.

    Por el contrario, la velocidad de propagación y la longitud de onda, dependen de la naturaleza del medio de propagación.

    En el vacío la velocidad de la radiación electromagnética es independiente de la longitud de onda, y alcanza su valor máximo. La radiación electromagnética se mueve en el vacío con una velocidad de 2'9979·1012 cm / s.

    La velocidad de la luz en el aire difiere un 0'03 % de la velocidad de la luz en el vacío, por lo que se puede aproximar a:

    c

     = __

    

    En lugar de expresar la frecuencia en ciclos / s, Hz ó s-1, se utiliza frecuentemente el número de onda () que es el inverso de la longitud de onda. Como la longitud de onda se expresa en cm, el número de onda se expresará en cm-1.

    El número de onda representa el número de ondas que hay por centímetro, y es directamente proporcional a la frecuencia:

    c 1 

     = __ ; = __ ! = __ !  = c

      c

    Dualidad onda-partícula de la radiación

    Hasta ahora hemos comentado la naturaleza ondulatoria de la radiación electromagnética. Sin embargo, existen ciertos fenómenos como el efecto fotoeléctrico, el efecto Compton ó la distribución espectral del cuerpo negro, que requieren que la radiación sea considerada como un flujo de partículas o corpúsculos. Esta teoría fue establecida finalmente por Newton, y la controversia entre defensores de ambas teorías se prolongó hasta principios del siglo XX. El dilema fue resuelto por Max Planck que en 1.900 unificó ambas teorías. Para ello Planck consideró que la energía de las partículas en movimiento térmicamente excitadas, está cuantizada, es decir, que únicamente están permitidas ciertas energías. Posteriormente supuso que cuando un sistema pasa de un nivel de energía a otro de menor energía, se emite un cuanto de energía, y que esta energía está relacionada con la frecuencia de la radiación emitida, mediante:

    h c E ! Energía del cuanto de radiación.

    E = ___ = h   ! Longitud de onda de la radiación.

      ! Frecuencia de la radiación.

    h ! Cte. de Planck = 6'624·10-27Hz / s

    La ecuación de Planck unifica las dos teorías ya que relaciona la energía de un cuanto de radiación (concepto corpuscular), con la frecuencia de la radiación (concepto ondulatorio).

    4.4. ESPECTRO ELECTROMAGNÉTICO

    Abarca un intervalo enorme de longitudes de onda y frecuencias. Sin embargo las zonas de separación entre las regiones no están establecidas de un modo rígido.

    El espectro de la figura 5.1. está casi completo, ya que le faltan algunas regiones que están en los extremos. En el extremo de alta energía se han omitido los rayos cósmicos que son más energéticos que los rayos . En el extremo de baja frecuencia se ha omitido la longitud de onda perteneciente a los generadores de corriente.

    Las divisiones son función de los métodos que se precisan para generar y detectar los distintos tipos de radiación, siendo la región visible del espectro (percibida por el ojo humano) muy pequeña en comparación con otras regiones espectrales.

  • PRINCIPIOS EN LOS QUE SE BASAN LOS MÉTODOS ÓPTICOS NO ESPECTROSCÓPICOS

  • Existen algunas formas de interacción entre la radiación electromagnética y la materia, que se explican considerando la luz como una onda. Algunas de estas interacciones son el fundamento de un gran número de métodos analíticos, y la mayoría de ellas juegan un papel esencial en el diseño de los instrumentos ópticos.

    Métodos Espectroscópicos:

    4.5.1. Refracción

    Base de la refractometría. Se define como el cambio de dirección de la radiación al pasar de un medio a otro, pudiendo atribuirse a la diferencia de velocidad en los dos medios. Siempre que la luz pasa de un medio a otro es parcialmente reflejada y parcialmente refractada o trasmitida.

    La energía reflejada aumenta cuando la diferencia de velocidad entre los dos medios aumenta y esta es superior cuanto mayor sea la diferencia de densidad entre los dos medios.

    Una ley de refracción útil, es la ley de Snell, que indica que el cociente entre el seno del ángulo de incidencia y el seno del ángulo de refracción es una constante conocida como índice de refracción. Las mismas relaciones pueden establecerse entre las velocidades relativas de la radiación en ambos medios: La velocidad de la radiación en un medio determinado depende de su longitud de onda, de manera que en la práctica para establecer los índices de refracción con un criterio absoluto se utiliza la línea D del sodio, y el medio uno es la del vacío.

    (589 nm)

    Dado que la velocidad de la luz en el vacío es una constante, la definición del índice de refracción absoluto vendrá dada como c / V2 = n2. En la práctica el medio uno es el aire, por que n2 = Vaire / V2

    El índice de refracción (n) se utiliza con frecuencia para la identificación de sustancias. La razón por la cual las mismas permiten descomponer la luz en función de sus longitudes de onda, radica en que la velocidad de la radiación en un medio determinado depende de sus longitudes de onda.

    De n = V1 /V2 pueden deducirse que los mejores prismas serán los de materiales elevados (índice de refracción elevados).

    4.5.2. Reflexión

    Se produce siempre que incide radiación en la interfase entre dos materiales de índice de refracción diferentes. Si la superficie es lisa, el ángulo de incidencia es igual al ángulo de reflexión. Mientras que superficies irregulares dan lugar a reflexiones difusas con poco interés desde el punto de vista óptico.

    Se define reflexión como la refractancia o poder de reflexión entre la intensidad de la radiación reflejada y la de la radiación incidentes en la interfase. Así para un ángulo de incidencia como  la refractancia (l) será mayor cuanto mayor sea el índice de refracción del medio dos, aunque también interviene el medio uno:

    Ir (n2 - n1)2 Ir = intensidad reflejada

    l = __ = _____ I0 = intensidad incidente

    I0 (n1 + n2)2 n1, n2 = índice de refracción del

    medio 1 y 2.

    Cuanto mayor sea la diferencia entre (n2 - n1) mayor será la reflectancia.

    Si n1 = n2, no se producirá reflexión y si una superficie de un objeto no refleja luz esta es invisible, por tanto, los objetos invisibles lo son cuando están rodeados por un medio de índice de refracción idéntico al suyo propio.

    4.5.3. Dispersión

    La turbidemetría y nefelometría se basan en la dispersión.

    Cuando la radiación electromagnética interacciona con partículas de pequeño tamaño induce oscilaciones en las capas eléctricas de la materia y los dipolos así inducidos emiten ondas secundarias en todas las direcciones. En este proceso parte de la energía se emite sin cambiar su longitud de onda.

    Se produce dispersión cuando las partículas tienen dimensiones del mismo o menor orden de magnitud que la longitud de onda incidente y además se encuentran en un medio con índice de refracción diferente al suyo propio si el tamaño de las partículas es " 2  inicialmente se produce reflexión y refracción.

    Dispersión de la luz por los gases se observa en el aire, y es la responsable del color azul del cielo y del color rojo del sol en el ocaso.

    TABLA: Partículas que producen dispersión en diversas regiones del espectro.

    Dos tipos de dispersión:

    - Dispersión Rayleigh: Es producida por partículas cuyo tamaño es del 5 al 10 % de la longitud de onda de la radiación incidente. Este tipo de dispersión da lugar a una distribución de las intensidades de la radiación dispersada que es relativamente simétrica en todas las direcciones.

    Figura 1 - 10 (partículas pequeñas)

    - Dispersión por partículas grandes: Se produce cuando las dimensiones de las partículas son superiores al 10 % de la longitud de onda e inferiores a 3/2 de la longitud de onda, ya que para estos últimos valores desaparece la dispersión.

    En este caso la distribución de intensidad no es larga y se desvía en el mismo sentido que la radiación incidente.

    Figura 1 - 11.

    4.5.4. Interferencias

    Una onda puede describirse mediante una ecuación sinusoidal de la forma:

    y = campo eléctrico

    A = amplitud

    y = A sen (t + )  = ángulo de fase

     = frecuencia angular

     también puede escribirse como = 2 y = A sen (2 t + )

    Cuando n-ondas electromagnéticas que se diferencian en frecuencia (), amplitud (A) y ángulo de fase (), pasan al mismo tiempo por un punto del espacio, se puede escribir que:

    y = A1 sen (21 t + 1) + A2 sen (22 t + 2) + ........ + An sen (2n t + n)

    siendo y el campo resultante.

    Estas ondas interaccionan o interfieren de modo que la onda resultante es la superposición de las ondas originales. La intensidad de la onda resultante depende de la diferencia de fase entre las ondas que interaccionan.

    Figura 1 - 12.

    En esta figura se muestra la superposición para dos ondas de distinta amplitud pero de igual frecuencia. Se superponen para dar una onda resultante. Puede observarse que en este caso se produce una interferencia constructiva que es la máxima situación que se produce siempre que 1 y 2 son iguales a 0 º ó bien 360 º , ó múltiplos enteros.

    De igual manera una interferencia destructiva máxima se produce cuando la diferencia (1 " 2) sea de 180 º ó 180 º más un múltiplo de 360 º.

    Las interferencias son la base de la interferometría.

    Un aspecto importante de la superposición de ondas consiste en que una onda compleja puede descomponerse en componentes simples por medio de una operación matemática denominada transformada de Fourier.

    Fourier entre 1768 - 1830 demostró que cualquier movimiento periódico independientemente de su complejidad puede describirse mediante una suma sencilla de términos seno y coseno por ejemplo la forma de onda cuadrada muy usada en electrónica puede describirse por medio de la siguiente ecuación:

    1 1 1

    y = A sen 2 t + _ sen 6 t + _ sen 10 t + """"""" + _ sen n2 t

    3 5 n

    en la que n toma los valores 3, 5, 7, 9, 11, 13, .....

    Una representación gráfica de este proceso sumatorio se muestra en la transparencia (figura 5 - 6)

    En la parte:

    a) la línea continua representa la suma de tres ondas sinusoides con distinta amplitud (5:3:1) y de frecuencia (1:3:5). Se observa que la resultante empieza a aproximarse al perfil de una onda cuadrada.

    b) resultado de incorporar nueve ondas. Se aproxima más a una onda cuadrada.

    Esta descomposición es tediosa si se realiza manualmente pero con un ordenador y un programa adecuado se convierte en tarea de rutina.

    4.5.5. Difracción

    Es un proceso por el cual un haz paralelo de radiación electromagnética se curva cuando pasa por un obstáculo puntiagudo o a través de una abertura estrecha. Este fenómeno es de gran importancia para la comprensión de las rendijas y redes de difracción usadas en los instrumentos ópticos. La difracción se demuestra con facilidad en el laboratorio cuando se generan mecánicamente en un depósito de agua, ondas de frecuencia constante. Observando las ondas antes y después de pasar a través de una abertura o rendija. Cuando la rendija es ancha en comparación con la longitud de onda del cuanto, la difracción es insignificante y difícil de detectar. Sin embargo, cuando la longitud de onda y la abertura de la rendija son del mismo orden de magnitud, la difracción llega a ser intensa. En este caso la rendija se comporta como un nuevo origen a partir del cual las ondas se irradian en una serie de arcos de cerca de 180 º, de manera que la dirección del frente de onda parece como si se curvara al pasar entre los bordes de la rendija.

    La difracción está relacionada con la interferencia como puede demostrarse considerando el experimento realizado por Thomas Young en 1800, en el que se demuestra de modo inorgánico la naturaleza de la luz. (Figura 5 - 7 y 5 - 8)

    Cuando un haz paralelo atraviesa una rendija u orificio pequeño, se difracta e ilumina casi por igual a las dos rendijas b y c que hay próximas entre sí. La difracción que sale de estas rendijas se observa entonces en una pantalla en el plano x - y y si la radiación era monocromática, se observará una serie de imágenes oscuras y luminosas que son consecuencia de la existencia de interferencias destructivas máximas y constructivas máximas.

    La banda central presenta un máximo de intensidad en el punto Po debido a que la interferencia entre las ondas es máxima in la dirección  = 0, mientras que la interferencia destructiva entre las ondas da lugar a mínimos de intensidad.

    Esta difracción de Fraunhober implica la utilización de lentes, las cuales se utilizan en la mayoría de los trabajos ópticos. Si no se utilizan lentes se emplea el término difracción de Fresnel.

    En esta figura se muestra un diagrama de difracción de Frenchouse en el que puede observarse la existencia de un máximo central en Po y mínimos en P1, P2, P3. El ángulo al cual aparece el mínimo en la figura se puede calcular a partir de la longitud de onda y la anchura de la rendija:

    

    Sen  = __

    b

    de manera que  disminuye cuando la anchura de la rendija (b) aumenta, o cuando la longitud de onda () disminuye. Se deduce que cuando la rendija es grande en comparación con la longitud de onda, la difracción no tiene importancia.

    En los instrumentos ópticos en general presentan ventajas utilizando únicamente la banda central de intensidad máxima, sacrificando la pequeña cantidad de energía de los máximos secundarios.

    Anchura óptima de rendija

    Para obtener el máximo rendimiento al utilizar un prisma o una red de difracción para descomponer la radiación electromagnética en sus longitudes de onda, es conveniente iluminar toda la cara del prisma o toda la longitud de la radiación.

    Del estudio realizado se deduce que existe una anchura óptima de rendija que permite enfocar la banda central y la banda de máxima intensidad sobre toda la longitud del prisma o la red.

    Puede demostrarse que la anchura óptima viene dada por:

    2d  = longitud de onda

    bóptica = ___ d = distancia entre la rendija y el prisma

    w w = anchura del prisma que debe iluminarse

  • Dispersión Refractiva

  • Separación de un haz de radiación en las longitudes de onda que lo componen. Esta separación se puede conseguir mediante un prisma utilizando el fenómeno de la refracción o mediante una red utilizando el fenómeno de la difracción.

    Dispersión mediante un prisma

    Si una radiación incide sobre un dieléctrico que posea caras paralelas, los rayos que emergen son paralelos a los rayos incidentes. En cambio, si las caras del material no son paralelas cambiará la dirección del haz refractado por segunda vez o emergente. Además debido a que la velocidad de la luz en cualquier medio diferente al vacío depende de la longitud de onda, cada componente de una mezcla de longitudes de onda seguirá su propio camino, y por tanto, el grado de desviación dependerá de su longitud de onda, dando lugar a la dispersión refractiva del haz.

    La capacidad de un prisma para dispersar la radiación se caracteriza con frecuencia por su dispersión angular, que es una medida de la separación angular entre dos rayos de luz que difieren en sus longitudes de onda en una cantidad d:

    d  2 " 1

    __ = __ = ____

    d  2 " 1

    Esto es válido sii  y  son pequeños.

    También podemos expresar la dispersión angular como:

    d d dn

    __ = __ __

    d dn d

    4.5.7. Polarización

    La mayor parte de las fuentes de radiación producen perturbaciones electromagnéticas en las cuales las vibraciones de los vectores eléctrico y magnético tienen lugar en todas las direcciones perpendiculares a la dirección de propagación de la radiación, es decir, las direcciones de estos vectores se distribuyen igual en una serie de planos centrados a lo largo de la trayectoria del haz, tal como se muestra en la figura: 1 - 25 (dispersión de la luz).

    Esta radiación no polarizada puede representarse convirtiendo hipotéticamente y mediante una suma de vectores, los infinitos planos direccionales en dos planos principales perpendiculares. La eliminación de uno de los dos planos de vibración resultantes, da lugar a la luz polarizada en un plano.

    La polarización es la base de la polirametría y de la dispersión óptica rotatoria.

    Se puede obtener radiación polarizada en un plano mediante reflexión, dicroismo, doble difracción y dispersión.

    4.6. TIPOS DE ESPECTROS Y MECANISMOS DE INTERACCIÓN

    Todos los aspectos pueden dividirse en tres tipos fundamentales: de absorción, de emisión y rama:

  • Espectros de Absorción

  • La absorción es el fundamento de métodos espectroscópicos en todo el espectro electromagnético.

    El proceso de absorción puede representarse de modo sencillo:

    x + h  ! x*

    x* ! x + Q

    La primera ecuación engloba todos los procesos de absorción de importancia. La segunda representa la disipación posterior de la energía absorbida, generalmente debida a la colisión con otros átomos o moléculas. En general esta disipación no se considera cuando se estudian procesos de absorción debido a que la cantidad de calor liberado es generalmente despreciable. Sin embargo su consideración es importante para comprender su espectro de absorción y para distinguirlo del de fluorescencia y el de otros espectros.

    Para que una radiación electromagnética sea absorbida por la materia deben cumplirse:

    1º.) Debe haber una interacción entre el campo eléctrico de la radiación electromagnética y alguna carga eléctrica de la sustancia.

    2º.) La energía de la radiación incidente a de ser exactamente igual a la diferencia de energías entre el estado fundamental y uno de los estados excitados de la especie absorbente.

    Si no se cumple la condición 2, la energía será trasmitida sin absorción.

    Por otro lado la energía o frecuencia del fotón incidente para que pueda ser absorbido, viene dado por la ecuación de Bohr:

    Ei = energía de la especie absorbente en el estado fundamental

    h  = Ef - Ei

    Ef = estado permitido de energía superior

  • Absorción Atómica

  • El paso de la radiación policromática ultravioleta o visible a través de un medio constituido por partículas monoatómicas (Na, Hg) da lugar a espectros de absorción constituido por líneas definidas que corresponden a las transiciones de los estados de energía permitidos del átomo.

    La simplicidad de tales espectros se debe al pequeño número de posibles estados energéticos de las partículas absorbentes. Así por ejemplo el vapor de Na presenta dos picos agudos de absorción muy próximos entre sí en la región del visible (589 - 589'7).

    Picos: corresponden a la excitación del e- desde el 3s a los estados 3p, que difieren muy poco en su energía.

    B.) Absorción Molecular

    Los espectros de absorción de radiación poliatómicos son más complicados, ya que el número de estados de energía es mucho mayor que el que corresponde a los átomos aislados, además las transiciones electrónicas vienen acompañadas de cambios simultáneos en los estados vibracionales o rotacionales de la molécula, de modo que se obtienen espectros de bandas.

    Este hecho puede explicarse mediante los diagramas de niveles de energía. (Figura 1-6).

    Los niveles de energía principales n son los niveles de energía electrónicos, los cuales solo se indica en la figura y se designan por el número electrónico n, siendo n = 1, 2, 3, ....

    Asociados a cada uno de los niveles energéticos electrónicos se encuentran los diferentes subniveles vibracionales que se designa por el número cuántico  = 0, 1, 2, 3,.... y cada uno de los niveles vibracionales se encuentra subdividido en diferentes niveles rotacionales que se designan por el número cuántico rotacional  = 0, 1, 2,...

    Esta representación de la figura esta simplificada ya que en realidad la difracción de energía entre los niveles energéticos electrónicos es muy grande, los niveles vibracionales tienden a converger a energías elevadas y por otro lado, los niveles rotacionales tienden a divergir a energías elevadas.

    Las reglas de selección permiten generalizar qué transiciones están permitidas y cuales no. Algunas de estas reglas para moléculas simples lineales tienen lugar en:

    1º.) Las transiciones rotacionales puras solo pueden tener lugar entre niveles rotacionales adyacentes:  = ± 1

    2º.) Las transiciones vibracionales deben ir acompañadas de transiciones rotacionales simultaneas:  = ± 1  = ± 1

    3º.) Las transiciones eléctricas van generalmente acompañadas de transiciones vibracionales y rotacionales, aunque esto no es imprescindible:

    n = ±1  = ± 1  = ± 1

    Según acabamos de ver, el espectro electrónico contiene siempre superpuestos a las transiciones electrónicas, transiciones vibracionales y rotacionales, dado que un gran número de moléculas que se encuentran en el estado electrónico fundamental se pueden encontrar en estados vibracionales excitados, se pueden obtener un gran número de transiciones distintas, pero de parecida energía.

    Por esta razón, los espectros de absorción en radiaciones tanto en el ultravioleta como en el visible, se caracterizan por presentar varias ondas de absorción.

    4.6.2. Espectros de emisión

    Los espectros de emisión se deben a un proceso que es exactamente el inverso a la absorción:

    x* ! x + h

    de manera que la sustancia pasa de un estado exaltado de elevada energía a uno de baja energía y emite radiación.

    Pueden distinguirse tres clases distintas de procesos de emisión que definen como la sustancia alcanza el estado excitado.

    Emisión del núcleo radiactivo

    Los núcleos de las sustancias radiactivas naturales o producidas por bombardeo de neutrones, se pueden desintegrar de manera espontánea emitiendo rayos , y así el espectro de rayos  que se obtiene es característico del núcleo emisor.

    Emisión después de la absorción de radiación electromagnética

    La sustancia puede pasar de un estado excitado al estado fundamental perdiendo el exceso de energía en forma de calor. Sin embargo, algunas sustancias pueden desactivarse por otros mecanismos de emisión como son la resonancia, fluorescencia, fosforescencia:

    Resonancia: fenómeno poco frecuente que tiene lugar cuando un átomo o molécula que ha absorbido una determinada radiación vuelve al estado fundamental emitiendo radiación de la misma frecuencia que la absorbida. Este tipo de emisión se da casi exclusivamente en sistemas con átomos aislados en los cuales no existe posibilidad de choques con otra sustancia antes de la emisión.

    Fluorescencia y Fosforescencia: son reemisiones de radiación de longitudes de onda superior, es decir, de menor energía que la radiación absorbida. Esto es debido a que parte de la radiación absorbida se pierde generalmente por desactivación vibracional antes de la emisión.

    En la fluorescencia el tiempo transcurrido entre la absorción y emisión de radiación oscila entre 10-4 y 10-8 segundos, de modo que la reemisión parece instantánea y cesa cuando se elimina la fuente de radiación.

    En la fosforescencia el tiempo transcurrido entre la absorción y la emisión es mucho mayor, variando entre 10-4 y 10 segundos o más.

    Emisión a partir de una excitación no electrónica

    También puede usarse energía no electromagnética para llevar a un átomo o molécula al estado excitado capaz de producir emisión de radiación. Esta energía puede ser eléctrica o térmica, pudiendo describirse el proceso:

    x + (energía eléctrica o térmica) x*

    x* x + h

    La excitación eléctrica se produce básicamente mediante el bombardeo con electrones de mayor energía, por ejemplo en tubos de rayos X y en la fuente de chispa de corriente alterna, y son ejemplo de excitación térmica la utilización de la espectrofotometría de llama y las fuentes de arco de corriente continua.

    4.6.3. Espectro Raman

    En la espectroscopia Raman interviene un proceso único, en el cual la molécula es excitada a un nivel de energía que no pertenece a la molécula, sino que corresponde a la radiación de excitación. (Figura 1 - 5).

    4.7. LEYES DE ABSORCIÓN DE LA RADIACIÓN

    Al interaccionar la radiación electromagnética con la materia se produce absorción si la frecuencia de la radiación es tal que su energía coincide con la necesaria para que el sistema pase al nivel de mayor energía y permitido.

    Las dos leyes fundamentales que rigen el comportamiento de la fracción de la radiación incidente absorbida al pasar a través de una muestra dada, son la ley de LAMBERT - BEER:

    1º.) Ley de LAMBERT: formulada por Bouguer en 1.729 y restablecida por Lambert en 1768 se conoce como Ley de Lambert, y predice el efecto que produce el espesor de la muestra sobre la fracción de radiación que se absorbe.

    2º.) Ley de BEER: establecida en 1852 y llamada Ley de Beer, establece el efecto de la concentración.

    La forma combinada de las dos leyes se conoce como Ley de Beer, ya que la concentración de la especie absorbente es el factor más importante en la aplicación de estas leyes.

    Aunque la Ley de Beer se usa en la zona central del espectro electromagnético (ultravioleta a infrarrojo), se cumple también para procesos de absorción en cualquier zona del espectro, y de hecho constituye la base de las aplicaciones cuantitativas de la absorción.

    4.7.1. Ley de Lambert

    Este autor llegó a la conclusión intuitiva y razonada de que cada unidad de longitud del material a través del cual pasa la radiación absorbe la misma fracción de radiación.

    Si dado un haz monocromático y paralelo de intensidad Io que pasa a través de un espesor db del material absorbente, la perpendicular de la intensidad puede establecerse mediante la expresión: anchura de la cubeta o espesor del material absorbente

    dI = " k · I · db

    variación de intensidad constante de `proporcionalidad

    el signo menos de la expresión indica que la intensidad disminuye al aumentar b.

    Reordenando esta ecuación tenemos:

    dI

    __ = " k · db

    I

    lo cual establece que la fracción de radiación absorbida es proporcional al espesor atravesado. Si Io es la intensidad incidente, si integramos obtenemos:

    I dI b

    __ = " k db teniendo en cuenta los límites de integración

    I I 0

    I I k

    Log __ = " k · b ! lg __ = ___ b

    I0 I0 2'303

    Esta ecuación constituye la forma definitiva de la Ley de Lambert que es una ley exacta y aplicable a cualquier medio homogéneo y no dispensivo (gas, líquido, sólido o en disolución), y por otro lado la constante de proporcionalidad k depende para una sustancia absorbente dada de la longitud de onda y de la temperatura. Además para una disolución, la concentración a de permanecer constante.

    Esta ley aunque es exacta no es de gran aplicación en química.

  • Ley de Beer

  • Beer encontró que un aumento de la concentración del soluto absorbente produce el mismo efecto que un aumento proporcional en la distancia que recorre el haz a través de la muestra.

    La constante de proporcionalidad (k) es a su vez proporcional a la concentración del soluto absorbente:

    Io k

    Log __ = ___ b

    I 2'303

    Según Beer:

    K concentración

    ___ = a · c

    2'303 nueva constante de proporcionalidad

    Teniendo en cuenta la Ley de Lambert:

    Io

    Log __ = a b c

    I

    La Ley de Beer es fundamental en los métodos ópticos de análisis, ya que nos permite calcular la concentración de una sustancia a partir de la medida de la radiación absorbida por una disolución de la misma.

    La relación I / Io se conoce como trasmitancia, y no tiene unidades.

    b es el espesor de la cubeta en centímetros, siendo constante en la mayoría de los casos.

    a es una constante característica de la sustancia absorbente y de la longitud de onda de la

    radiación utilizada.

    Si c se expresa en moles por litro, la constante a se transforma en , que se llama absortividad molar o coeficiente de extinción molar.

    Frecuentemente se usa en el trabajo experimental:

    I

    % T = __ · 100 T = Transmitancia

    Io

    Io

    A = log __

    I

    La absorbancia también se llama densidad óptica.

    Todas estas definiciones se resumen en la Tabla 1 - 5 (Nomenclatura de la Ley de Beer)

    Ejemplo:

    La intensidad de un haz de luz disminuye en un 20 % al atravesar 1 cm de un medio absorbente. ¿Cuál será la disminución después de atravesar 5 cm del mismo medio?

    % T = 100 % " 20 % = 80 %

    Io

    log __ = " log T = a b c ! (1)

    I

    b = 1 cm ! a c = " log T = " log 0'80 = 0'096 b = 5 cm ! " log T = a b c = 0'096 · 5 = 0'48

    (1) ! T = 0'331 ! % T = 33'1

    % de disminución = 100 " 33'1 = 67 %

    Ejemplo:

    La absortividad molar de un soluto es igual a 1·10·104. Hallar la absorbancia y el tanto por ciento de transmitancia a través de una disolución de concentración igual a 3 · 10-5 M, en una cubeta de 0'5 cm:

    A =  b c = (1·10·104) (0'5) (3·10-5) = 0'165 = " log T !

    ! T = 0'685 ! % T = 68'56

    La Ley de Beer también se aplica a disoluciones que contengan más de una especie absorbente, y así suponiendo que no existen interacciones entre las distintas especies, la absorbancia total para un sistema multicomponente se expresaría:

    ATOTAL = A1 + A2 +.......+ An

    Propiedad importante

    ATOTAL = 1 b c1 + 2 b c2 +.......+ n b cn

    Aditividad

    Curvas Espectrales

    La Ley de Beer es la base de análisis cuantitativo, ya que pone de manifiesto que la absorbancia es directamente proporcional a la concentración de un soluto. Para aplicar la Ley de Beer es necesario seleccionar la longitud de onda optima, y por esta razón se determina la curva espectral. Esta se obtiene representando la absorbancia ó el % de T en función de la longitud de onda, manteniéndose la concentración de la disolución y la longitud b de la cubeta constantes. (Figura 1 - 35).

    Estas curvas reciben el nombre de espectro de transmitancia y espectro de transición.

    Las curvas espectrales son características de la sustancia absorbente, y por tanto pueden utilizarse para el análisis cuantitativo de soluto.

    Para el análisis cuantitativo se elige una longitud de onda a la cual el soluto absorba fuertemente y no presente absorbancia otras sustancias presentes.

    Aplicación de la Ley de Beer

    Debe comprobarse siempre antes de utilizarla para un análisis cuantitativo exacto. Para ello se preparan una serie de disoluciones de concentración perfectamente conocidas en el intervalo en el cual se supone que se encuentra la concentración de la muestra problema, y se mide la absorbancia de estas disoluciones a una longitud de onda dada y con un paso de cubeta de longitud determinada.

    Las absorbancias medidas se representan en función de las concentraciones según la Figura 1 - 36.

    4.7.3. Limitaciones de la Ley de Beer

    Las causas que llevan a que no se cumplan pueden dividirse en dos grupos principales:

    4.7.3.1. Limitaciones propias de la Ley de Beer

    Aunque en la deducción no lo hemos considerado la absorbancia medida es función de la absorbancia real y del índice de refracción, mediante la expresión:

    a = areal " acalculada

    Debido a que el índice de refracción varia con la concentración también lo hace la absorbancia.

    Sin embargo, en la práctica el índice de refracción (n) se considera constante para concentraciones menores o iguales a 10-2 M, por tanto, puede considerarse exacta a estas bajas temperaturas. Esto hace que la ley de Beer sea una ley limite que solo es estrictamente válida a bajas concentraciones.

  • Limitaciones debido al incumplimiento de las premisas de la Ley de Beer

  • Se puede dividir en cuatro premisas que implícitamente se han aceptado en la deducción de la ley de Beer son:

    1ª.) El único mecanismo de interacción entre la radiación electromagnética y la muestra es la absorción.

    2ª.) Se utiliza radiación monocromática.

    3ª.) Las especies problema actúan independientemente unas de otras.

    4ª.) La absorción estudiada corresponde a un volumen de sección transversal uniforme.

    Interacciones de la luz con el analito debido a mecanismos distintos de la radiación.

    Existen mecanismos diferentes que influyen en la intensidad de la luz trasmitida, que son:

    • Emisión por Resonancia:

    x + h ! x"

    x* ! x + Q

    Sin embargo h se emite en todas las direcciones, por lo que la absorbancia aparente es menor que la absorbancia real, en una cantidad que es igual a la emisión por resonancia que emite en la dirección de la radiación incidente.

    La emisión por resonancia se produce casi exclusivamente en sistemas que contienen átomos aislados.

    • Fluorescencia o Fosforescencia:

    x + h ! x*

    x* ! x + h' + Q

    ' = frecuencia de la emisión fluorescente o fosforescente que menor que la de la radiación incidente.

    La radiación h' también se emite en todas las direcciones dando lugar a una absorbancia aparente menor que la absorbancia real.

    • Dispersión:

    x + h ! x*

    x* ! x + h''

    '' = frecuencia igual a la radiación incidente, pero emitida en todas las direcciones a partir de la partícula que causa la dispersión.

    La dispersión se produce para frecuencias de la radiación de absorción mayores que la probabilidad de dispersión al aumentar la frecuencia de la radiación incidente.

    La dispersión es generalmente insignificante en presencia de

    Utilización de radiación no monocromática

    El cumplimiento estricto de la ley de Beer solo tiene lugar cuando se utiliza una radiación monocromática. Sin embargo, en la práctica no es posible utilizar radiación monocromática (radiación de una sola longitud de onda), ya que los dispositivos instrumentales aíslan una banda más o menos simétrica de longitudes de onda en torno al valor deseado. El efecto de la radiación policromática sobre la Ley de Beer lo podemos ver en la trasparencia siguiente:

    4.8. ERRORES COMETIDOS AL APLICAR LA LEY DE BEER

    Vamos a considerar tres tipos de errores:

    • Errores químicos

    • Errores instrumentales

    • Errores personales

  • Errores Químicos

  • Efecto del disolvente:

  • El efecto que produce el cambio de disolución en un soluto no puede predecirse de manera general aunque a menudo origina corrimientos espectrales, ensanchamientos de bandas y desviaciones de la Ley de Beer.

  • Efectos debidos a sistemas en equilibrio:

  • Se producen desviaciones de la Ley de Beer cuando un analito se disocia, asocia o reacciona con le disolvente para originar un producto con un espectro de absorción diferente.

    Ejemplos:

    Cr2O72 " tiene un máximo de absorción a 4500 nm

    Cr2O72 " + H2O 2HclO4" 2H+ + 2CrO4 2 "

    Estos productos de cromato diácido y el cromato tienen propiedades de absorción distintas del dicromato.

    3. Efectos debidos a impurezas en el agua destilada o de los reactivos así como sustancias interferentes en la muestra.

  • Errores Instrumentales

    • Desviaciones debidas al uso de radiación no monocromática.

    • Desviaciones debidas a la presencia de radiación parásita.

    Se conoce como radiación parásita a toda radiación extraña que llega al detector, pero que no proviene de la muestra. Puede producirse por la presencia de polvo, defectos en el sistema óptico (rayaduras, etc.). Aunque esta radiación parásita existe siempre sus efectos son más importantes a valores elevados de absorvancia tal como se puede demostrar en la ecuación:

    I0 I

    Is Is

    Intensidad de la radiación parásita que llega

    al detector

    I + Is

    Iabsorbida = ____

    I0 + Is

    I0 + Is

    A = log ____

    I + Is

    De esta forma, por el uso de radiación no monocromática, los errores instrumentales llevan siempre a desviaciones negativas de la Ley de Beer.

  • Errores Personales

  • Se pueden producir un gran número de estos errores, aunque nos centraremos en:

    • Cuidado de las cubetas de absorción: deben de estar limpias y sin huellas. Si trabajamos en el ultravioleta, hay que limpiarlas con ácido nítrico concentrado, o bien con agua regia. No se limpiara con ácido sulfúrico concentrado o caliente, porque podría atacar a la cubeta.

    • Control de Temperatura: en la mayor parte de las medidas cuantitativas de absorción se realizan a temperatura ambiente. Pero si el soluto absorbente interviene en una reacción de equilibrio, el control de la temperatura puede ser crítico y por ello en algunos casos debe de controlarse. En general, un aumento de la temperatura, lleva consigo un desplazamiento de los máximos de absorción (o de las bandas de absorción) a longitudes de onda mayores en regiones del Ultra Violeta y del visible, ocurriendo lo contrario en el infrarrojo.

    TEMA 5:

    ESPECTROSCOPIA DE ABSORCIÓN MOLECULAR UV - VIS

    1. INTRODUCCIÓN

    La espectroscopia de absorción UV - Visible fue uno de los primeros métodos físicos que se aplicó al análisis cuantitativo y a la determinación de estructuras. Si bien la espectroscopia del Infrarrojo y Radiación Monocromatica, son las técnicas más idóneas para el análisis cuantitativo y estructural.

    La espectroscopia UV - Visible es una técnica auxiliar útil para la elucidación de estructuras.

    La región de longitud de onda que estudiaremos será:

    200 400 750  (nm)

    vacío vacío

    lejano próximo

    Visible

    UV

    El UV se divide en UV de vacío (10 - 200) nm y el UV próximo (200 - 400) nm.

    El UV de vacío se llama así porque en estas longitudes de onda, el oxígeno absorbe y lo debemos eliminar de la disolución si vamos a medir en esta zona. Para eliminarlo hacemos burbujear una corriente de nitrógeno.

    La radiaciones UV - Visible tienen en común que la absorción en ambas regiones provoca la excitación de electrones a niveles de energía superiores.

  • TEORÍA DE LA ABSORCIÓN

  • La energía y la variación de energía de una molécula es:

     = Eléctrico + Vibracional + Rotacional + Translacional

    El proceso que requiere mayor cantidad de energía es la excitación del electrón a un nivel electrónico superior, siendo la diferencia energética entre dos estados vibracionales aproximadamente diez veces menor que la requerida entre dos estados electrónicos.

    La Rotacional (entre dos estados rotacionales) es del orden de 10 - 100 veces menor que la diferencia de energía entre dos estados vibracionales.

    Aunque la Translacional también está cuantizada, estos  son tan pequeños que no influyen en la radiación absorbida en el UV - Visible.

  • Estructura fina vibracional rotacional de espectro electrónico

  • La excitación electrónica va acompañada de cambios vibracionales y rotacionales, y por ello lo que debería de ser una línea fina de absorción, aparece como una banda ancha pero que sin embargo, debido a estos cambios vibracionales y rotacionales, posee una estructura fina.

    En la fase gaseosa, el espectro observado es debido a átomos o moléculas aisladas y generalmente, es posible resolver la estructura fina vibracional / rotacional.

    En disolución, las moléculas se encuentran solvatadas por moléculas de disolvente que frenan la rotación y desaparece la estructura fina.

    Esto mismo ocurre en gases a alta presión. Además, los campos de disolvente modifican irregularmente los niveles de energía vibracionales y si tenemos un número de moléculas grande, los niveles de energía serán poco definidos y el resultado es una banda ancha.

    En general, un aumento en la polaridad del disolvente provoca una disminución en la resolución de las bandas vibracionales, mientras que una disminución de la temperatura, incrementa la resolución de los niveles vibracionales. (Transparencia: Fig. 2.2.).

  • Tipos de bandas de absorción

  • Todos los compuestos orgánicos son capaces de absorber radiación, ya que contienen electrones de valencia que pueden ser excitados a niveles superiores de energía.

    Las energías necesarias para excitar los electrones que forman los enlaces más sencillos son elevadas, y caen dentro de la región del UV de vacío (810 - 185) nm.

    La absorción de radiación UV - Visible de longitud de onda mayor que 185 nm se restringe a un número limitado de grupos funcionales llamados cromóforos, que contienen electrones de valencia con energías de excitación relativamente bajas.

    Los electrones que contribuyen a la absorción por parte de una moléculas pueden ser de dos tipos:

    1º.) Aquellos que participan directamente en la formación del enlace entre átomos y que además se encuentran asociados a mas de un átomo.

    2º.) Los electrones no enlazantes o externos que no participan en el enlace y están localizados alrededor de átomos como oxígeno, nitrógeno, azufre y halógenos.

    Cuando se combinan dos orbitales aparece un orbital molecular enlazante de baja energía o uno antienlazante de energía superior.

    Los orbitales moleculares asociados a los enlaces sencillos (C - H) se designan como orbitales  y los electrones correspondientes son los electrones .

    El doble enlace en una molécula orgánica contiene dos tipos de orbitales moleculares:

    1º) Un orbital  correspondiente a un par de electrones enlazante .

    2º.) Un orbital enlazante  correspondiente a dos electrones .

    Además de los electrones  y , muchos compuestos orgánicos poseen también electrones n que son no enlazantes, es decir, que no participan en el enlace.

    Ej.: Formaldehido.

    H .. •• " " 

    C x. x.C O x " 

    H .. " n

    El doble enlace tiene un par de e"  y un par de e" .

    Para comprender e interpretar los espectros electrónicos es preciso tener en cuenta los tipos de transiciones que pueden ocurrir cuando una molécula absorbe radiación. En esta región pueden darse cinco tipos de transiciones electrónicas:

    • Bandas de absorción  ! " y n ! "

    • Bandas de Absorción  ! "

    • Bandas de absorción n ! "

    • Bandas de absorción de transferencia de carga

    • Bandas de absorción de campo ligando

    Los distintos tipos de transiciones se pueden distinguir en función de la zona del espectro donde aparecen por sus intensidades relativas, y en algunos casos por los desplazamientos observados al vaciar el disolvente.

    Las intensidades de absorción suelen expresarse en términos de la absortividad molar:

    A

    A =  " b " c !  = ___

    b " c

    Dependiendo del valor de , del tamaño de la especie absorbente y de la probabilidad de la transición.

    Para que haya una interacción, la radiación debe de chocar con la molécula dentro de un espacio de dimensiones aproximadas al tamaño de la molécula y la probabilidad de la transición es proporcional al número de impactos que producen absorción.

    P : probabilidad de la transición (varia entre 0 y 1)

     = 0'87 " 1020 P " A A : superficie transversal de la molécula absorbente

    (se mide con rayos x y tiene valores " 1015 cm2)

    Para una transición cuya probabilidad sea la unidad, tendremos una  = 105. En general, valores de  entre 105 y 104, se consideran procesos de absorción de intensidad muy fuerte y son debidas a transiciones con probabilidad de transición (P) muy elevada (0'1 - 1).

    Los procesos con  del orden de 104 " 103, son procesos de intensidad fuerte y P varia entre 0'01 y 0'1.

    Los procesos con  inferior a 103, son procesos de baja intensidad y una P < 0'01.

    A veces, a estos procesos se les llama procesos de transiciones prohibidas.

  • Bandas de absorción  ! " y n ! "

  • Las estudiaremos de manera conjunta.

    Son muchas las moléculas orgánicas que las contienen a ambas. Todos los enlaces C=C, C"C, C=N poseen electrones , y todos los átomos situados a la derecha del C en la tabla poseen electrones n (electrones no enlazantes).

    Ej.: N2, S, halógenos x

    ..

    > C: .O:

    ..

    > C: :O: x

    .

    > C: : O:

    Los máximos de absorción corresponden a transiciones  ! *, son independientes de la naturaleza de los átomos que intervienen en el enlace múltiple, mientras que en el caso de las transiciones n ! *, si tiene mucha influencia la naturaleza de los átomos. Esto se debe a que los electrones  están deslocalizados y por tanto son relativamente independientes de los átomos que forman el enlace, mientras que los electrones n están asociados cada uno a su átomo respectivo y un aumento en la electronegatividad del átomo implica que estos electrones sean más atraídos por el átomo, lo que supone un desplazamiento hacia longitudes de onda más cortas, es decir, se necesita más energía para excitar a los electrones que se encuentran atraídos a átomos mas electronegativos.

    En las bandas de absorción tienen influencia los sustituyentes que puedan acompañar a la molécula.

    Por otra parte los sistemas con electrones * son más fácilmente accesibles y dan transiciones  ! * en el ultravioleta próximo.

    Estas adsorciones constituyen la base más importante de las aplicaciones en espectrofotometría UV / Visible.

    C - C = C - C = C

    O - C = C - C = O

    Estos sistemas presentan una mayor intensidad de absorción y además la conjugación produce el desplazamiento de los máximos de absorción hacia longitudes de onda mayores. (Transparencia: Tablas 2-2, 2-3).

    Definición de algunos términos espectrales

    - Cromóforo: Son grupos de átomos responsables de bandas de absorción en las regiones del UV - Visible. De forma general, los sistemas con electrones  son cromóforos en la región del UV - Visible, y los sistemas con electrones  son cromóforos en la región del UV lejano ó UV de vacío.

    - Auxocromo: Son grupos saturados que cuando se unen a los cromóforos desplazan un máximo de absorvancia a longitudes de onda mayores a la vez que aumenta la intensidad de absorción.

    Entre los grupos auxocromos, están los grupos - OH, - SH, - NH2 y halógenos. Todos estos grupos tienen electrones n (electrones no enlazantes) y su efecto se atribuye generalmente a transición n ! *.

    Ej.: El benceno tiene una  = 254 nm con una  = 204 nm, pero cuando le sustituimos un H del benceno por un grupo OH:

     = 270 nm  = 1450 nm

    - Efecto batocrómico o desplazamiento hacia el rojo: Es el desplazamiento del máximo de absorción hacia longitudes de onda mayores. Los espectros de iones y radicales libres sufren este efecto en relación a las moléculas no disociadas, por ello es frecuente que iones y radicales libres presenten valor cuando las moléculas neutras inicialmente eran incoloras.

    - Efecto hipsocrómico: Es el desplazamiento del máximo de absorvancia hacia longitudes de onda menores.

    - Efecto hipercrómico: Es un aumento en la intensidad de absorción.

    - Efecto hipocrómico: Supone una disminución en la intensidad de absorción.

    Influencia del disolvente en las transiciones ( ! " / n ! ")

    En general, un aumento en la polaridad del disolvente produce un efecto hipsocrómico de las bandas n ! ", y un gran efecto batocrómico en las bandas  ! ". Esto puede explicarse teniendo en cuenta que en las transiciones  ! ", el estado excitado es más polar que el estado fundamental, y por tanto, las interacciones dipolo - dipolo disminuyen la energía del estado excitado.

    Por otra parte, los enlaces por puentes de hidrógeno o las interacciones electrostáticas con disolventes polares estabilizan los electrones n del estado fundamental más que a los electrones del estado excitado.

  • Bandas de Absorción  ! "

  • Los electrones , son los electrones enlazantes de los enlaces sencillos y las transiciones  ! " se producen a causa de la absorción en el UV - Visible lejano. Para trabajar en el UV - Visible lejano, hay dificultades instrumentales porque es necesario eliminar el O2 de las disoluciones, porque absorbe. Se ha trabajado poco en esta región y no tiene mucha aplicación.

    Se da en los enlaces sencillos C - H

  • Bandas de absorción n ! "

  • Se producen en compuestos saturados que contienen en su molécula, sustituyentes con electrones no compartidos.

    Ejemplo: Átomos de S, N, Br, J _! absorben a  " 200 nm

    Átomos de Cl, O _! absorben a  < 200 nm

    Cuanto mayor es la electronegatividad del sustituyente, se requiere mayor energía para excitar al electrón, debido a la mayor energía de unión entre el electrón no enlazante del átomo.

    El hecho de que la mayoría de los compuestos que tienen O2 absorba a  < 200 nm, permite el uso de disolventes tales como H2O, alcoholes y éteres en la zona del UV próximo. (200 - 400 nm)

    Si el compuesto posee dos sustituyentes y existe solapamiento entre los orbitales con pares de electrones libres, el máximo de absorción se desplaza a  mayores.

     máxima

    _ (nm)

    CH3  _! 259

    _

    CH2  2 _! 292

    _

    CH  3 _! 349

    _

    La presencia de más de un sustituyente (como el  ) hace que se desplace el máximo de absorción hacia  mayores.

  • Bandas de absorción de transferencia de carga

  • La absorción de transferencia de carga, es un tipo de absorción muy importante en la región UV, y a veces, también en el V, para muchos compuestos orgánicos e inorgánicos.

    En este proceso, se produce la transferencia de un electrón de una parte a otra parte del sistema.

    Ejemplo:

    M -L+ hV ___! M- " L-

    Se ha producido la transferencia del electrón del metal al ligando, pero puede ocurrir al revés.

    En estos procesos hay dos componentes, un aceptor y un dador de electrón, y la absorción de la radiación implica la transferencia de un electrón desde el dador hasta el aceptor. En consecuencia, el estado excitado es el producto de un proceso redox o un proceso redox interno.

    En la mayoría de los complejos de transferencia de carga que implica un ion metálico, éste actúa como aceptor del electrón. Una excepción es el complejo que forma la o - fenantrolina con Fe2+ y Cu2+ donde el ion metálico es el dador y el ligando es el aceptor. ( la o - fenantrolina).

    hV

    Fe3+ - SCN" _ __! Fe2+ - SCN

    En estos procesos de transferencia de carga, implican la absorción en el UV de muchos iones hidratados.

    hV

    Cl" (H2O)n ____! Cl (H2O)"n

    hV

    Fe2+ (H2O)n ____! Fe3+ (H2O)"n

    hV

    Fe3+ - OH" ____!Fe2+OH

    En la molécula orgánica también puede producirse la absorción por transferencia de carga intramolecular.

    h "

    NR2 = NR2

    h "

    C - 0 = C - O

    R R

  • Bandas de absorción de campo de ligando

  • Los iones y compuestos de los metales de transición, presentan dos tipos de espectros. Junto a las bandas de absorción de transferencia de carga, con valores de absortividad molar  " 103 - 104 presentan también bandas de absorción de campo de ligando con valores de  " 10-1 - 102.

    Mientras que las bandas de absorción de transferencia de carga aparecen fundamentalmente en el CV, y alguna vez en el V, las bandas de campo de ligando aparecen en el V, aunque rara vez llegan hasta el UV próximo e infrarrojo próximo.

    Generalmente, estas bandas de absorción de campo de ligando, son bandas anchas debido a que la excitación electrónica lleva asociada múltiples excitaciones vibracionales.

    La coloración característica de iones y compuestos de transición generalmente pueden atribuirse a absorciones de campo de ligando. El nombre de campo de ligando proviene del hecho de que un átomo o metal de transición posee orbitales degenerados con igual energía y la presencia de un ligando crea un campo electrostático que desdobla estos niveles en diferentes niveles de energía o subniveles.

    Si los subniveles d o f no están completos, pueden producirse transiciones electrónicas entre estos niveles de energía mediante la absorción de radiación de  adecuada.

    Ejemplo: Complejo octaédrico del titanio.

    Ti (H2O)6 3+

    El titanio posee un orbital d con un solo electrón: Ti ! 3d1 (Transparencia: Fig. 2 - 5).

    Al unirse las seis moléculas de agua al titanio se produce una repulsión de la parte negativa del agua (de un H) con el electrón del orbital d del titanio. Se produce una degeneración de estos niveles resultando que los orbitales dz2 y dx2y2 tienen mayor probabilidad que los otros tres.

    Este incremento representa la amplitud del desdoblamiento de estos orbitales y es una medida de la fuerza del campo de ligando, es decir, una medida de la extensión con que un grupo complejante desdoblará los niveles de energía, en este caso, los niveles de energía d.

    El valor de este incremento es  = 20400 cm" 1. Esto corresponde a una longitud de onda de 490 nm., como observamos en el espectro de absorción de la figura 2 - 1 (Transparencia).

    La magnitud de este incremento depende de varios factores:

    1. ) La carga del ion metálico; aumentando este valor a la vez que aumenta la carga del ion metálico.

    2. ) La posición del elemento en el sistema periódico, para un determinado elemento, este incremento aumenta con el número cuántico principal del orbital del ion metálico.

    3. ) La naturaleza del ligando. Este incremento es la función de la distribución de su densidad de carga y de su polarizabilidad.

    Con pocas excepciones, los ligandos se suelen ordenar en valores crecientes de este incremento, obteniéndose la serie espectroquímica:

    I" < Br" < Cl" < F" < OH" < C2O42" < C2H2OH < H2O < SCN" < NH3 < < etilendiamina < NO2" < o - fenantrolina

    Un efecto visible de la serie espectroquímica es por ejemplo en el cobre:

    Cu (H2O)42+ __! azul pálido

    Cu (NH3)42+ __! azul intenso

    debido al efecto del aumento del campo de ligando cuando sustituimos el agua por el amoniaco.

    Los lantánidos y los actínidos, poseen subniveles 4f y 5f incompletos, y por tanto, presentan bandas de absorción de campo de ligando.

  • INSTRUMENTACIÓN

  • Existen dos tipos de instrumentación para medidas de absorción UV:

    Filtros

    - Fotómetros

    Fototubos

    Monocromadores

    - Espectrofotómetros

    Fototubos o tubos multiplicadores

    Los fotómetros, son instrumentos sencillos que permiten medir la intensidad de radiación, ya que van provistos de filtros para seleccionar un rango estrecho de longitudes de onda, y como detectores, usan fototubos.

    Los espectrofotómetros, son instrumentos más o menos sofisticados que usan monocromadores para seleccionar estas bandas estrechas de longitud de onda. El monocromador permite una variación continua al seleccionar las longitudes de onda, y también permite realizar un barrido en una zona amplia de longitud de onda. Como detectores usan fototubos o tubos multiplicadores.

  • Componentes básicos de los fotómetros y espectrofotómetros

  • Los componentes básicos son:

  • Fuentes de energía (lámpara)

  • Seleccionador de longitud de onda (filtros, monocromadores)

  • Recipiente porta muestras (cubeta)

  • Detector

  • Procesador de señales

  • La muestra la colocamos entre el seleccionador de longitud de onda y el detector.

    1. Fuente de energía

    Una fuente de radiación ideal debe ser continua en una amplia zona del espectro, tener una intensidad elevada y que no varíe esta intensidad con la longitud de onda.

    Las fuentes de radiación que emiten en el UV - Visible pueden dividirse en técnicas (en las que la radiación es debida a la temperatura) y fuentes cuya radiación es debida a descargas eléctricas a través de gases.

  • Fuentes térmicas: La lampara más usada es la lámpara de filamento de Wolframio, que es una fuente térmica que emite en el visible. Presenta el inconveniente de que la mayor energía la emite en la región del IR. (Transparencia Fig. 2.8)

  • Si trabajamos a alta temperatura la lámpara se fatiga, es decir, la vida de la lámpara se acorta. Si queremos conseguir altas intensidades en el Visible, podemos usar una lámpara de arco de carbono que trabaja a altas temperaturas (llega a los 4000 ºK)

    Cualitativamente, un aumento en la temperatura de la lámpara, provoca la excitación

    en un número mayor de átomos a mayores niveles de energía, y ello debe de traducirse en una mayor I de radiación y un desplazamiento de las bandas hacia  menores.

    La  de máxima emisión puede calcularse a partir de la ley de

    max " T (°K) = 3 " 106

  • Fuentes de descarga eléctrica: En esta región del UV- Visible, se utilizan varios tipos de lámparas, en donde están:

    • Lámpara de H

    • Lámpara de H (Deuterio)

    • Lámpara de descarga de Xe

    • Lámpara de arco de Hg

    En todos los casos, se hace pasar una corriente de electrones a través de un gas y las colisiones entre ellos provocan la excitación electrónica, vibracional y rotacional.

    El espectro emitido por gases a bajas presiones es de líneas o rayas, mientras que los de gases a altas presiones, son de bandas o continuos.

    La lámpara de H, es la fuente más sencilla utilizada en el UV; generalmente, se usa a bajo voltaje (aproximadamente a 40 V), aunque existen lámparas de alto voltaje. En estas lámparas de H, trabajan a una presión de 0,2 y 5 milímetros de Hg. (Transparencia. Figura 2.9)

    Esta lámpara es muy adecuada para trabajar con ella en el UV próximo.

    La lámpara de 2H, abarca una zona de  similar a la de H, pero su intensidad es de 3 a 5 veces superior.

    La lámpara de descarga de Xe, presenta buenas cualidades como fuente de radiación en el UV. Posee dos electrodos de Wolframio separados unos 3 mm, que forman un cubo. Esta lámpara posee una intensa radiación al pasar una corriente a través de una atmósfera de Xe.

    El espectro de esta lámpara es continuo entre 250 y 600 nm, con un máximo en 500 nm. Su intensidad en el UV próximo, es muy superior a la de H, pero en el V presenta problema de radiación parásita. (Transparencia. Figura 2.10)

    La lámpara de arco de Hg, es una fuente patrón para muchos trabajos en el UV, pero en general, es poco adecuado para estudios espectrales continuos, ya que presenta bandas estrechas superpuestas a un fondo continuo a elevada presión. (Transparencia. Figura 2.11)

    Esta lámpara se utiliza más, para el calibrado de instrumentos. La estabilidad de las fuentes es importante, especialmente cuando se trabaja con instrumentos de haz sencillo. La energía emitida por estas fuentes depende del potencial aplicado a la lámpara y la señal del detector es proporcional al voltaje de la lámpara elevado a una determinada potencia, generalmente mayor de 1, por ello, la fuente de voltaje ha de ser muy estable, y ello se consigue usando acumuladores o transformadores de voltaje constante y reguladores electrónicos de voltaje.

    2. Selección de 

    Para conseguir medidas de absorbancia exactas, selectivas y sensibles, es importante poder seleccionar una banda estrecha de  del amplio espectro que proporciona la fuente de radiación.

    La importancia de este factor sobre la sensibilidad de las medidas de absorción puede ponerse de manifiesto con un sencillo ejemplo: (Transparencia. Figura 2.12)

    T (%) A (%)

    • 20

    • 65

    Básicamente, se utilizan dos clases de filtros:

    • Filtros de absorción

    • Filtros de interferencia

    Los filtros de absorción, se basan en la absorción selectiva de  que no interesan y generalmente, son de vidrio, en el cual se ha dispersado o disuelto un pigmento adecuado que permite esta absorción selectiva.

    Estos filtros sólo operan en el V.

    La mayor parte de estos filtros de absorción tienen anchuras de banda entre 35 - 50 nm y su transmitancia son sólo de un 5 a un 20 %, disminuyendo esta transmitancia a medida que mejora el aislamiento espectral.

    Los filtros de interferencia, se basan en el fenómeno de interferencia óptica, es decir, una parte de la radiación que llega es absorbida y otra, se refleja. Proporciona anchuras de banda más estrechas que los de absorción y transmitancias de tipo mayores.

    Estos filtros operan en el UV / V / IR. (Transparencia. Figura 2.14)

    Un monocromador es un dispositivo que genera un haz de radiación de gran pureza espectral (anchura de banda estrecha) y que permite ir variando la  de manera continua.

    Hay dos tipos de monocromador:

    • Monocromador tipo prisma.

    • Monocromador tipo red.

    Los elementos esenciales de un monocromador, son una rendija de entrada (determinando el haz de radiación policromática entrante), un elemento dispersante (que puede ser un prisma o una red de difracción) y una rendija de salida.

    El prisma o red, dispersa la radiación policromática en las  que la componen, y la rendija de salida transmite la  correspondiente al máximo de intensidad junto a una banda de 

    a ambos lados. (Transparencia. Tabla 2.8)

    Cuanto menor sea la rendija, menor será la banda de  considerada. Pero si se disminuye demasiado (< 0'01 nm), se producen fenómenos de refracción.

    Cuanta mayor resolución tenga el espectrofotómetro, menor será la banda de  que pueda tomar.

    3. Recipiente porta muestras.

    Se llaman también cubetas, y tienen paralelas y rectangulares, y se fabrican en diversos materiales, de manera que, permitan el paso de luz pero no absorban radiación. Por ello, en el UV y V utilizamos cubetas de cuarzo y en el V también de plástico o vidrios de silicato para V e IR.

    Las hay de diferente recorrido óptico, pero lo normal es de 1 cm de paso de luz.

    4. Los detectores.

    Son elementos que convierten la radiación en un flujo de electrones y posteriormente, en una corriente o voltaje en el circuito de lectura. El detector ideal debería tener un amplio intervalo de  con una elevada sensibilidad, una relación señal - ruido grande, un tiempo de respuesta rápido, mínima señal de salida en ausencia de iluminación, así como tener una respuesta constante.

    Los tres tipos de detectores usados en el UV / V son:

    • Células fotovoltaicas

    • Fototubos (Tubos fotoemisores)

    • Tubos fotomultiplicadores

    La característica común a todos estos detectores es que tienen una superficie activa capaz de absorber radiación, de manera que, la energía absorbida causa la emisión de electrones y el desarrollo de una fotocorriente.

    • Células fotovoltaicas, en ellas, la energía radiante genera una corriente en la interfase entre una capa semiconductora y un metal, y se usan fundamentalmente en el V.

    Consisten en un electrodo plano (ánodo) de un metal (Cu, Fe o Al) en el que se deposita un material semiconductor como es el Selenio, y después se recubre por una fina película de Ag o Au. Esto sirve como electrodo colector.

    Cuando al Se llega una corriente o una radiación, se produce la excitación de electrodos de la interfase Se -Ag (o Se - Au), los cuales pasan al electrodo colector (Ag). Los electrodos liberados migran a través del circuito hacia el metal, resultando una corriente de electrodos proporcional al número de fotones que inciden sobre el semiconductor.

    Entre las desventajas están:

    • Es difícil amplificar la señal de salida, debido a la pequeña resistencia interna de la célula; por esto se usan en fotómetros de filtro.

    • Manifiestan fatiga (sobre una radiación continuada, la respuesta no siempre es constante)

    • Fototubos o tubos fotoemisores, consisten en un cátodo semicilíndrico (capa de metal recubierta de otra capa de óxido alcalino) que es sensible a la luz, y un ánodo que es un alumbre metálico. Ambos están encerrados herméticamente en un recipiente cilíndrico con vacío. Cuando la radiación llega al cátodo, éste emite electrones que son atraídos hacia el ánodo, el cual a través del circuito los devuelve al cátodo. Esta corriente fotovoltaica producida, causa una caída de potencial a lo largo de la resistencia que es proporcional a la intensidad de corriente.

    La resistencia es normalmente, la resistencia de entrada en un circuito amplificador, y por ello, la caída de potencial puede amplificarse.

    La señal del fototubo es aproximadamente unas diez veces menor a la de las células fotovoltaicas, pero debido a la posibilidad de amplificar la señal de estos, éstos resultan más sensibles que las primeras.

    La sensibilidad del fototubo depende de la naturaleza de la sustancia que recubre el cátodo y puede variarse utilizando diferentes metales alcalinos o variando el método de recubrimiento.

    • Tubos fotomultiplicadores, son una combinación de un cátodo fotoemisivo y una cadena interna de dínodos fotomultiplicadores de electrones. Cuando la radiación llega al cátodo de composición similar a la de los fototubos, provoca la emisión de electrones (electrones primarios), de manera análoga a la de un fototubo, pero en este caso, los electrones son acelerados, por la aplicación de un potencial positivo hacia una segunda superficie sensible, de forma que al incidir cada electrón primario es capaz de producir la emisión de 4 ó 5 electrones secundarios. Estos electrones son acelerados de nuevo hacia otra superficie sensible que se encuentra a un potencial posiblemente superior, de forma que el número de electrones emitidos vuelve a multiplicarse por 4 ó 5.

    Este proceso se puede repetir tantas veces como queramos, pero en general los aparatos no llevan más de 10 ó 12 dínodos. La señal de salida puede a su vez amplificarse. Por tanto, es el detector más sensible en el UV - V.

    5. Procesador de señales.

    En general, es un dispositivo electrónico que amplifica la señal eléctrica del detector; así mismo, permite eliminar componentes indeseados. Puede también alterar la señal de la corriente, cambiarla de fase, filtrarla. También puede realizar operaciones matemáticas con la señal como diferenciales, derivadas, integral...

  • Diseño de los instrumentos para medidas de absorción UV - Visible

  • Existen dos tipos de instrumentos:

    • Fotómetros

    • Espectrofotómetros

    De los dos tipos hay de:

    • Haz simple

    • Doble haz

    Y a su vez, estos pueden ser:

    Lectura directa

    - Haz simple

    Compensación

    Lectura directa

    - Doble haz

    Compensación

    En el instrumento de haz simple, la radiación pasa sólo a través de una disolución, mientras que en los de doble haz, un haz pasa a través de la disolución de un blanco, mientras que el otro pasa a través de una disolución que contiene la muestra. (Transparencia. Figura 7.14) (Instrumento de haz simple)

    Las etapas para el calibrado del instrumento son:

    • Poner un obturador de manera que no llega radiación al detector, se ajusta el detector a cero (en unidades de transmitancia) o máxima (en unidades de absorbancia).

    • Con la disolución del blanco, ajusto a cero la absorbancia.

    • Con otra cubeta de disolución incógnita, mido la absorbancia.

    Si trabajamos a más de una  estas tres etapas se deben repetir para cada 

    Este instrumento requiere que la fuente y el sistema electrónico tengan un comportamiento constante durante el tiempo necesario para realizar estas tres etapas.

    Estos problemas se resuelven con los instrumentos de doble haz. Las etapas para la calibración serían:

    • Ponemos el blanco en ambas cubetas; ajustamos a cero la absorbancia.

    • Quitamos la cubeta de la muestra, cerramos este obturador para ajustar de nuevo a cero la transmisión o al máximo la absorbancia.

    • Colocamos la muestra y medimos la absorbancia.

    Los de lectura directa utilizan un medidor para medir la absorbancia o transmitancia. En cambio, los de compensación, en la etapa de medida utilizan un dispositivo que permite comparar la señal a medir con un haz de referencia.

    Los primeros son más sencillos que los segundos, pero los de compensación presentan una mayor exactitud fotométrica

    Existe un tercer tipo de instrumento que utiliza como detector, una serie de diodos; en éstos, la muestra se coloca entre la fuente y el selector de  (monocromador)

  • Instrumentos característicos (comerciales).

  • Los fotómetros son más sencillos que los espectrofotómetros, y más baratos. Se utilizan en el V y su exactitud es bastante buena.

    Existen fotómetros para V, y otros para UV, y también fotómetros tipo sonda, donde en estos, la absorbancia se mide sumergiendo la sonda en la disolución analito.

    Existen espectrofotómetros de un solo haz para el V. Son equipos sencillos que utilizan monocromadores tipo red, como fuente o lámpara, aunque de W como detector fototubo; la anchura de banda es de unos 20 nm y una exactitud en la  ± 2,5 nm.

    Existen también espectrofotómetros de haz simple para medidas en UV, como en V. En estos, la anchura de banda es menor (entre 2 y 8 nm) y la exactitud en la  es de ± 0,5 y ± 0,2 nm. Estos tienen lámparas intercambiables de W e H; utilizan redes para la dispersión y tubos fotomultiplicadores como detectores.

    Hay espectrofotómetros de un solo haz controlados por ordenador. En éstos, se realiza un barrido con la solución de referencia, y la señal de ésta se almacena en el ordenador. A continuación, se mide la absorbancia de las muestras, de manera que, la absorbancia leída tiene ya restada la señal de la referencia previamente almacenada. La exactitud fotométrica oscila entre ± 0,005 nm y la anchura de la rendija 0,5 - 2 nm.

    Existen también espectrofotómetros de doble haz (son más caros que los de haz simple).

    Hay otros instrumentos de doble dispersión, para mejorar la resolución espectral y lograr una reducción notable de la radiación dispersada; se diseñan instrumentos con dos prismas o dos redes dispuestos en serie con una rendija interpuesta entre ambos.

    Existen finalmente, los instrumentos multicanal; en éstos, la radiación de la fuente pasa a través de la muestra y, a continuación, ésta radiación se enfoca en una rendija de entrada que pasa luego a una red de reflexión. El detector consiste en una serie de 316 diodos, obteniéndose una resolución espectral de 2 nm en toda la región (200 - 820) nm.

    La estabilidad de la fuente y del sistema electrónico es tal que, la señal del blanco necesita ser almacenada cada diez minutos aproximadamente. Estos instrumentos también van acoplados a ordenadores.

    Debido a los pocos instrumentos ópticos que poseen, el rendimiento de la radiación es más elevado que en los espectrofotómetros tradicionales. (Transparencia. Figura 7.20)

  • APLICACIONES

  • Aplicaciones de las medidas de absorción al análisis cualitativo

  • En este campo, las aplicaciones son muy limitadas; algunos efectos son los siguientes:

    • Efecto del disolvente

    Disolventes pobres (agua, alcoholes, cetonas y éteres) tienden a eliminar la estructura fina vibracional del espectro. Sin embargo, los disolventes apolares (hidrocarburos) tienden a mantenerla. Además, las posiciones de los máximos de absorción dependen de la naturaleza del disolvente. Por ello, para comparar e identificar espectros, es necesario conocer el disolvente en el que están registrados. (Transparencia. Figura 8.8 / Tabla 8.6)

    Esto da la  a partir de la cual el propio disolvente daría la señal.

    • Detección de grupos funcionales

    Esta técnica de espectrofotometría en UV/V, no permite una identificación inequívoca de un componente orgánico, pero sin embargo, los espectros de absorción UV/V son útiles para detectar la presencia de ciertos grupos funcionales que actúan como cromóforos.

  • Aplicaciones de las medidas de absorción al análisis cuantitativo

  • Esta técnica es una de las más utilizadas para el análisis cuantitativo; las características más importantes de estos métodos espectrofotométricos son:

    • Tienen una amplia aplicabilidad tanto a sistemas orgánicos como inorgánicos.

    • Sensibilidades en torno a 10-4 " 10-5 M, pudiendo en algunos casos llegar a 10-7M.

    • Tienen, de moderada a alta selectividad.

    • Tienen una buena precisión.

    • Tienen una fácil y adecuada adquisición de datos.

    • Son métodos relativamente baratos.

    Las aplicaciones de las medidas de absorción al análisis cuantitativo, son muy numerosas.

  • Análisis de especies absorbentes

  • Los componentes que contienen grupos cromóforos, son susceptibles de esta determinación (alquenos, alquilos, cetonas).

    Así mismo, se pueden determinar también componentes inorgánicos como nitratos, nitrito, ozono, iones de los metales de transición, yodo, etc.

  • Análisis de especies no absorbentes

  • Numerosos reactivos reaccionan selectivamente con especies no absorbentes originando productos fuertemente absorbentes en esta región. El uso de tales reactivos exige que la reacción de formación de los compuestos sea completa.

    Por otra parte, los reactivos que toman color se forman a menudo para la determinación de especies absorbentes como los iones de los metales, ya que la absortividad molar del producto es varios órdenes de magnitud mayor que la de la especie no combinada.

    Ejemplo de agentes complejantes para la determinación de especies inorgánicas:

    SCN" ! Fe3+, Mo6+

    H2O2 ! Ti4+, V5+, Cr3+

    Ejemplo de agentes formadores de complejos:

    0 - fenantrolina ! Fe3+

    Dimetilglioxima ! Ni2+

    Dimetilditiocarbonato ! Cu2+

    Para la determinación de estas especies en análisis cuantitativo, el procedimiento operatorio que llevamos a cabo es:

    - Selección de la longitud de onda donde vamos a realizar medidas de absorvancia. Las longitudes de onda serán las correspondientes a máximos de absorción del compuesto, ya que aquí se alcanza una mayor sensibilidad:

    

    En estas zonas de los máximos tenemos un intervalo de  donde la absorvancia no se modifica demasiado, por lo que las fluctuaciones a la hora de la medida no crean muchos errores.

    - Conocer las variables que afectan a la absorvancia natural del disolvente, pH de la disolución, temperatura, [electrolitos] y la presencia de sustancias interferentes.

    Los efectos de todas estas variables se deben de conocer, y las condiciones para el análisis se eligen de manera que la absorvancia no este afectada por variaciones incontroladas de estos parámetros.

    - Medida de la muestra: hay que tener en cuenta la limpieza y manipulación de las cubetas.

    - Determina la relación entre absorbancia y concentración. Una vez seleccionadas las condiciones óptimas pasamos a construir la curva de calibrado usando patrones de [ ] conocidas, y que abarquen el intervalo de [ ] esperado en las muestras problema:

    A

    Y = mx + a

    m = 

    [ ]

    El valor de la pendiente m es igual a la absortividad molar:

    A =  b c + a

    y = m x + b

    Cuando hay interferencias en la matriz de la muestra es necesario aplicar el método de adición de patrón (ó adición estándar) lo cual por extrapolación:

    A

    *

    C

  • Análisis de mezclas de sistemas absorbentes

  • La absorvancia de una disolución a una longitud de onda determinada es igual a la suma de la absorvancia de los compuestos individuales:

    ATotal = A1 + A2 + ... + An

    ATotal = 1 b c1 + 2 b c2 + ... + n b cn

    Esta relación hace posible la determinación cuantitativa de los compuestos de una mezcla incluso si sus espectros se superponen. (Transparencia Figura 6 - 10).

    Es posible resolver estos dos componentes simultáneamente presentes en la misma disolución. Para ello la absorbancia a  es:

    Compuesto N

    A' = 'M b cM + 'N b cN

    compuesto M

    y a  _! A =  M b cM +  N b cN

    Es posible llevar a cabo la determinación simultanea sin conocemos laos valores de la absortividad molar a estas dos longitudes de onda. Esto se determina utilizando rectas de calibrado construidas a partir de estándares individuales de cada una de ellas.

    Conocidos los valores de la absortividad molar, medimos las absorvancias A y A , por lo que solo tenemos que despejar la [ ] de cada uno de ellos.

    Para la elección de estas longitudes de onda, lo ideal es usar aquellas longitudes de onda donde aquellos de los compuestos presenten una señal máxima y la otra mínima o despreciable. Esto se puede aplicar siempre que no haya interacciones entre los compuestos.

    Teóricamente, se puede aplicar a sistemas con más de dos componentes, sin embargo, las indeterminaciones en los datos se hacen mayores a medida que el número de medidas aumenta.

  • Espectroscopia de derivada y longitud de onda dual

  • En la espectroscopia de derivada, los espectros se obtienen en la derivada de orden n, en función de la longitud de onda. A menudo, esta representación muestra detalles que no se aprecian en un espectro ordinario (o de orden cero). Además en ocasiones, es posible eliminar las interferencias debidas a compuestos no deseados en cuanto determinamos algún analito de interés. Es decir, podemos medir la señal del componente de interés donde la del otro componente, es cero.

    Esta técnica se denomina, la técnica del zero-crossing. ( Fig. 3)

    En general, para ver las mezclas de los dos componentes, se suelen encontrar ceros. Pero es más difícil en mezclas de más de dos componentes.

    Existe también la posibilidad de transformar el espectro de una mezcla en otro independiente de la [ ] de uno de los componentes.

    Am = M b cM + N b cN

    Si dividimos esta expresión por un espectro de [ ] conocida del componente CºM. Así, la absorvancia resulta:

    d Am d m b CM d m b CN

    __ ____ = __ ____ + __ ____

    d M b CºM d m b CºM d m b CºM

    Si derivamos esta expresión con respecto a :

    d Am CN d N

    __ ____ = __ __ __

    d M b CºM CºM d M

    Esta expresión solo depende de la [ ] del otro componente y de la [ ] utilizada como divisor.

    En general, la técnica de derivadas se ha usado para la resolución de mezclas de analitos con señales solapadas.

    Una desventaja de los espectros derivados es que se produce una degradación en la relación señal/ruido al derivar. Sin embargo, en esta región del ultravioleta - visible, no hay un factor serio.

    Para obviar esta relación señal/ruido utilizamos filtros analógicos.

    En cuanto a la espectroscopia de longitud de onda dual, sabemos que tienen un elemento dispersante, de manera que, dos haces de longitud de onda ligeramente diferente (l ó 2 nm) se hacen incidir alternativamente sobre la muestra pasando la radiación transmitida seguidamente al detector y sin tener un haz de referencia. (Fig. 8.ll)

    El parámetro generador, es la diferencia entre las señales alternas y da una buena aproximación de las derivadas de la absorvancia en función de la longitud de onda. Esta técnica es adecuada para la obtención de espectros de analitos presentes en disoluciones turbias.

    Otra aplicación de esta técnica, es en el análisis de un analito en presencia de una interferencia espectral. El procedimiento consiste en medir la absorvancia a 2 en que la interferencia tiene una absortividad molar () parecida o similar, mientras que el analito presenta una gran diferencia en los valores de . Entonces, la absorvancia diferencial es directamente proporcional a la [ ] de analito.

    A

     2

    Interferencia

     1

    1 1

    1 2 

    

    __ =  []

    

  • Valoraciones fotométricas

  • Las medidas fotométricas, pueden utilizarse para la localización del punto de equivalencias en una valoración siempre que el analito, los reactivos o productos absorban radiación.

    Alternativamente un indicador absorbente puede proporcionar este punto de equivalencia.

  • Curvas de valoración

  • Consiste en representar la absorbancia en función del volumen de valorante añadido.

    Las curvas de valoración fotométricas, presentan dos tramos rectos con diferentes pendientes; uno al principio de la valoración y otro, pasado el punto de equivalencia formándose el punto final como la intersección entre las dos rectas extrapoladas.

    La valoración (por ej.) de una especie no coloreada con un valorante coloreado que se decolora en la reacción, da lugar a una línea horizontal en las etapas iniciales, seguido por una rápida absorbancia pasado el punto de equivalencia. (Fig. 2.40)

    Con objeto de obtener el punto de equivalencia fotométrico de manera satisfactoria, es necesario que el sistema absorbente cumpla la Ley de Beer.

  • Aplicaciones de las valoraciones fotométricas

  • Estas valoraciones presentan resultados más satisfactorios que los obtenidos mediante análisis fotométrico directo, ya que se utilizan los datos de varias medidas para determinar el punto final y además, la presencia de otras especies absorbentes pueden no interferir.

    Algunos ejemplos concretos son valoraciones son EDTA y otros agentes complejantes, muchos de los reactivos usados en reacciones redox que presentan espectros de absorción característicos o valoraciones de mezclas de cationes con un mismo reactivo mediante la formación de complejos por diferente absortividad molar.

    A (340nm)

    Cu2+

    P.F.

    Bi3+

    P.F.

    V (EDTA)

    TEMA 6:

    ESPECTROSCOPIA DE FLUORESCENCIA Y FOSFORESCENCIA MOLECULAR

    1. INTRODUCCIÓN

    La mayor de las sustancias que absorbe radiación ultra violeta - visible, pierden exceso de energía en forma de calor mediante choques con otros átomos o moléculas. Existen algunas sustancias que solo pierden una parte de la energía absorbida en forma de calor y otra emitida en forma de radiación electromagnética de mayor longitud de onda, por tanto, de menor energía que la radiación absorbida.

    Este proceso de emisión se conoce con el nombre de luminiscencia, término que engloba la fluorescencia y fosforescencia.

    La diferencia entre estos dos términos se basa en el mecanismo en el que la molécula vuelve a su estado fundamental y por el tiempo transcurrido entre la absorción y la emisión.

  • FUNDAMENTO DE LOS PROCESOS LUMINISCENTES

  • En general, cuando una molécula absorbe radiación desde el estado electrónico y vibracional fundamental hasta un estado electrónico y vibracional excitado para que se produzca luminiscencia, es necesario que la sustancia absorba previamente radiación de longitud de onda adecuada.

    Cuando esto ocurre la radiación es absorbida a unos 10" 15 segundos. Una molécula en estado excitado tiene una vida de (10" 7 " 10" 8) segundos y durante ese tiempo pierde toda parte de su exceso de energía mediante tres procesos:

  • Remitirá un fotón de la misma frecuencia que el absorbido ! emisión de Resonancia.

  • Perdiendo su energía vibracional emitiendo un fotón de radiación infrarroja y que pase al nivel vibracional mas bajo del estado electrónico excitado.

  • Perdiendo su energía vibracional y que pase al estado vibracional mas bajo del estado electrónico excitado sin emitir radiación por colisiones.

  • Las dos primeras alternativas son poco probables y solo ocurren en gases a presiones muy bajas. Cuando la molécula se encuentra en el nivel vibracional más bajo del estado electrónico excitado, puede perder el exceso de energía para volver al estado fundamental de tres maneras:

  • Sin omitir radiación perdiendo la energía electrónica mediante choques o interacciones, es decir, en forma de calor.

  • Emitiendo un fotón de radiación ultra violeta o visible ! Fluorescencia.

  • Pasando a un nuevo estado excitado metaestable llamado triplete, y volviendo al estado fundamental después de un cierto tiempo emitiendo un fotón de radiación ultravioleta - visible ! Fosforescencia.

  • Estados Singletes y Tripletes

    En la mayoría de las moléculas que están en estado fundamental cada orbital molecular está ocupado por un par de electrones que como consecuencia del Principio de Exclusión de Pauli, tendrán espines opuestos, y por tanto, el espín neto será cero, tal estado es conocido como Singlete.

    Cuando un electrón de un estado singlete es promovido a un nivel de energía superior, su espín puede mantenerse apareado ante el electrón, ante el orbital original, (Fotocopia), obteniéndose un singlete excitado o bien en el estado excitado puede alinearse con dicho espín, dando lugar a un Triplete. En este caso los espines serán iguales.

    Según la regla de Hund, la energía asociada a espines paralelos es menor que la asociada a espines opuestos, y por tanto, el estado triplete en estado excitado tiene menor energía que el singlete excitado, ya que una transición singlete - triplete o viceversa es menos probable que una transición singlete - singlete, puesto que supone un cambio más profundo en el estado electrónico.

    La vida media de un estado excitado triplete será siempre más larga que la de un singlete, pudiendo oscilar desde 10" 4 seg. a varios segundos.

    Procesos en moléculas en estado excitado: los principales procesos que implican estado excitados son:

  • Absorción

  • Cuando una molécula absorbe energía de una longitud de onda determinada, una de los electrones acoplados pasa del nivel vibracional más bajo del estado fundamental a cualquier nivel más bajo del primer singlete excitado o tal vez si la energía es la adecuada al segundo singlete excitado. Estas transiciones son altamente especificas, de manera que la radiación de una determinada energía es absorbida por solo una estructura característica y son las responsables del espectro de absorción ultravioleta de la sustancia en cuestión.

    Por otro lado, la excitación directa a un estado triplete por absorción generalmente no ocurre por tratarse de una transición prohibida. Sin embargo, un triplete puede originarse a partir de un singlete excitado de mayor energía. La molécula en estado excitado puede volver a estado fundamental por varios caminos.

    Estado favorecido: aquel que conduzca al mínimo la vida del estado excitado.

    La interpretación de la luminiscencia requiere además considerar estos procesos.

  • Relajación Vibracional

  • Una molécula puede ser excitada a cualquier nivel vibracional de un estado electrónico excitado, sin embargo en disolución la energía vibracional excesiva se pierde rápidamente sin emisión de radiación a consecuencia de choques entre las moléculas de la especie excitada y otras moléculas presentes como el disolvente,... resultando un pequeño aumento de la temperatura de la disolución.

    Este proceso ocurre en un tiempo de 10" 13 " 10" 10 segundos, siendo suficientemente rápido para que otros procesos no compitan con él. Por ello todos pos demás procesos del estado excitado pueden considerarse como originados desde el nivel vibracional más bajo de un estado electrónico excitado.

    Una consecuencia de la relajación vibracional es que la emisión fluorescente tiene lugar a una longitud de onda mayor que la de la radiación excitante. Fig. (Diagrama de energía).

  • Conversión Interna

  • Término que se designa a la transición desde el nivel vibracional inferior de una estado electrónico de energía superior a uno de los niveles vibracionales superiores de un estado electrónico de energía inferior. Esto implica que esta transcurre sin emisión de radiación. La conversión interna se produce más fácilmente cuando dos niveles de energía se encuentran suficientemente próximos como para que se de un solapamiento entre sus niveles vibracionales. Este proceso que tiene lugar es inmediatamente seguido de una relajación vibracional al estado inferior del nivel energético. La conversión interna también proporciona un mecanismo para ir de estados excitados al estado fundamental.

  • Cruzamiento entre sistemas

  • Implica la transición desde el nivel vibracional más bajo de un singlete a uno de los niveles paralelos superiores de un triplete, o viceversa, sin emisión de radiación. Este proceso implica un cambio en el espín y por ello su velocidad es menor que la de la conversión interna, aumentando a medida que baja la diferencia de energía entre el singlete y el triplete implicados en el mismo y cundo ocurre también es inmediatamente seguido de relajación vibracional.

  • Fluorescencia

  • Se observa que cuando la transición desde el primer singlete excitado al estado fundamental va acompañado por la emisión de un fotón, en el proceso inverso de la absorción existe una relación inversa sencilla entre la vida de un estado excitado y la absortividad molar del pico correspondiente ! aumentando la absortividad molar se deriva que la vida del estado estacionario es menor que la vida del estado excitado ! aumenta la probabilidad de que el camino fluorescente sea más rápido que otros procesos.

    La fluorescencia implica también transiciones desde el nivel vibracional inferior del primer singlete a distintos niveles vibracionales del estado fundamental. Una consecuencia es que los fotones fluorescentes van a tener menor energía, y por tanto, mayor longitud de onda que los fotones absorbidos para producir el estado excitado.

  • Fosforescencia

  • Cuando la transición desde un estado excitado triplete al estado fundamental es acompañada por la emisión de un fotón, como es un proceso de espín prohibido, una transición triplete - singlete es mucho menos probable que una transición singlete - singlete.

    La vida media del estado triplete excitado respecto a la desactivación por emisión, es siempre menor que la de un singlete.

  • Conversión Externa

  • Consiste en la desactivación de un estado electrónico excitado por transferencia de energía entre las moléculas excitadas del disolvente y otros solutos.

    Una evidencia de este fenómeno es el efecto que ejerce el disolvente sobre la intensidad de fluorescencia.

  • VARIABLES QUE AFECTAN A LA FLUORESCENCIA

  • Una sustancia será fluorescente o no, dependiendo de su estructura y del medio químico, aunque el rendimiento cuántico y el tipo de transición influyen en la intensidad de la fluorescencia.

    3.1. Rendimiento cuántico y tipo de transición

    La intensidad de fluorescencia va a estar determinada por un factor conocido como eficacia o rendimiento cuántico de la fluorescencia, que es la razón entre el número de moléculas que se desactivan por emisión de fluorescencia y el número total de moléculas excitadas. (Fotocopia)

    3.2. Factores estructurales

    a) Extensión del sistema electrónico:

    El aumento en la estructura del sistema electrónico  de forma conjugada forma el efecto de aumentar la velocidad de absorción de la fluorescencia y disminuir la diferencia de energía entre el estado fundamental y el primer singlete excitado.

    La conjugación efectiva entre los enlaces  es mayor si estos se encuentran en el mismo plano, y por ello las sustancias mas intensamente fluorescentes son aquellas que poseen menor número de grupos funcionales sobre anillos aromáticos en su molécula. Así en los hidrocarburos aromáticos no sustituidos, la eficacia cuántica aumenta conforme la hace el número de anillos. (Fotocopia).

    En cuanto a los sistemas heterociclos más simples como furano, piridina...... no presentan fluorescencia, pero la fusión de éstos con un anillo bencénico hace que aumente la absortividad molar y la probabilidad de absorber fluorescencia.

  • Efecto de los sustituyentes

  • Las sustancias en el anillo bencénico originan cambios en la longitud de onda del máximo de absorción, el de la emisión y también el la eficacia cuántica. Las sustancias aceptoras de electrones como el grupo carboxilo, nitro y los haluros, disminuyen la fluorescencia, mientras que los dadores como amino e hidroxilo la intensifican.

  • Efecto de la rigidez estructural

  • Experimentalmente se observa que la fluorescencia se favorece en aquellas moléculas que poseen estructuras rígidas o que tienen anillos o forman quelatos. Así por ejemplo, el bifenilo es poco fluorescente mientras que el fluoreno lo es mucho. (Estructuras)

  • Efecto del impedimento estérico

  • En general, fomenta la desactivación sin emisión de radiación. Ej.: Estilbeno ! fotocopia

    3.3. Efectos ambientales

  • Efecto de la temperatura:

  • La eficacia cuántica decrece con el aumento de la temperatura, ya que esta contribuye al aumento de las colisiones entre moléculas, y por tanto a la desactivación mediante colisión.

  • Efecto del disolvente:

  • La eficacia cuántica de la fluorescencia aumenta con la viscosidad del disolvente debido a que disminuye las colisiones.

    Sin embargo, la pérdida del disolvente y la capacidad para la formación de enlaces por puentes de hidrógeno son críticos, ya que afecta a la naturaleza del estado excitado.

  • Efecto del pH:

  • El pH ejerce un marcado efecto sobre la fluorescencia de los compuestos aromáticos con sustancias ácidas o básicas en el anillo, afectándose normalmente tanto la longitud de onda como la intensidad de emisión. Esto es debido a que el pH afecta principalmente a la carga y formas resonantes del fluoróforo. Ej.: la anilina presenta fluorescencia en la región visible en medio neutro o alcalino, pero no en medio ácido.

    Algunas sustancias presentan una fluorescencia tan sensible a los cambios del pH que pueden usarse como indicador ácido - base.

  • Efecto del oxígeno disuelto y de los iones paramagnéticos:

  • La presencia de oxígeno disuelto a menudo reduce la intensidad de emisión de una solución fluorescente.

    A veces este efecto es debido a la oxidación de la sustancia fluorescente, pero la mayor frecuencia se debe al carácter paramagnético del oxígeno molecular que puede esperarse que favorezca el autocruzamiento entre sustancias y la conversión de las moléculas excitadas al estado triplete.

  • Relación entre intensidad de fluorescencia y concentración:

  • La última variable que consideraremos es la concentración y precisamente la relación entre la intensidad de fluorescencia observada.

    La concentración es la base de las aplicaciones cuantitativas de esta técnica de intensidad de fluorescencia, que va a ser proporcional al número de estados excitados fluorescentes que se forman, y este a su vez será proporcional a la intensidad de la radiación excitante absorbida. (Fotocopia).

    Cuando la concentración de una muestra es muy alta o es muy absorbente, tienen lugar unos procesos de autoabsorción de la radiación de excitación y de la emisión fluorescente, a lo largo de su recorrido a través de la cubeta, como consecuencia de ella, las rectas de calibrado:

    Sf = f (c)

    Esta relación que se ve modificada produce una inversión de la señal de fluorescencia. A este fenómeno se le conoce como Inversión de la Fluorescencia por concentración, y es debido a lo que se conoce como efecto de filtro interno. La concentración de inversión depende de las características de absorción de la disolución y de la geometría del sistema, siendo independiente de y0.

  • INSTRUMENTACIÓN Fig. (8 - 7)

  • Los fluorímetros (análogos a los fotómetros de absorción en los que se usan filtros para seleccionar la longitud de onda de los haces de excitación y emisión) y los espectrofluorímetros (que utilizan monocromadores).

    1.) Fuente:

    Normalmente en los fluorímetros se emplea una lampara de arco de Hg y en los espectrofluorímetros se usa una lampara de arco de Xe, siendo el espectro de esta lampara continuo desde 300 a 1300 nm.

  • Filtros:

  • Los monocromadores utilizan filtros de interferencia y absorción en fluorímetro y cromatografía en espectrofluorimetros.

    En cuanto a los monocromadores, actualmente se usan los de tipo red, ya que proporcionan rejas de separación de longitud de onda como en los prismas, y dispersan linealmente la radiación.

  • Celdas portamuestras:

  • Se utilizan tanto cubetas cilíndricas como rectangulares de 1 cm de lado, puede ser de cuarzo o sílice fundida. Para el ultravioleta ya que el cuarzo presenta una fluorescencia nativa por enzima de 320 nm, mejor usar vidrio Pyrex.

  • Detectores:

  • Para amplificar la señal se usan tubos fotomultiplicadores, en espectofluorimetros también se han usado detectores con diodos (componente electrónico que permite el paso de la corriente en un solo sentido) alineados.

  • Dispositivo de salida de detectores o registradores:

  • El instrumento de lectura más simple es un medidor que se emplea en fluorímetros.

    Equipos superiores suelen estar equipados con registradores.

    Los espectrofluorímetros incluyen microprocesadores para la adquisición de datos.

    Se han desarrollado comercialmente una gran variedad de aparatos cuya complejidad y costes difieren mucho.

    Los fluorímetros son una herramienta simple y de menor coste, los espectrofluorímetros van equipados con dos monocromadores y usa como detector los tubos fotomultiplicadores con los que se consiguen grandes factores de amplificación de la señal, además los espectros fluorímetros suministran tanto los espectros de excitación como la emisión. El espectro de excitación se obtiene registrando la variación de la intensidad de fluorescencia manteniendo el monocromador de emisión a longitud de onda fija, generalmente suele ser la del máximo de emisión del compuesto y se varia la longitud de onda de excitación.

    El espectro de emisión se obtiene registrando la variación de la intensidad de fluorescencia, manteniendo el monocromador de excitación a una longitud de onda fija generable del máximo de absorción del compuesto y se varia la longitud de onda de emisión.

    El espectro de excitación de una molécula debe ser idéntico al de absorción. Los espectros de emisión obtenidos con diferentes instrumentos no son comparables, ya que la intensidad de fluorescencia depende en gran medida de las características de la lampara, detector y monocromador. Se han desarrollado métodos para obtener el espectro corregido, que es el espectro verdadero libre de efectos instrumentales aunque los instrumentos modernos lo corrigen automáticamente, en cuanto a la fosforescencia. Modificación en la intensidad para medir fosforescencia.

    Al relacionar la intensidad de fosforescencia con la concentración, es preciso hacer las mismas consideraciones que en el caso de fluorescencia.

    Ip = K p I0 (2'3 bc)

    no sea superior a 0'05 que es mejor al disminuir 0'01, aunque el intervalo de concentración para el que la curva es lineal suele ser mayor que en el caso de la fluorescencia. (Fig. 9 - 7).

    La fosforescencia debe realizarse a la temperatura del nitrógeno líquido, que es de 1'77 K, mientras que las medidas de la fluorescencia se realizan a temperatura ambiente.

  • APLICACIONES

  • Los métodos de fluorescencia y fosforescencia son más sensibles, selectivos y aplicables a intervalos de concentración más bajos que los espectrofotométricos. Por otro lado la exactitud y precisión de los métodos fotoluminiscentes es normalmente peor que la de los espectrofotométricos.

    Generalmente los métodos fosforescentes son menos precisos que los fluorescentes.

    Los campos de aplicación pueden incluirse en dos grandes grupos:

    • Análisis cualitativo y estructural

    • Análisis cuantitativo

    Si bien es usada también la fluorescencia como técnica auxiliar de otras técnicas.

    5.1. Análisis cualitativo y estructural

    Entre los procedimientos base de la identificación tenemos la formación de un quelato fluorescente, el cambio de fluorescencia de un compuesto orgánico, la fluorescencia nativa. Sin embargo esta técnica tiene solo un valor limitado para identificación de compuestos, no alcanzando los resultados obtenidos por otras técnicas como infrarrojos o de RMN ( Radiación Magnética Nuclear ).

    5.2. Análisis cuantitativo

    La concentración de analito necesaria para producir fluorescencia medible es normalmente muy pequeña, por lo que esta técnica es útil en la determinación de trazas tanto de compuestos inorgánicos, como orgánicos o biológicos.

    En cuanto al análisis de iones inorgánicos, existen dos tipos de métodos:

    • Métodos directos: implican la formación de un quelato fluorescente y la medida de su emisión, por ej. Cationes Al3+ con rojo de alizarina.

    • Métodos indirectos: se basan en medidas de mínimos de intensidad de fluorescencia que resulta de la acción alternadora, lo que se llama quenching de la sustancia que se va a determinar. Ej. Aniones, F" con complejo Al3+ con alizarina.

    Análisis de compuestos orgánicos y biológicos

    Las aplicaciones más importantes de la fluorescencia se encuentran en este campo y los métodos se basan en la medida de la fluorescencia directa o bien de la fluorescencia inducida por reacción química.

    Entre los compuestos orgánicos fluorescentes de interés están los hidrocarburos aromáticos policíclicos PDH5.

    Existe también un número elevado de compuestos biológicos ! fluorescencia en aminoácidos, enzima...

    Entre las reacciones químicas empleadas para crear compuestos luminiscentes, podemos señalar:

  • Reacciones de marcaje en las que un fluoroforo se une directamente al analito con el fin de hacerlo más detectable. Ej. Cl" (Cloro densilo con aminas secundarias).

  • Reacciones basadas en la formación de complejos metálicos. Los iones metálicos pueden servir para hacer fluorescente a un analito. Ej. Análisis de tetraciclina.

  • Aplicación de fotoluminiscencia como técnica auxiliar de otras técnicas

  • En otras ocasiones, el fenómeno de la fluorescencia se emplea como auxiliar en otras técnicas.

    Casos:

    • Uso de indicadores fluorescentes en volumetrías ácido-base, precipitación y complejación.

    • Detección fluorescente en cromatográfia de papel y capa fina ! preparado de derivados fluorescentes de compuestos no fluorescentes antes o después de la separación.

    Así igual es un método sensible para la detección en HPLC la derivatización postcolumna.

    • También se puede usar para seguir reacciones catalizadas por enzimas y determinar la actividad de la enzima. Ej. Tomamos una sustancia no fluorescente sobre la cual actúa la enzima para producir fluorescencia o concentración de la misma.

    Métodos fosforimétricos. Aplicaciones

    Los métodos fosforescentes y fluorescentes suelen ser complementarios ya que los compuestos que son fuertemente fluorescentes presentan una débil o nula fosforescencia y viceversa. La fosforescencia ha sido usada para la determinación de una gran variedad de especies orgánicas u bioquímicas, pero debido a la necesidad de trabajar a bajas temperaturas y a la generalmente pobre precisión de esta técnica no ha tenido una utilización tan amplia como la fluorometría. Resulta atractiva su selectividad potencial.

    TEMA 7:

    ESPECTROSCOPIA ATÓMICA BASADA EN LA ATOMIZACIÓN CON LLAMA Y ELECTROTÉRMICA

  • ESPECTROSCOPIA ATÓMICA: FUNDAMENTOS Y CLASIFICACIÓN

  • La espectroscopia atómica se basa en la absorción, emisión o fluorescencia por átomos o iones elementales. Existen dos regiones del espectro que dan información atómica: ultravioleta - visible y rayos x, siendo la primera, la que se estudia aquí.

    Los espectros atómicos ultravioleta - visible, se obtienen mediante un adecuado tratamiento térmico que convierte los componentes de una muestra en átomos o iones gaseosos.

    El proceso por el cual la muestra se convierte en un vapor atómico se denomina ATOMIZACION.

    Depende la precisión y exactitud de estos métodos, en gran medida de esta etapa. (Tabla 10 - 1)

    Entre estos métodos se han aplicado con éxito a la determinación de más de setenta elementos con sensibilidades de entre ppm - ppb.

  • ATOMIZACIÓN DE LA MUESTRA

  • Los atomizadores son de dos tipos:

    - Continuos.

    - Discretos.

    2.1. Atomizadores continuos

    La muestra se introduce en el atomizador a una velocidad constante y la señal espectral es, por tanto, constante en el tiempo. Los tres primeros métodos de atomización ! (Tabla 10 - 1, son de este tipo).

    En cada uno de ellos, la disolución de la muestra se transforma en una niebla de pequeñas gotas firmemente divididas mediante un flujo de gas comprimido. Este proceso se denomina NEBULIZACION.

    A esta nebulización le sigue la etapa de disolvatación en la que el disolvente se evapora para producir un aerosol molecular sólido, firmemente dividido. La disociación de las moléculas conduce luego a la formación de un gas atómico, y a su vez, los átomos pueden disociarse en iones y electrones y se producen así, espectros de emisión molecular, y dos tipos de espectros de emisión atómicos ! (Todo esto, en diagrama bloque resumen)

    2.2. Atomizadores discretos

    En estos, una cantidad medida de la muestra, se introduce en el dispositivo como un bolo de líquido o sólido. La disolvatación tiene lugar al subir la temperatura hasta el valor en que tiene lugar la evaporación rápida del disolvente. A continuación, la temperatura se eleva de forma drástica, de tal manera que las otras etapas de la atomización se producen en un breve periodo de tiempo. En estas circunstancias, la señal espectral adquiere la forma de un pico bien definido. Los atomizadores electrotérmicos son de este tipo, así como la atomización con chispa eléctrica. Mientras que, en un arco eléctrico se emplean tanto el modo continuo como el discreto, dependiendo del tipo de muestra que se analiza.

  • ESPECTROS ATÓMICOS

  • Cuando una muestra se atomiza por cualquiera de los procedimientos anteriores, una importante fracción de los constituyentes metálicos se transforman en átomos gaseosos y además, según la temperatura del atomizador, una cierta fracción de estos átomos se ioniza originándose así una mezcla gaseosa de átomos e iones elementales.

    3.1. Diagramas de niveles de energía

    Los espectros de absorción, emisión o fluorescencia de las partículas atómicas gaseosas, están constituidas por líneas estrechas que son bien definidas y que provienen de las transiciones de los electrones más externos. En el caso de los metales, las energías de esas transiciones son tales que implican a la radiación ultravioleta - visible y al infrarrojo - cercano.

    Los diagramas de energía de los electrones externos proponen un método adecuado para la descripción de los procesos en los que se basan los distintos tipos de espectroscopia atómica. Así, el diagrama del Na+ es un diagrama característico. (Figura 10 - 2)

    Las energías correspondientes a las distintas orbitales atómicas, se indican mediante líneas horizontales. Las orbitales p, se desdoblan en más niveles, que difieren ligeramente en energía, pudiendo justificarse este hecho mediante las interacciones entre el movimiento orbital del electrón alrededor de su propio eje y el espín. Con las orbitales d y f, se producen diferencias similares, pero sus magnitudes son normalmente tan pequeñas que resultan indetectables. El desdoblamiento de las orbitales p, d y f de elevada energía en dos estados, es característico de todas aquellas especies si tienen un único electrón externo. Así, el diagrama de niveles de energía para Mg+ tiene la misma apariencia que el correspondiente Na+. A medida que sube el número de electrones fuera de las capas más internas, los diagramas de niveles de energía se hacen cada vez más complejos, de manera que para los metales pesados, y particularmente para metales de transición, existe un gran número de niveles de energía muy poco espaciados, y en consecuencia, el número de líneas de absorción o emisión puede ser muy alto.

    Hay que tener en cuenta, que las transiciones que producen radiación se observan solamente entre ciertos estados de energía. Por ejemplo: no se dan las transiciones de los estados 5s ó 4s al 3s ni entre los distintos estados p, o en los de d. Estas transiciones se llaman prohibidas, y existen reglas de selección que permiten la predicción de cuáles son las transiciones más probables y cuáles no.

    3.2. Espectros de emisión atómica

    A temperatura ambiente, todos los átomos de una muestra se encuentran esencialmente en el estado fundamental. En estas circunstancias, por ejemplo, el único electrón externo del Na metálico ocupa el orbital 3s. La excitación de este electrón a orbitales más altos, se puede conseguir mediante el calor de una llama, una chispa o un arco eléctrico. El tiempo de vida de un átomo excitado es breve y su vuelta al estado fundamental va acompañada de la emisión de un fotón de radiación. Las dos líneas que presenta el Na son 5890 y 5896 Å, y son las más intensas y las responsables del color amarillo que se observa cuando se introducen las sales del Na en una llama. (Figura 10 - 5).

    Además, este pico más ancho corresponde a las transiciones de 3p a 3s y el pico que aparece a 5700 Å corresponde a dos picos no resueltos ! a las dos transiciones 4d a 3p. El poder de resolución del monocromador es insuficiente para poder separar los picos.

    3.3. Espectros de absorción atómica

    En un medio gaseoso a elevada temperatura, los átomos de los metales son capaces de absorber radiación de  (longitud de onda), característico de transiciones del estado fundamental a niveles superiores. De este modo, un espectro de absorción atómica está constituida por líneas de resonancia, que son el resultado de transiciones del estado fundamental a niveles superiores. Así, por ejemplo, en el caso de Na, se observan experimentalmente, picos de absorción aguda a 5890, 5896 y 3302, 3302 Å.

    Cada par adyacente de estos picos corresponden a transiciones desde el nivel 3s a 3p y desde 3s a 4p.

    3.4. Espectros de fluorescencia atómica

    En una llama, los átomos pueden presentar fluorescencia cuando se irradian en una fuente intensa que contiene las longitudes de onda que son absorbidas por el elemento. Los espectros de fluido resultante, se miden adecuadamente a un ángulo de 90°, con respecto a la trayectoria luminosa y la radiación que se observa. Es por lo general, el resultado de la fluorescencia de resonancia.

    Cuando los átomos de Mg se exponen a fuente ultravioleta, se absorbe la radiación de 2852 Å que corresponde al salto de 3s a 3p, emitiéndose posteriormente, fluorescencia de resonancia a esa misma longitud de onda.

    Sin embargo, cuando los átomos de Na absorben radiación de longitud de onda de 3303 Å, los electrones pasan al estado 4p, produciéndose a continuación, una desactivación no radiante hacia estados 3p mucho más rápidamente que la fluorescencia de resonancia como consecuencia de la fluorescencia que se observa y se presenta a 5890 y 5890 Å.

    Y un tercer mecanismo para la fluorescencia atómica, en que los átomos de Talio excitados en una llama, vuelve al estado fundamental en dos etapas: una de ellas es fluorescente y produce líneas a 5350 Å, y a continuación se produce rápidamente una desactivación no radiante hasta el estado fundamental. Además se puede observar fluorescencia de resonancia a 3776 Å. (Figura 10 - 6)

  • Anchura de las líneas espectrales

  • En espectroscopia atómica, la anchura de líneas espectrales es de gran importancia, así como las líneas estrechas son muy convenientes tanto en absorción como emisión, ya que así se reducen las posibles interferencias debidas al solapamiento de espectros. Las líneas de absorción y emisión atómica presentan generalmente, una distribución de longitud de onda simétrica alrededor de una longitud de onda media, que coincide con la longitud de onda del máximo de absorbencia de la radiación absorbida o la máxima intensidad de la radiación emitida.

    La observación de diagramas de energía sugiere que, una transición entre dos niveles discretos de energía daría lugar a una línea, a una longitud de onda única. Sin embargo, distintos fenómenos como el efecto doppler, efecto del campo magnético o eléctrico, y efectos de presión, debido a colisiones del átomo, dan lugar a que estos efectos generen el ensanchamiento de las líneas espectrales.

  • ATOMIZACIÓN CON LLAMA

  • Una disolución de muestra se pulveriza en una llama mediante nebulizador, el cual transforma la disolución en un aerosol constituido por diminutas gotitas de líquido. A continuación, tiene lugar una serie de procesos que dan lugar a una mezcla de átomos de analito, iones de analito, moléculas de muestra, moléculas de óxido de analito y una variedad de especies moleculares y atómicas que se forman por reacciones entre el combustible, el oxidante y la muestra, debido a la gran variedad de procesos complejos que se dan en la llama. La atomización es la etapa más crítica en la espectroscopia de llama, y la que limita la precisión de estos métodos. Por ello, es importante conocer las características de las llamas y las variables que les afectan.

    4.1. Tipos de llamas (Tabla 10 - 2)

    En el caso de usar O2 en el aire, se obtienen temperaturas entre 1700 - 2400°C haciendo mezclas con gas natural, H2 y acetileno. A estas temperaturas, sólo los metales más fácilmente excitables como los alcalinos y alcalinotérreos, producen efectos de emisión adecuados.

    Los metales pesados se excitan con oxido nitroso, ya que estos oxidantes producen temperaturas entre 2500 - 3100°C con los combustibles más comunes.

    También son de considerable importancia, las velocidades de combustión, ya que las llamas sólo son estables en ciertos intervalos de caudal; si el caudal no sobrepasa la velocidad de combustión, la llama se propaga hacia atrás en el interior del quemador, Cuando el caudal y velocidad de combustión se encuentren ajustados, la llama sube hasta alcanzar un punto por encima del quemador, donde el caudal y la velocidad de combustible son iguales. En esta región es donde la llama es estable; a caudales más altos, la llama sube y al final alcanza un punto donde se aparta del quemador. El caudal de la mezcla combustible - oxidante, depende mucho del combustible y del oxidante que se usan y es una importante variable que es preciso controlar rigurosamente.

    4.2. Estructura de la llama

    La zona de la combustión primaria se conoce por su luminiscencia azul, debido a la presencia de radicales C2, CH.

    En esta zona no se alcanza el equilibrio térmico y rara vez se usa en espectroscopia de llama.

    El área interconal puede alcanzar varios centímetros de altura en llama rica de acetileno - O2 o, acetileno - óxido nitroso. Esta zona es rica en átomos libres, y es la que más se usa en espectroscopia.

    El cono externo es zona de reacción secundaria, dados los picos formados, una región interna se transforma en óxidos moleculares libres, estables. El perfil de la llama proporciona una información útil respecto a los procesos que tienen lugar en las distintas partes de la llama. (Figura 10 - 11)

    También tenemos los perfiles de absorbancia (figura 10 - 12). El perfil de absorbancia, por ejemplo para Mg, presenta a la mitad de la llama un máximo, debido en primer lugar, al aumento inicial de la absorbancia al aumentar la distancia a la base de la llama y que se debe a que se produce un aumento en el número de átomos de Mg, debido al mayor tiempo de exposición a la llama. Sin embargo, al acercarse a la zona externa, comienza una apreciada oxidación del Mg, lo que origina una disminución en la absorbancia.

    El comportamiento de la plata es que no se oxida con facilidad; es distinta, observándose un aumento en la absorbancia debido a que se produce un aumento continuo de átomos desde la base hasta la periferia de la llama. Disminuye el Cr, que forma óxido fácilmente, y muestra una disminución continua de la absorbancia desde la zona cercana al quemador, lo que sugiere la formación de óxidos desde el principio.

    Por tanto, por el análisis de cada uno de estos elementos, se debe usar una zona distinta de la llama. Por otro lado, el perfil de emisión, que es un perfil tridimensional muestra la intensidad de emisión de una línea. Por ejemplo: producción en una llama.

  • Perfiles de la llama (temperatura, absorbancia y emisión)

  • (Ver figuras 10 - 10 y 10 - 11)

    4.4. Atomizadores de llama

    Se aplican para medidas de absorción, emisión y fluorescencia atómica. Un atomizador de llama consiste en un nebulizador neumático que transforma la disolución de muestra en una niebla o aerosol que se introduce en un quemador. (Figura 10 - 14)

    En términos de reproducibilidad, la atomización en llama resulta ser superior a todos los demás métodos hasta ahora desarrollados para la introducción de nuestros líquidos con la posible excepción ICP. (Figura 10 - 15)

    En términos de sensibilidad, otros métodos de atomización son claramente mejores, pudiendo darse dos razones:

    • Una gran porción de la muestra se pierde por drenaje.

    • El tiempo de residencia de los átomos individidos en el camino òptico, es breve.

  • ATOMIZACIÓN ELECTROTÉRMICA

  • Los atomizadores electrotérmicos proporcionan mayor sensibilidad, debido a que toda la muestra se atomiza en un periodo muy breve y el tiempo de residencia de los átomos en el camino óptico es de un segundo o más. Los atomizadores electrotérmicos se usan para las medidas de absorción atómica y fluorescencia atómica, pero no se han aplicado en los métodos de emisión

    Con estos atomizadores, se evaporan primero unos pocos microlitos de muestra a baja temperatura, y luego se calcina a una temperatura alta, en un tubo o cubeta de grafito calentado eléctricamente.

    Después de la calcinación, la corriente se incrementa a varios cientos de amperios, lo que hace que la temperatura suba aproximadamente a 2500°C, produciéndose la atomización de la muestra en un tiempo que va de unos pocos milisegundos a un segundo. Es estas condiciones, se mide la absorción o la fluorescencia de las partículas atomizadas en la zona situada inmediatamente encima de la superficie calentada. (Figura 10 - 16) (Figura 10 - 17)

    Los atomizadores electrotérmicos presentan la ventaja de su elevada sensibilidad. La precisión relativa de estos métodos está entre el 5 - 10% en comparación del 1% o menos, que se puede obtener en la atomización con llama o plasma. Además estos métodos son cortos.

    Una desventaja es el intervalo analítico en el que se puede trabajar, pues es pequeño, siendo por lo general, mayor de dos órdenes de magnitud. En consecuencia, la atomización electrotérmica se usa sólo cuando la atomización con llama o plasma no proporciona los límites de detección adecuados.

  • ESPECTROSCOPIA DE ABSORCIÓN ATÓMICA

  • Ha sido el método más usado de los métodos espectrales atómicos, debido a su simplicidad, efectividad y bajo coste relativo.

  • Fuentes de radiación para los métodos de absorción atómica

  • Los métodos analíticos basados en la absorción atómica son muy específicos debido a que las líneas de absorción atómica son considerablemente estrechas, y la energía de transición electrónica es única para cada elemento. Sin embargo, esta limitación en la anchura de las líneas crea un problema, ya que para que se cumpla la Ley de Beer, es necesario que la anchura del borde de la fuente sea mayor que la del pico de absorción. El principal inconveniente para solventar este problema es cambiar la lámpara para cada elemento que se analiza.

    1) Lámparas de cátodo hueco.

    Es la fuente más común para las medidas de absorción común, y consiste en un ánodo o cátodo cilíndrico cerrados herméticamente en un tubo de vidrio lleno de Ar o Ne.

    El cátodo está constituido por un metal cuyo aspecto se desea obtener o bien sirve de soporte para una capa de dicho metal. Cuando se aplica un potencial suficientemente entre los electrodos, se produce la ionización del gas y los cationes electrones migran hacia los electrodos, de manera que los cationes son capaces de arrancar algunos de los átomos metálicos de la superficie del electrodo y producir una nube atómica. A este proceso se le denomina Chisporreteo.

    Una parte de los átomos metálicos desprendidos se encuentran excitados y al volver al estado fundamental emiten su radiación característica.

    Finalmente, los átomos metálicos se vuelven a depositar en la superficie del cátodo o en las paredes del vidrio del tubo. La eficacia de la lámpara del cátodo hueco depende de su geometría y del potencial aplicado.

    2) Lámparas de descarga sin electrodos.

    Son buenas fuentes de espectros atómicos de líneas, y producen intensidades radiantes que son una o dos órdenes de magnitud superiores a los del cátodo hueco. Una lámpara con estas características, se construye en un tubo de cuarzo herméticamente cerrado, que contiene una pequeña cantidad del metal cuyo espectro se desea obtener de su sal y un gas inerte como el Ar. La lámpara no contiene electrodos y para su activación, se usa un campo intenso de radiofrecuencias o de microondas produciendo así, la ionización del Ar. Existen lámparas comerciales de descarga sin electrodos para quince o más elementos, aunque su funcionamiento no parece ser tan fiable como el de las lámparas del cátodo hueco.

    • Modulación de la fuente

    Es un instrumento de absorción atómica para eliminar las interferencias producidas por la emisión de radiación de la llama. La mayor parte de la radiación emitida por la llama se elimina mediante el monocromador, pero la radiación emitida correspondiente a la longitud de onda seleccionada por el monocromador, está siempre presente en la llama, debido a la excitación y emisión de los átomos del analito.

    A fin de eliminar los efectos de la emisión de la llama, es necesario modular la salida de la fuente para que su intensidad oscile a una frecuencia constante. Una forma, es ir interponer entre la fuente y la llama un contador. De este modo, el detector recibe dos tipos de señales, una alterna de la fuente y otra continua de la llama.

    6.2. Instrumentos para la espectroscopia de absorción atómica

    El instrumento ha de proporcionar una anchura de banda lo suficientemente estrecha como para evitar la medida de la línea elegida de entre otras que pueden interferir, o que disminuyan la sensibilidad de los análisis.

    Para ello, pueden usarse filtros de interferencias, pero la mayoría de los instrumentos usan un monocromador ultravioleta - visible. Los detectores y sistemas de lectura son similares a los descritos para la espectroscopia de absorción molecular ultravioleta - visible. Se usan detectores fotomultiplicadores, siendo necesarios sistemas electrónicos que pueden discriminar entre la señal modulada de la fuente y la continuación de la llama.

    La mayoría de los instrumentos van equiparados con ordenador, para el control de los parámetros instrumentales y para la adquisición y manipulación de datos. En cuanto a los espectrofotómetros de un solo haz, consisten en varias fuentes de cátodo hueco, un contador, o una fuente de alimentación para impulsar un atomizador y un espectrofotómetro sencillo de red o difracción con un fotomultiplicador. En los espectrofotómetros de doble haz, el haz que proviene de la fuente de cátodo hueco, se divide mediante un contador reflectante, de manera que la intensidad pasa a través de la llama y la otra mitad, por fuera de ella. Posteriormente, los dos haces lo recombinan mediante un espejo semiplateado y llega a un monocromador de red y al tubo fotomultiplicador.

    A continuación, pasa a un amplificador donde se amplifica la relación entre las señales de referencia, y la muestra mayor pasa al sistema de adquisición.

  • Interferencias espectrales

  • Se produce cuando la absorción o emisión de una especie que interfiere, se solapa o aparece muy próxima a la absorción o emisión del analito, de modo que, su resolución por el monocromador resulta imposible. Dado que las líneas de emisión de las fuentes de cátodo hueco son muy estrechas, es rara la interferencia que se produce por superposición de ellas. También se producen interferencias espectrales debido a la producción de combustión que poseen bandas de absorción anchas, o de aerosoles que dispersan la radiación, y así, ambos bajan la intensidad del haz transmitido, dando lugar a resultados analíticos con errores.

    Cuando la única fuente de estos productos es la mezcla de combustible y oxidante, se puede realizar fácilmente la corrección, midiendo la absorbancia de un blanco.

    Cuando la absorción o dispersión se debe a la matriz de la muestra, con frecuencia se puede evitar modificando parámetros analíticos, tales como temperatura, relación combustible - oxidante, si se conoce la causa de la interferencia. Se puede añadir un exceso de la sustancia interferente, tanto a la muestra como a los patrones, de manera, que si el exceso es elevado con respecto a su concentración en la matriz de la muestra, la contribución de ésta última será despreciable. La sustancia añadida se denomina Amortiguador de la radiación.

  • Interferencias químicas

  • Se producen como consecuencia de diversos procesos químicos que ocurren durante la atomización y que alteran las características de absorción del analito. Son más comunes que los espectrales, y afectan pudiendo ser mínimos si se eligen condiciones de trabajo adecuadas.

    Los procesos de mayor interés son:

    • La formación de componentes de baja volatilidad.

    • La reacción de disociación y,

    • Las reacciones de ionización

    En cuanto a la formación de compuestos poco volátiles, el tipo más común de interferencia es el producido por aniones que forman compuestos de baja volatilidad con el analito, y por tanto reducen su velocidad de atomización, originando errores negativos. Este tipo de interferencias pueden eliminarse o atenuarse de tres formas:

    • a elevada temperatura

    • empleando agentes liberadores

    • empleando agentes protectores que forman con el analito, especies estables volátiles.

    En cuanto a los equilibrios de disociación, son los óxidos e hidróxidos de los metales alcalinos, los que se disocian con mucha mayor facilidad, por lo que las intensidades de las líneas son elevadas, incluso a temperatura relativamente baja.

    La ionización en las llamas se da en las que contienen aire, como oxidante, y la ionización de átomos y moléculas, aquí es pequeña, y por lo general, puede despreciarse. Sin embargo, en las llamas en las que el oxidante el O2 o No, la ionización es más importante y hay una concentración notable de electrones libres.

    El grado de ionización del metal, se encuentra fuertemente influido por la presencia de otros metales ionizables en la llama. Los efectos de estos desplazamientos se pueden eliminar con la adición de un supresor de ionización, el cual proporciona una concentración relativamente alta de electrones en la llama y como consecuencia, se suprime la ionización del analito.

  • Procedimiento analítico en espectroscopia de absorción atómica

  • Preparación de la muestra.

  • La muestra ha de introducirse disuelta en agua sin que intervengan muchos de los materiales de interés, como pueden ser muchos tejidos animales, plantas, derivados de petróleo y minerales no solubles en agua y con frecuencia se requiere un tratamiento previo laborioso.

    Las etapas de descomposición y disolución de la muestra, a menudo introducen más errores que las propias medidas espectroscópicas. Además, los reactivos que se usan, introducen los tipos de interferencias químicas y espectrales.

    Para la descomposición y disolución de la muestra, alguno de los precedentes más habituales es el de los tratamientos con ácidos minerales y oxidación con reactivos líquidos ! sulfúrico HNC, perclórico ! mineralización por vía húmeda, además de combustión en banda de O2. También la mineralización a elevada temperatura ! mineralización por vía seca; y finalmente, fusión a elevada temperatura con reactivos con óxido bórico y carbonato sódico.

    Una de las ventajas de la atomización electrotérmica, es que algunos materiales se pueden atomizar directamente, evitando de este modo, la etapa de disolución.

    b) Patrones de calibración.

    Idealmente, los patrones de calibración para el análisis de absorbancia atómica, deberían contener no sólo el analito, sino que también debería parecerse lo más posible a la muestra en cuanto a la matriz.

  • Efectos que se producen por el empleo de disolventes en la espectroscopia de llama.

  • La altura de los picos de absorción se elevan en presencia de alcoholes de bajo Pn, y se atribuye el aumento en la eficacia del nebulizador, ya que la baja tensión superficial origina gotas de pequeño tamaño, y así se produce la evaporación del disolvente de forma más rápida.

  • Técnicas de generación de hidruros.

  • Proporcionan un método para la introducción de As, Sn, Se, Bi y Pb, como gases en un atomizador.

    La generación rápida de hidruros volátiles se produce normalmente por adición de una disolución de la muestra en medio ácido, a un pequeño volumen de una disolución acuosa de Borohidruro Sódico al l%, contenido en una cubeta de vidrio. Después de mezclarse las disoluciones durante un breve periodo de tiempo, el hidruro que se forma se arrastra a la cámara de atomización mediante un gas inerte. Esta cámara, por lo general, consiste en un tubo de sílice, calentado a unos cientos de grados en un horno o en la llama, a través del cual, la radiación de la fuente pasa hacia el monocromador y al detector.

    La señal es un pico similar al que se obtiene con la atomización electrotérmica, aumentando la sensibilidad en un factor de 10 - 100.

  • Curvas de calibración.

  • Periódicamente, debe prepararse una curva de calibración en el intervalo de concentración donde se encuentra la muestra. Además, debido a que en la atomización y en la medida de absorbancia existe un gran número de variables incontroladas, cada vez que se realiza un análisis, es necesario medir dos patrones, cubriendo un rango de concentración que englobe la concentración del analito en la muestra.

  • Método de la adición estándar.

  • Se usa para la absorción atómica, para contrarrestar las interferencias químicas y espectrales producidas por la matriz de la muestra.

  • Aplicaciones de la espectroscopia de absorción atómica

  • Constituyen un medio sensible para la determinación cuantitativa de más de sesenta elementos.

    Las líneas de resonancia de elementos no metálicos, se localizan por debajo de 200mm y sólo es posible su determinación por los espectrofotómetros que operan en el vacío.

    Para muchos elementos, las líneas de detección en espectroscopia de absorción, en la atomización con llama, se encuentran en el intervalo de 1 - 20 microlitos ppb ó 10-3 - 2 ·10-2 ppm, y con la atomización electrotérmica, los valores correspondientes son 2 · 10-3 - 10-2 ppb o 2 · 10-6 - 10-5 ppm.

    En cuanto a la exactitud, en condiciones normales, el error relativo asociado al análisis de absorción con llama, es del orden de l - 2 %, pudiendo disminuir estas cifras cuando se toman precauciones especiales, y los errores que se muestran con la atomización electrotérmica son de 5 - 10 veces más altas que los obtenidos con la atomización con llama.

  • ESPECTROSCOPIA DE EMISIÓN DE LLAMA

  • Tiene como principal aplicación, la determinación de Na, K, Li y Ka, especialmente en fluidos biológicos y en tejidos. Por razones de conveniencia, rapidez y por la relativa falta de interferencias, se ha convertido en el método más adecuado para el análisis de estos elementos que suelen ser difíciles de determinar por otras técnicas.

  • Instrumentación

  • Los instrumentos para trabajar con la emisión de llama, son parecidos a los de absorción, excepto por el hecho de que en los primeros, la llama actúa como fuente de radiación, y en consecuencia, la lámpara de cátodo hueco y el contador, son necesarios. Para los análisis que no son de rutina, resulta más conveniente usar un espectrofotómetro ultravioleta - visible. Con un registrador de una resolución aproximada de 0,5 Å. El registrador constituye un medio sencillo para realizar correcciones de fondo.

    Para el análisis de rutina para metales alcalinos y alcalinoterreos, es suficiente la utilización de fotómetros simples de filtros; en estos casos se usa una llama a baja temperatura, para evitar la excitación de los demás metales, por lo que los espectros obtenidos son simples y pueden usarse filtros de interferencia para aislar la línea de emisión que se desee. Algunos fabricantes construyen fotómetros de llama diseñados específicamente para el análisis de Na, Ka, Li en suero sanguíneo y otras muestras biológicas. En ellos, la radiación que proviene de la llama, se divide en tres haces de aproximadamente la misma intensidad, y cada uno de ellos pasa a través de la superficie fotométrica independiente, constituido por un filtro de interferencias, un fototubo y un amplificador.

    7.2. Interferencias

    • Interferencias de banda

    En muchas ocasiones, se observa que las líneas de emisión aparecen superpuestas sobre bandas emitidas por óxidos y otras especies moleculares de la muestra, combustible u oxidante, y es posible corregir el fondo tocando datos, es decir, unos pocos nm (nanómetros) a cada lado del pico del analito. En instrumentos que no tienen registrador, se realiza una medida a cada lado del pico, aumentando el promedio de las dos medidas, y se resta de la altura total del pico.

    • Interferencias químicas

    Son esencialmente las mismas que se encuentran en los métodos de absorción de llama.

    Se evitan mediante la elección de la temperatura y el uso de agentes protectores, liberadores y supresores de ionización.

    • Autoabsorción

    El centro de una llama está más caliente que su parte externa, y por ello los átomos que emiten en la zona central, están rodeados por una región más fría que contiene una elevada concentración de átomos no excitados, de manera que se produce la autoabsorción de la longitud de onda de resonancia por los átomos de la capa más fría.

    En una situación extrema, el centro puede resultar menos intenso que los bordes, o incluso desaparecer, y el resultado es el desdoblamiento por autoinversión del máximo de emisión en lo que aparentemente son dos picos. La autoabsorción resulta molesta cuando el analito está a elevada concentración. En estas circunstancias, es preferible emplear para el análisis, una línea no resonante, la cual, no puede experimentar autoabsorción.

    La autoabsorción y la ionización, producen a veces, unas curvas de calibración de emisión con forma de S en tres segmentos distintos, y así en concentraciones intermedias.

    Por ejemplo; de K se observa una relación lineal entre intensidad y concentración, pero la baja concentración aparece una curvatura que se debe al elevado grado de ionización en la llama y a concentración elevada, la autoabsorción provoca desviaciones negativas de la linealidad.

  • COMPARACIÓN ENTRE LOS MÉTODOS DE ABSORCIÓN ATÓMICA Y DE EMISIÓN ATÓMICA

  • En cuanto a los instrumentos, la principal ventaja de los procedimientos de emisión, consiste en que la llama actúa como fuente. Los métodos de absorción necesitan, por el contrario, una lámpara distinta para cada llama. Por otra parte, la calidad del monocromador de un instrumento de absorción, no tiene que ser tan alta para alcanzar el mismo grado de selectividad debido a la estructura de las líneas emitidas por la lámpara de cátodo hueco.

    En cuanto a la habilidad del operador, los métodos de emisión requieren un elevado grado de habilidad, debido a la naturaleza de emisión de ajuste, tales como la la zona de la llama escogida y la relación combustible - oxidante.

    Corrección de fondo ! En los espectros de banda que provienen de los constituyentes de la muestra, se realiza con facilidad y por lo general, y con más exactitud, en los métodos de emisión.

    Precisión y exactitud

    La incertidumbre obtenida por los operadores expertos, es más o menos la misma para ambos procedimientos. Los métodos de absorción atómica presentan menos problemas. Los procedimientos de absorción atómica, están menos sujetos a interferencias de líneas espectrales, aunque los métodos de emisión de este tipo de interferencias se reconocen y se pueden evitar fácilmente.

    Tema 1: Metodología Analítica Análisis Instrumental I

    - 112 -




    Descargar
    Enviado por:El remitente no desea revelar su nombre
    Idioma: castellano
    País: España

    Te va a interesar