Física


Modelos atómicos y Física Nuclear


INDICE

UNIDAD 5º TEORIA CUANTICA Y MODELOS ATOMICOS

TEMA PAGINA

INTRODUCCIÓN 1

5.1 MODELOS ATOMICOS DE Rutherford Y Bohr 2

5.2 HIPOTESIS CUANTICA DE Planck 4

5.3 HIPOTESIS DE Louis de Broglie 5

5.4 PRINCIPIO DE INCERTIDUMBRE DE Heinserberg 6

5.5 DUALIDAD ONDA - PARTICULA 7

UNIDAD 6ª FÍSICA NUCLEAR

TEMA PAGINA

INTRODUCCIÓN 8

6.1 ESTRUCTURA DEL NÚCLEO Y FUERZAS NUCLEARES 9

6.2 RADIACTIVIDAD 11

6.3 VIDA MEDIA Y RAZÓN DE DECAIMIENTO 17

6.4 FISIÓN NUCLEAR Y FUSIÓN NUCLEAR 18

BIBLIOGRAFÍA 21

INTRODUCCIÓN HISTÓRICA

En los siglos XVIII y XIX, la mecánica newtoniana o clásica parecía proporcionar una descripción totalmente precisa de los movimientos de los cuerpos, como por ejemplo el movimiento planetario. Sin embargo, a finales del siglo XIX y principios del XX, ciertos resultados experimentales introdujeron dudas sobre si la teoría newtoniana era completa. Entre las nuevas observaciones figuraban las líneas que aparecen en los espectros luminosos emitidos por gases calentados o sometidos a descargas eléctricas. Según el modelo del átomo desarrollado a comienzos del siglo XX por el físico británico nacido en Nueva Zelanda Ernest Rutherford, en el que los electrones cargados negativamente giran en torno a un núcleo positivo, en órbitas dictadas por las leyes del movimiento de Newton, los científicos esperaban que los electrones emitieran luz en una amplia gama de frecuencias, y no en las estrechas bandas de frecuencia que forman las líneas de un espectro.

Otro enigma para los físicos era la coexistencia de dos teorías de la luz: la teoría corpuscular, que explica la luz como una corriente de partículas, y la teoría ondulatoria, que considera la luz como ondas electromagnéticas. Un tercer problema era la ausencia de una base molecular para la termodinámica. En su libro Principios elementales en mecánica estadística (1902), el físico estadounidense J. Willard Gibbs reconocía la imposibilidad de elaborar una teoría de acción molecular que englobara los fenómenos de la termodinámica, la radiación y la electricidad tal como se entendían entonces.

Introducción del cuanto de Planck

A principios del siglo XX, los físicos aún no reconocían claramente que éstas y otras dificultades de la física estaban relacionadas entre sí. El primer avance que llevó a la solución de aquellas dificultades fue la introducción por parte de Planck del concepto de cuanto, como resultado de los estudios de la radiación del cuerpo negro realizados por los físicos en los últimos años del siglo XIX (el término `cuerpo negro' se refiere a un cuerpo o superficie ideal que absorbe toda la energía radiante sin reflejar ninguna). Un cuerpo a temperatura alta —al rojo vivo— emite la mayor parte de su radiación en las zonas de baja frecuencia (rojo e infrarrojo); un cuerpo a temperatura más alta —al rojo blanco— emite proporcionalmente más radiación en frecuencias más altas (amarillo, verde o azul). Durante la década de 1890, los físicos llevaron a cabo estudios cuantitativos detallados de esos fenómenos y expresaron sus resultados en una serie de curvas o gráficas. La teoría clásica, o precuántica, predecía un conjunto de curvas radicalmente diferentes de las observadas. Lo que hizo Planck fue diseñar una fórmula matemática que describiera las curvas reales con exactitud; después dedujo una hipótesis física que pudiera explicar la fórmula. Su hipótesis fue que la energía sólo es radiada en cuantos cuya energía es hð, donde ð es la frecuencia de la radiación y h es el `cuanto de acción', ahora conocido como constante de Planck.

5.1 MODELOS ATOMICOS DE RUTHERFORD Y BOHR.

Modelos atómicos

La evolución de los modelos físicos del átomo se vio impulsada por los datos experimentales. El modelo de Rutherford, en el que los electrones se mueven alrededor de un núcleo positivo muy denso, explicaba los resultados de experimentos de dispersión, pero no el motivo de que los átomos sólo emitan luz de determinadas longitudes de onda (emisión discreta). Bohr partió del modelo de Rutherford pero postuló además que los electrones sólo pueden moverse en determinadas órbitas; su modelo explicaba ciertas características de la emisión discreta del átomo de hidrógeno, pero fallaba en otros elementos. El modelo de Schrödinger, que no fija trayectorias determinadas para los electrones sino sólo la probabilidad de que se hallen en una zona, explica parcialmente los espectros de emisión de todos los elementos; sin embargo, a lo largo del siglo XX han sido necesarias nuevas mejoras del modelo para explicar otros fenómenos espectrales.

En 1911, Rutherford estableció la existencia del núcleo atómico. A partir de los datos experimentales de la dispersión de partículas alfa por núcleos de átomos de oro, supuso que cada átomo está formado por un núcleo denso y con carga positiva, rodeado por electrones cargados negativamente que giran en torno al núcleo como los planetas alrededor del Sol. La teoría electromagnética clásica desarrollada por el físico británico James Clerk Maxwell predecía inequívocamente que un electrón que girara en torno a un núcleo radiaría continuamente energía electromagnética hasta perder toda su energía, y acabaría cayendo en el núcleo. Por tanto, según la teoría clásica, el átomo descrito por Rutherford sería inestable. Esta dificultad llevó al físico danés Niels Bohr a postular, en 1913, que la teoría clásica no es válida en el interior del átomo y que los electrones se desplazan en órbitas fijas. Cada cambio de órbita de un electrón corresponde a la absorción o emisión de un cuanto de radiación.

La aplicación de la teoría de Bohr a átomos con más de un electrón resultó difícil. Las ecuaciones matemáticas para el siguiente átomo más sencillo, el de helio, fueron resueltas durante la segunda y tercera década del siglo XX, pero los resultados no concordaban exactamente con los datos experimentales. Para átomos más complejos sólo pueden obtenerse soluciones aproximadas de las ecuaciones, y se ajustan sólo parcialmente a las observaciones.

El átomo nuclear de Rutherford: El descubrimiento de la naturaleza de las emisiones radiactivas permitió a los físicos profundizar en el átomo, que según se vio consistía principalmente en espacio vacío. En el centro de ese espacio se encuentra el núcleo, que sólo mide, aproximadamente, una diezmilésima parte del diámetro del átomo. Rutherford dedujo que la masa del átomo está concentrada en su núcleo. También postuló que los electrones, de los que ya se sabía que formaban parte del átomo, viajaban en órbitas alrededor del núcleo. El núcleo tiene una carga eléctrica positiva; los electrones tienen carga negativa. La suma de las cargas de los electrones es igual en magnitud a la carga del núcleo, por lo que el estado eléctrico normal del átomo es neutro.

Densidad electrónica y orbitales

Los orbitales atómicos son descripciones matemáticas de la probabilidad de encontrar en un lugar determinado los electrones de un átomo o molécula. Estas descripciones se obtienen resolviendo la llamada ecuación de Schrödinger. Los orbitales mostrados ilustran la distribución espacial de electrones con momento angular progresivamente mayor (s, p, d, f). Nunca puede haber más de dos electrones en un mismo orbital. La distribución global de los electrones de un átomo es la suma de muchos orbitales semejantes. Esta descripción se ha visto confirmada por muchos experimentos físicos y químicos, entre ellos una imagen real de un orbital p obtenida por un microscopio de barrido de efecto túnel.

El átomo nuclear de Bohr: Para explicar la estructura del átomo, el físico danés Niels Bohr desarrolló en 1913 una hipótesis conocida como teoría atómica de Bohr (véase teoría cuántica). Bohr supuso que los electrones están dispuestos en capas definidas, o niveles cuánticos, a una distancia considerable del núcleo. La disposición de los electrones se denomina configuración electrónica. El número de electrones es igual al número atómico del átomo: el hidrógeno tiene un único electrón orbital, el helio dos y el uranio 92. Las capas electrónicas se superponen de forma regular hasta un máximo de siete, y cada una de ellas puede albergar un determinado número de electrones. La primera capa está completa cuando contiene dos electrones, en la segunda caben un máximo de ocho, y las capas sucesivas pueden contener cantidades cada vez mayores. Ningún átomo existente en la naturaleza tiene la séptima capa llena. Los “últimos” electrones, los más externos o los últimos en añadirse a la estructura del átomo, determinan el comportamiento químico del átomo.

Todos los gases inertes o nobles (helio, neón, argón, criptón, xenón y radón) tienen llena su capa electrónica externa. No se combinan químicamente en la naturaleza, aunque los tres gases nobles más pesados (criptón, xenón y radón) pueden formar compuestos químicos en el laboratorio. Por otra parte, las capas exteriores de los elementos como litio, sodio o potasio sólo contienen un electrón. Estos elementos se combinan con facilidad con otros elementos (transfiriéndoles su electrón más externo) para formar numerosos compuestos químicos. De forma equivalente, a los elementos como el flúor, el cloro o el bromo sólo les falta un electrón para que su capa exterior esté completa. También se combinan con facilidad con otros elementos de los que obtienen electrones.

Las capas atómicas no se llenan necesariamente de electrones de forma consecutiva. Los electrones de los primeros 18 elementos de la tabla periódica se añaden de forma regular, llenando cada capa al máximo antes de iniciar una nueva capa. A partir del elemento decimonoveno, el electrón más externo comienza una nueva capa antes de que se llene por completo la capa anterior. No obstante, se sigue manteniendo una regularidad, ya que los electrones llenan las capas sucesivas con una alternancia que se repite. El resultado es la repetición regular de las propiedades químicas de los átomos, que se corresponde con el orden de los elementos en la tabla periódica.

Resulta cómodo visualizar los electrones que se desplazan alrededor del núcleo como si fueran planetas que giran en torno al Sol. No obstante, esta visión es mucho más sencilla que la que se mantiene actualmente. Ahora se sabe que es imposible determinar exactamente la posición de un electrón en el átomo sin perturbar su posición. Esta incertidumbre se expresa atribuyendo al átomo una forma de nube en la que la posición de un electrón se define según la probabilidad de encontrarlo a una distancia determinada del núcleo. Esta visión del átomo como “nube de probabilidad” ha sustituido al modelo de sistema solar

5.2 TEORÍA CUANTICA DE PLANK

teoría física basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación. Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud simultáneamente la posición y el momento lineal de una partícula subatómica.

Constante de Planck, constante física fundamental simbolizada por la letra h. Su existencia fue descubierta en 1900 por el físico alemán Max Planck. Hasta entonces se creía que todas las formas de radiación electromagnética estaban constituidas por ondas. Planck observó ciertas desviaciones de la teoría ondulatoria en el caso de las radiaciones emitidas por los llamados cuerpos negros, que absorben y emiten radiación de forma perfecta. Planck llegó a la conclusión de que la radiación electromagnética se emite en unidades discretas de energía, llamadas cuantos. Esta conclusión fue el primer enunciado de la teoría cuántica. Según Planck, la energía de un cuanto de luz es igual a la frecuencia de la luz multiplicada por una constante. Desde entonces, la teoría de Planck ha sido verificada experimentalmente en muchas ocasiones, y el desarrollo de la teoría cuántica ha producido un cambio radical en el concepto que se tiene en física de la luz y de la materia; en la actualidad, se considera que ambas combinan las propiedades de una onda y de una partícula. Así, la constante de Planck se ha vuelto tan importante para la investigación de las partículas de materia como para los cuantos de luz, ahora denominados fotones. La primera medida fiable de la constante de Planck (1916) se debió al físico estadounidense Robert Millikan. El valor actualmente aceptado es h = 6,626 × 10-34 julios·segundo.

5.3 HIPÓTESIS DE LOUIS DE BROGLIE.

Al ser detectadas algunas inconsistencias en el modelo de Bohr, tales como cierta arbitrariedad en la regla de la cuantización, diferencias entre las longitudes de ondas calculadas y las observadas, cómo se producían las ondas electromagnéticas, etc..., se hizo palpable la necesidad de introducirle importantes y satisfactorias modificaciones originando un nuevo modelo, llamado la mecánica ondulatoria. El modelo actual del átomo fue propuesto por Erwin Schröedinger, pero resume la contribución de Broglie. Louis, Príncipe de Broglie, físico francés. Premio Nobel en 1929. Ha efectuado numerosos e importantes trabajos en electricidad y mecánica ondulatoria. Presidente de la comisión de Energía Atómica Francesa. Ha publicado bastantes obras, algunas en colaboración con su hermano Maurice(1875-1960), físico eminente.

Postulados de Broglie: Diversos experimentos de óptica aplicada llevaron a la consideración de la luz como una onda. De otra parte el efecto fotoeléctrico demostró la naturaleza corpuscular de la luz(fotones). En 1924 De Broglie sugirió que el comportamiento dual de la onda-partícula dado a la luz, podría extenderse con un razonamiento similar, a la materia en general. Las partículas materiales muy pequeñas (electrones, protones, átomos y moléculas) bajo ciertas circunstancias pueden comportarse como ondas. En otras palabras, las ondas tienen propiedades materiales y las partículas propiedades ondulatorias (ondas de materia) Según la concepción de Broglie, los electrones en su movimiento deben tener una cierta longitud de onda por consiguiente debe haber una relación entre las propiedades de los electrones en movimiento y las propiedades de los fotones.

La longitud de onda asociada a un fotón puede calcularse:

Longitud de onda en cm.

H = Constante de Planck = 6,625 x 10-27 ergios/seg

M = Masa

C = Velocidad de la Luz

Esta ecuación se puede aplicar a una partícula con masa(m) y velocidad (v), cuya longitud de onda

esto sería:

Una de las más importantes aplicaciones del carácter ondulatorio de las partículas materiales es el microscopio electrónico, en el cual en vez de rayos de luz se emplea una corriente de electrones.

5.4 PRINCIPIO DE INCERTIDUMBRE DE HEINSERBERG

En mecánica cuántica, principio que afirma que es imposible medir simultáneamente de forma precisa la posición y el momento lineal de una partícula, por ejemplo, un electrón. El principio, también conocido como principio de indeterminación, afirma igualmente que si se determina con mayor precisión una de las cantidades se perderá precisión en la medida de la otra, y que el producto de ambas incertidumbres nunca puede ser menor que la constante de Planck, llamada así en honor del físico alemán Max Planck. La incertidumbre es muy pequeña, y resulta despreciable en mecánica clásica. En cambio, en la mecánica cuántica las predicciones precisas de la mecánica clásica se ven sustituidas por cálculos de probabilidades.

El principio de incertidumbre fue formulado en 1927 por el físico alemán Werner Heisenberg y tuvo una gran importancia para el desarrollo de la mecánica cuántica. Las implicaciones filosóficas de la indeterminación crearon una fuerte corriente de misticismo entre algunos científicos, que interpretaron que el concepto derribaba la idea tradicional de causa y efecto. Otros, entre ellos Albert Einstein, consideraban que la incertidumbre asociada a la observación no contradice la existencia de leyes que gobiernen el comportamiento de las partículas, ni la capacidad de los científicos para descubrir dichas leyes.

Movimiento lineal ó Cantidad de movimiento: En física, cantidad fundamental que caracteriza el movimiento de cualquier objeto. Es el producto de la masa de un cuerpo en movimiento y de su velocidad lineal. El momento es una cantidad vectorial, lo que significa que tiene magnitud, dirección y sentido. El momento lineal total de un sistema constituido por una serie de objetos es la suma vectorial de los momentos de cada objeto individual. En un sistema aislado, el momento total permanece constante a lo largo del tiempo; es lo que se llama conservación del momento lineal. Por ejemplo, cuando un jugador de tenis golpea una pelota, el momento lineal de la raqueta justo antes de golpear la bola más el momento de la pelota en ese instante es igual al momento de la raqueta inmediatamente después de golpear la bola más el momento de la pelota golpeada. En otro ejemplo, imaginemos a un nadador que salta desde un bote inmóvil que flota sobre el agua. Antes de saltar, el bote y el nadador no se mueven, por lo que el momento lineal total es cero. Al saltar, el nadador adquiere momento lineal hacia delante, y al mismo tiempo el bote se mueve hacia atrás con un momento igual en magnitud y dirección pero sentido contrario; el momento total del sistema formado por el nadador y el bote sigue siendo nulo.

La física actual considera la conservación del momento como una ley universal, que se cumple incluso en situaciones extremas donde las teorías clásicas de la física no son válidas. En particular, la conservación del momento lineal se cumple en la teoría cuántica, que describe los fenómenos atómicos y nucleares, y en la relatividad, que se emplea cuando los sistemas se desplazan a velocidades próximas a la de la luz.

Según la segunda ley del movimiento de Newton —llamada así en honor al astrónomo, matemático y físico británico Isaac Newton—, la fuerza que actúa sobre un cuerpo en movimiento debe ser igual al cambio del momento lineal por unidad de tiempo. Otra forma de expresar la segunda ley de Newton es decir que el impulso —esto es, el producto de la fuerza por el tiempo durante el que actúa sobre un cuerpo— equivale al cambio del momento lineal del cuerpo.

5.5 DUALIDAD ONDA - PARTICULA.

Dualidad Onda-corpúsculo, posesión de propiedades tanto ondulatorias como corpusculares por parte de los objetos subatómicos. El principio fundamental de la teoría cuántica es que una entidad que estamos acostumbrados a considerar como una partícula (por ejemplo, un electrón, con un momento lineal p) puede comportarse también como una onda, mientras que otras entidades que solemos concebir como ondas (por ejemplo, la luz, con una longitud de onda ð) también pueden describirse como corpúsculos (en este caso, fotones). La longitud de onda ð y el momento lineal p de una entidad cuántica están relacionados por la ecuación pð = h, donde h es una constante conocida como constante de Planck.

Esta dualidad onda-corpúsculo se aprecia especialmente bien en los experimentos de `doble rendija', en los que un cañón de partículas dispara electrones o fotones (uno cada vez) a través de un par de agujeros en una barrera, tras lo que son detectados en una pantalla situada al otro lado. En ambos casos, lo que sale del cañón y lo que llega a la pantalla detectora son partículas, y cada una marca un punto individual en la pantalla. No obstante, la figura global que se acumula en la pantalla a medida que se disparan más y más corpúsculos a través de los dos agujeros es un diagrama de interferencia formado por franjas claras y oscuras, que sólo pueden explicarse como resultado de ondas que pasan por ambos agujeros de la barrera e interfieren entre sí. Esto se expresa en el aforismo de que las entidades cuánticas “viajan como ondas pero llegan como partículas”.

INTRODUCCIÓN

Física nuclear, estudio de los núcleos atómicos, especialmente los núcleos radiactivos, y sus reacciones con los neutrones y otros núcleos

Isótopos de hidrógeno y carbono

En la naturaleza se encuentran dos isótopos de hidrógeno, el hidrógeno normal o ligero y el hidrógeno pesado (deuterio). El tercer isótopo, el tritio, es radiactivo, con una vida media de 12,26 años. Aunque el tritio se conoce sobre todo por su papel en la fusión nuclear, también se usa como trazador para estudiar reacciones biológicas. El carbono tiene tres isótopos naturales: el carbono 12 constituye el 98,89% del carbono natural y sirve de patrón para la escala de masas atómicas; el carbono 13 es el único isótopo magnético del carbono, y se usa en estudios estructurales de compuestos que contienen este elemento; el carbono 14, producido por el bombardeo de nitrógeno con rayos cósmicos, es radiactivo (con una vida media de 5.760 años) y se emplea para datar objetos arqueológicos.

6.1 ESTRUCTURA DEL NÚCLEO Y FUERZAS NUCLEARES.

Descripción: El núcleo, compuesto por protones y neutrones, es un cuerpo masivo extremadamente pequeño que se encuentra en el centro de un átomo. Los protones emiten carga positiva y los neutrones carecen de carga eléctrica. El núcleo se describe por él número atómico [Z], igual al número de protones, y él número de masa atómica [A], igual a la suma de neutrones y protones en un núcleo.

Isótopos: Los isótopos son átomos que contienen el mismo número de protones, pero diferente número de neutrones. El núcleo de un isótopo se denomina núclido. Todos los núclidos de un elemento tiene el mismo número de protones, y diferentes neutrones. Para describir los isótopos se necesita una notación especial. En la parte izquierda del símbolo del elemento se escribe un índice suscrito, que representa él número atómico (Z), y un índice sobrescrito que representa su masa (A). ejemplo:

Radiactividad artificial: Los físicos Joliot-Curie demostraron que los átomos estables de un elemento pueden hacerse artificialmente radiactivos bombardeándolos adecuadamente con partículas nucleares o rayos. Estos isótopos radiactivos se producen como resultado de una reacción o transformación nuclear.

Reacciones nucleares: Una reacción nuclear ocurre cuando cambia él número de neutrones o protones en un núcleo. Algunas reacciones nucleares ocurren con una liberación de energía, mientras que otras ocurren solo cuando la energía se añade al núcleo. La emisión de partículas por núcleos radiactivos es una forma de reacción nuclear. El núcleo radiactivo libera su exceso de energía en la forma de energía cinética de las partículas emitidas. En 1932, 2 científicos británicos fueron los primeros en usar partículas artificialmente aceleradas para desintegrar un núcleo atómico. Produjeron un haz de protones acelerados hasta altas velocidades mediante un dispositivo de alto voltaje llamado multiplicador de tensión.

Aceleradores de partículas: Alrededor de 1930, un físico estadounidense desarrolló un acelerador de partículas llamado ciclotrón. Esta maquina genera fuerzas eléctricas de atracción y repulsión que aceleran las partículas atómicas confinadas en una órbita circular mediante la fuerza electromagnética de un gran imán. Las partículas se mueven hacia fuera en espiral bajo la influencia de estas fuerzas eléctricas y magnéticas, y alcanzan velocidades extremadamente elevadas. La aceleración se produce en el vacío para que las partículas no colisionen con moléculas de aire.

Fuerzas nucleares: La teoría nuclear moderna se basa en la idea de que los núcleos están formados por neutrones y protones que se mantienen unidos por fuerzas nucleares extremadamente poderosas. Para estudiar estas fuerzas nucleares, los físicos tienen que perturbar los neutrones y protones bombardeándolos con partículas extremadamente energéticas. Estos bombardeos han revelado mas de 200 partículas elementales. Este mundo subnuclear salió a la luz por primera vez en los rayos cósmicos. Estos rayos están constituidos por partículas altamente energéticas que bombardean constantemente la tierra desde el espacio exterior; muchas de ellas atraviesan la atmósfera y llegan incluso a penetrar en la corteza terrestre. La radiación cósmica incluye muchos tipos de partículas, cuando estas partículas de alta energía chocan contra los núcleos, pueden crear nuevas partículas. Según la teoría mas aceptada, las partículas nucleares se mantienen unidas por fuerzas de intercambio en las que se intercambian constantemente piones comunes a los neutrones y los protones.

Partículas fundamentales: Hoy en día los físicos piensan que las partículas se agrupan en dos familias: quarks y leptones. Los quarks componen a los protones y neutrones. Los leptones son partículas con poca o ninguna masa, el electrón y el neutrino. También hay partículas que transmiten la fuerza electromagnética. Los gluones son ocho partículas que transmiten la fuerza que une los quarks dentro de los protones. Los bosones débiles son tres partículas que están involucradas en la interacción débil en la cual opera el decaimiento beta. El gravitón es la partícula, todavía sin detectar, que transmite la fuerza gravitacional. Cada quark y cada leptón tiene su antipartícula. Las antipartículas tienen carga opuesta a las partículas. Cuando una partícula y una antipartícula chocan, se aniquilan y se transforman en energía.

Liberación de la energía nuclear: En 1905. Albert Einstein desarrollo de la ecuación que relaciona la masa y la energía, E = mc² , como parte de su teoría de la relatividad especial. Dicha ecuación afirma que una masa determinada (m) esta asociada con una cantidad de energía (E) igual a la masa multiplicada por el cuadrado de la velocidad de l a luz (c). Una cantidad muy pequeña de masa equivale a una cantidad enorme de energía.

Hay dos procesos nucleares que tienen gran importancia practica porque proporcionan cantidades enormes de energía: la fisión nuclear ~la escisión de un núcleo pesado en núcleos más ligeros~ y la fusión termonuclear ~la unión de dos núcleos ligeros (a temperaturas extremadamente altas) para formar un núcleo mas pesado. En 1934 se logro realizar la fisión bombardeando núcleos de uranio con neutrones. Esta reacción libera a su vez neutrones, con lo que puede causar una reacción en cadena con otros núcleos. En la explosión de una bomba atómica se produce una reacción en cadena incontrolada. Las reacciones controladas, por otra parte, pueden utilizarse para producir calor y generar así energía eléctrica, como ocurre en los reactores nucleares. La fusión termonuclear se produce en las estrellas, entre ellas el sol, y constituye su fuente de calor y luz. La fusión incontrolada se da en la explosión de una bomba de hidrogeno. En la actualidad sé esta intentando desarrollar un sistema de fusión controlada.

Familia

Leptones

Quarks

Nombre

Masa (GeV)

Carga (e-)

Nombre

Masa (GeV)

Carga (e-)

Primera Familia

Electrón

0,00051

-1

Up

0,310

+ 2/3

Neutrino electrónico

" 0

0

Down

0,310

- 1/3

Segunda familia

Muón

0,106 6

- 1

Strange

0,505

- 1/3

Neutrino muónico

" 0

0

Charm

1,500

+ 2/3

Tercera Familia

Tau

1,784

-1

Bottom (beautty)

5

- 1/3

Neutrino Tau

<0,164

0

Top

>77

+ 2/3

Con estas doce partículas (y sus correspondientes antipartículas) se explican todos los conocimientos actuales sobre la estructura última de la materia. Todas estas partículas han sido confirmadas experimentalmente; la última de ellas el quark top en marzo de 1995.

6.2 RADIACTIVIDAD

La Radiactividad fue descubierta por el científico francés Antoine Henri Becquerel en 1896. El descubrimiento tuvo lugar de una forma casi ocasional: Becquerel realizaba investigaciones sobre la fluorescencia del sulfato doble de uranio y potasio y descubrió que el uranio emitía espontáneamente una radiación misteriosa. Esta propiedad del uranio recibió el nombre de radiactividad.

El descubrimiento dio lugar a un gran número de investigaciones sobre el tema. Quizás las más importantes fueron las realizadas por el matrimonio Pierre y Marie Curie, quienes descubrieron el polonio y el radio, ambos en 1898.

La naturaleza de la radiación emitida y el fenómeno de la radiactividad fueron estudiados en Inglaterra por Ernest Rutherford, principalmente, y por Frederick Soddy. Como resultado pronto se supo que la radiación emitida podía ser de tres tipos: alfa, beta y gamma, y que al final del proceso el átomo radiactivo original se había transformado en un átomo de naturaleza distinta. También se dice que el átomo radiactivo ha experimentado una desintegración.

Hoy sabemos que la radiactividad es una reacción nuclear de “descomposición espontánea”; es decir, un nucleido inestable se descompone en otro más estable que él, a la vez que emite una “radiación”. El nucleido hijo (el que resulta de la desintegración) pude no ser estable, y entonces se desintegra en un tercero, el cual puede continuar el proceso, hasta que finalmente se llega a un nucleido estable. Se dice que los sucesivos nucleidos de un conjunto de desintegraciones forman una serie radiactiva o familia radiactiva.

Digamos, por último, que son radiactivos todos los isótopos de los elementos con número atómico igual o mayor a 84 (el polonio es el primero de ellos), y que hoy se obtienen en el laboratorio isótopos radiactivos de elementos cuyos isótopos naturales son estables; es la llamada radiactividad artificial. El descubrimiento de la radiactividad artificial la llevó a cabo en 1934 el matrimonio francés Joliot-Curie, formado por Fréderic Joliot e Irene Curie, hija de los esposos Curie.

Sabemos que la radiación emitida por una desintegración puede ser de tres tipos: alfa, beta y gamma; además también hay que considerar hoy la emisión de neutrones:

La radiación alfa está formada por núcleos del isótopo 4 de helio, es decir está constituida por una radiación corpuscular, en la que cada corpúsculo está formado por dos protones y dos neutrones. Ello significa que tiene una masa atómica de 4 unidades y una carga eléctrica de 2 unidades positivas. Estos protones y neutrones formaban antes parte del núcleo que se ha desintegrado.

La radiación beta está constituida por electrones, lo que significa que es también de naturaleza corpuscular, en la que cada corpúsculo tiene una masa atómica de 1/1800 aproximadamente, y una carga de 1 unidad negativa. Posteriormente, se descubrió la radiación beta positiva, semejante a la beta pero con carga positiva. Está formada por positrones procedentes de transformación de un protón en un neutrón.

La radiación gamma es de naturaleza electromagnética, semejante a la luz ordinaria, pero con mucho menor longitud de onda. Es, por lo tanto, de naturaleza ondulatoria, carente de masa en reposo y de carga. Esta radiación tampoco existía antes en el núcleo, sino que es energía que se emite como consecuencia de un reajuste energético de núcleo.

La fisión espontánea, así como en la fisión inducida y en otras reacciones nucleares, se produce una radiación de neutrones, formada por estas partículas, con masa de 1 unidad de masa atómica y sin carga.

El término radiación se emplea genéricamente para designar las partículas materiales que se propagan en el espacio. Determinadas radiaciones son capaces de producir partículas cargadas (iones) a su paso por la materia, por lo que reciben el nombre genérico de radiaciones ionizantes. En unos casos la radiación está formada por partículas cargadas que poseen energía cinética suficiente para producir iones en su colisión co los átomos que encuentran a su paso; en otros casos la radiación está formada por partículas no cargadas que pueden dar lugar a la liberación de partículas ionizantes.

Las personas están expuestas continuamente a radiaciones ionizantes. De éstas radiaciones unas proceden de la propia naturaleza, sin que el hombre haya intervenido en su producción; otras están originadas por acciones ocasionadas por el hombre.

Las primeras constituyen el fondo radiactivo natural. Podemos distinguir tres causas de este fondo radiactivo:

Las radiaciones ionizantes procedentes del espacio exterior (radiación cósmica) están originadas por los procesos nucleares que tienen lugar fuera de la Tierra. Puesto que la atmósfera absorbe parcialmente las radiaciones, el fondo natural debido a esta causa varía con la altitud de tal modo que es menor al nivel del mar que en lo alto de una montaña.

Las radiaciones emitidas por las sustancias radiactivas presentes en la corteza terrestre. Esta componente del fondo radiactivo varía notablemente entre unos y otros puntos de la Tierra, ya que no es uniforme la distribución de los elementos químicos. Por ejemplo, el fondo radiactivo terrestre de le sierra de Guadarrama, cuyas rocas graníticas poseen una radiactividad relativamente alta, es mucho mayor que el correspondiente a las zonas de naturaleza calcárea.

La radiación de los isótopos radiactivos contenidos en el propio organismo humano, principalmente isótopos del carbono y del potasio. A ella hay que unir la radiación producida por el radón que inhalamos al respirar, el cual procede de la desintegración del radio y el torio.

Series de desintegración radiactiva: Cuando el uranio 238 se desintegra mediante emisión alfa, se forma torio 234; éste es un emisor beta y se desintegra para formar protactinio 234, que a su vez, es un emisor beta que da lugar a un nuevo isótopo del uranio, el uranio 234. Este isótopo se desintegra mediante emisión alfa para formar torio 230, que también se desintegra mediante emisión alfa y produce el isótopo radio 226. Esta serie de desintegración radiactiva, denominada serie uranio-radio, continúa de forma similar con otras cinco emisiones alfa y otras cuatro emisiones beta hasta llegar al producto final, un isótopo no radiactivo (estable) del plomo (el elemento 82) con número másico 206. En esta serie están representados todos los elementos de la tabla periódica situados entre el uranio y el plomo, y cada isótopo puede distinguirse por su periodo de semidesintegración característico. Todos los miembros de esta serie tienen un rasgo común: si se resta 2 a sus números másicos se obtienen números exactamente divisibles por 4, es decir, sus números másicos pueden expresarse mediante la sencilla fórmula 4n + 2, donde n es un número entero. Otras series radiactivas naturales son la serie del torio, llamada serie 4n porque los números másicos de todos sus miembros son exactamente divisibles por cuatro, y la serie del actinio o serie 4n + 3. El elemento original de la serie del torio es el isótopo torio 232, y su producto final es el isótopo estable plomo 208. La serie del actinio empieza con el uranio 235 (llamado originalmente actinouranio por los investigadores) y acaba en el plomo 207. En los últimos años se ha descubierto y estudiado en profundidad una cuarta serie, la serie 4n + 1, en la que todos son elementos radiactivos artificiales. Su miembro inicial es un isótopo del elemento artificial curio, el curio 241. Contiene el isótopo más duradero del elemento neptunio, y su producto final es el bismuto 209.

CUADRO RELACIONADO CON LAS RADIACIONES.

Alfa

Beta

Gamma

Positrón

Símbolo

a

b

g

e

Masa

4

0

0

0

Carga

+2

-1

0

++

Aplicaciones pacíficas de la radiactividad: Las aplicaciones pacíficas de la energía nuclear son cada vez mayores y el hombre, urgido de la necesidad de enfrentar el problema energético de los combustibles tradicionales: carbón y petróleo, ha comenzado a darle múltiples usos; así por ejemplo:

1.- Las radiaciones ionizantes tienen múltiples aplicaciones en el campo de la medicina. La especialidad denominada radiología utiliza los rayos X procedentes de un tubo de rayos catódicos para la realización de múltiples tipos de exploraciones radiológicas diagnósticos. En la especialidad de medicina nuclear se manejan diferentes tipos de isótopos no encapsulados (en forma líquida o gaseosa) que son administrados al paciente o utilizados en laboratorio en pruebas analíticas con fines eminentemente diagnósticos. En el campo de la terapia las radiaciones ionizantes se emplean para el tratamiento de tumores malignos, dando lugar a la especialidad denominada radioterapia.

Además de en estas tres especialidades las radiaciones ionizantes procedentes de isótopos radiactivos se utilizan ampliamente en el campo de la investigación médica, habiéndose realizado gran número de estudios cinéticos y metabólicos en fisiología humana y animal por medio de radiotrazadores.

El gran desarrollo de estas especialidades se debe por una parte a un mejor conocimiento de la física y aplicaciones de las radiaciones y por otra a los continuos avances en los equipos de producción, detección y utilización de las mismas. Los equipos más sofisticados tienen un elevado costo y exigen para su manejo personal multidisciplinario altamente especializado, que incluye no sólo médicos sino también físicos, radiofarmacéuticos y químicos que trabajan en estrecha colaboración. Esto hace que en ocasiones sólo se disponga de estos servicios en grandes centros médicos que sirven a grandes núcleos de población. En la actualidad en España se cuenta, tanto a nivel de sanidad pública como privada, de múltiples centros que disponen de equipos de última generación y personal bien cualificado.

 

2.- En algunos centros se dispone de equipos denominados de PET (tomografía de emisión de positrones) que emplean radionucleidos que emiten positrones en vez de fotones como en los métodos clásicos de medicina nuclear. La calidad de las imágenes obtenidas con estos equipos es superior a la de los convencionales, pero en la actualidad debido a su alto coste y complicada tecnología, ya que es preciso disponer de un ciclotrón al pie del equipo para producir isótopos de vida media ultracorta del orden de minutos, sólo existen unos pocos equipos comercializados en el mundo, ninguno de ellos en España hasta la actualidad.

Las ventajas fundamentales de los métodos exploratorios de medicina nuclear son el no ser peligrosos ni molestos para el paciente y el tener efectos secundarios mínimos, ya que la radiación que se recibe es igual o menor a la de estudios radiológicos de rutina.

Las técnicas analíticas denominadas radínmunoanálisis permiten la detección y cuantificación de numerosas sustancias que están en cantidades muy pequeñas en sangre u orina y que son muy difíciles de detectar por medios analíticos convencionales. Se realizan gracias a un ingenioso sistema que combina una reacción de unión antígeno-anticuerpo con el marcado con un isótopo, generalmente el yodo-125, de uno de estos dos componentes.

Aunque la medicina nuclear es una especialidad fundamentalmente diagnostica, los radisótopos no encapsulados pueden utilizarse como medio de tratamiento en aplicaciones puntuales, hablándose entonces de radioterapia metabólica. Esta consiste en administrar una dosis relativamente grande de sustancia radiactiva en forma líquida por medio de inyección o ingestión para que se acumule en el órgano o lugar tratado, donde actúa por medio de la radiación emitida sobre los tejidos en contacto próximo con ella. La aplicación más frecuente es el tratamiento de pacientes con cáncer de tiroides o hipertiroidismo y para la realización del mismo estos pacientes son generalmente ingresados en unidades de hospitalización especiales que disponen de habitaciones con medios de radioprotección y que son atendidos por personal especializado.

 

3.- Las radiaciones ionizantes emitidas por los radionucleidos tienen la propiedad de inhibir la reproducción celular y, con ello, causar la muerte de microorganismos, insectos y, en general, de cualquier ser viviente, si la dosis de radiación aplicada es suficiente. Esta propiedad biocida de las radiaciones tiene muchas aplicaciones prácticas, pero entre todas destaca, por su importancia para la salud humana, la esterilización de productos de uso frecuente en clínica y en cirugía, donde se requiere un alto grado de asepsia; tal es el caso de productos como guantes, jeringuillas, gasas, sondas, cánulas, pipetas, recipientes, etc., y, en general, de cuantos productos son de "usar y tirar".

La gran ventaja de esta técnica reside en el poder de penetración que tiene la radiación gamma, como la emitida por el cobalto-60, que puede producir la esterilización de los productos a dosis relativamente bajas (25 kGy) una vez envasados y listos para el suministro, lo que evita toda posibilidad de recontaminación por manipulaciones previas al uso.

Desde el punto de vista económico es importante, también, el hecho de que los productos puedan ser fabricados utilizando ambientes "normales", en lugar de ambientes estériles (mucho más costosos), a sabiendas que la radiesterilización posterior va a permitir alcanzar grados de asepsia mayores que los requeridos por la normativa sanitaria.

Las mencionadas ventajas han hecho que la radiesterilización haya alcanzado pleno desarrollo industrial en los países más avanzados, utilizándose para ello irradiadores de cobalto-60 (y, a veces, de cesio-137) de varios millones de curios, que permiten tratar anualmente unos 3 millones de M3 de productos listos para el suministro. Con ello, la radiesterilización ha desplazado al clásico procedimiento de la fumigación con óxido de etileno, que ya ha sido prohibido en muchos países (EE.UU., Japón, Australia, y ahora en la CE), por haberse descubierto que da lugar a residuos cancerígenos, que pueden afectar a los pacientes y al personal sanitario.

4.- Las radiaciones nucleares son entes reales del mundo físico, que pueden ser utilizados en beneficio del hombre para mejorar su calidad de vida. De hecho, las radiaciones nucleares emitidas por los átomos radiactivos, dada la facilidad con que pueden ser detectadas, permiten utilizar dichos átomos como trazadores radiactivos de los elementos químicos a los que pertenecen, lo que conduce a su empleo en la visualización de los caminos que siguen los elementos en los sistemas físicos, químicos y biológicos en la naturaleza.

Así pues, los trazadores radiactivos permiten desentrañar los mecanismos de funcionamiento o de transformación del mundo material, ahorrando la paciente tarea de laboratorio que tendría que realizarse mediante miles y miles de análisis para obtener un conocimiento semejante. Por ello, no resulta exagerado afirmar que, en los últimos cincuenta años, hemos más que duplicado el acervo de nuestros conocimientos actuales sobre el mundo físico, con la ayuda de los trazadores radiactivos, que son el gran paradigma de la investigación científica de los sistemas materiales.

Pero las aplicaciones de los átomos radiactivos no se limitan exclusivamente a esta ampliación de nuestra capacidad perceptiva con el auxilio de un detector; los átomos radiactivos, confinados herméticamente, se transforman en fuentes emisoras de radiaciones, cuya interacción con la materia nos aporta señales para medir propiedades de los objetos circundantes. Las radiaciones pueden atravesar los objetos opacos, sufriendo un debilitamiento en proporción a la materia que encuentran en su camino; o pueden ser reflejadas, dándonos información sobre la densidad del medio donde rebotan; o pueden excitar la emisión de otras radiaciones, características de los elementos presentes.

Estos fenómenos de interacción son el fundamento de multitud de aparatos empleados en el control automático de procesos de fabricación de productos laminares (papel, plástico, chapas metálicas, etc.), de recubrimientos metálicos sobre sustratos plásticos o sobre otros metales (cincado, cromado, plateado, etc.), de interruptores de nivel en depósitos de líquidos, etc. Mediante estos aparatos de control, las radiaciones nucleares no sólo ahorran al hombre trabajos rutinarios de control "en diferido" de los procesos industriales, sino que permiten realizar el control "en tiempo real", con todas las ventajas que ello supone para la productividad, el ahorro de materias primas, o la calidad de los productos.

En resumen, las radiaciones nucleares -partículas alfa, beta, neutrones y fotones gamma- ofrecen un amplio repertorio de posibilidades interactivas con la materia, de las cuales se derivan múltiples aplicaciones, ya sea ayudándonos a detectar fenómenos imperceptibles, ya sea "midiendo" por transmisión, reflexión o fluorescencia las propiedades materiales que "ve" la fuente radiactiva.

Contaminación Radioactiva. Las personas están expuestas continuamente a radiaciones ionizantes, y lo han estado desde los albores de la humanidad. De éstas radiaciones, unas proceden de la propia naturaleza, sin que el hombre haya intervenido en su producción; otras están originadas por acciones ocasionadas por el hombre las radiaciones pueden producir daños o implicar riesgos para los seres vivos, aunque también aquí hay que matizar que los efectos producidos por la radiación dependen de las dosis recibidas. Con dosis muy altas se produce la muerte del individuo; con dosis menores, pero todavía altas, se producen lesiones tanto más graves cuanto mayor es la dosis; las dosis bajas no producen necesariamente un daño sino que hacen aumentar la probabilidad de que se origine el daño, en función de la dosis recibida

Los efectos biológicos de las radiaciones en el hombre y en el resto de los seres vivos varían, desde simples quemaduras o interrupción de ciertas funciones fisiológicas, hasta daños graves, como el desarrollo de leucemia o de un cáncer en la piel, reducción de la fertilidad y acortamiento en el período de vida, según el tiempo y la dosis de radiación a la que haya estado expuesto. Aparte de los efectos anteriores existen evidencias de que las radiaciones provocan alteraciones genéticas de que las radiaciones provocan alteraciones genéticas o mutaciones de los seres vivos.

Las primeras constituyen el fondo radiactivo natural. Podemos distinguir tres causas de este fondo radiactivo:

Las radiaciones ionizantes procedentes del espacio exterior (radiación cósmica). Están originadas por los procesos nucleares que tienen lugar en el exterior de la Tierra. Puesto que la atmósfera absorbe parcialmente las radiaciones, el fondo natural debido a esta causa varía con la altitud de tal modo que es menor al nivel del mar que en lo alto de una montaña.

Las radiaciones emitidas por las sustancias radiactivas presentes en la corteza terrestre. Esta componente del fondo radiactivo varía notablemente entre unos y otros puntos de la Tierra, ya que no es uniforme la distribución de los elementos químicos. Por ejemplo, el fondo radiactivo terrestre de la sierra de Guadarrama, cuyas rocas graníticas poseen una radiactividad relativamente alta, es mucho mayor que el correspondiente a las zonas de naturaleza calcárea.

La radiación de los isótopos radiactivos contenidos en el propio organismo humano, principalmente isótopos del carbono y del potasio,. A ella hay que unir la radiación producida por el radón que inhalamos al respirar, el cual procede de la desintegración del radio y el torio.

Como promedio, el 15% de la dosis procedente del fondo natural que recibe una persona en España se debe a la radiación cósmica; el 20% a la radiación terrestre, el 15% al propio organismo y el 50% al radón.

Las causas artificiales de radiación se deben a la exposición a diversas fuentes de origen no natural, como son las exploraciones radiológicas con fines médicos, las esferas luminosas de relojes, la televisión en color, los viajes en avión (en este caso se debe a la mayor dosis de radiación cósmica que se recibe durante el vuelo a gran altura), el poso radiactivo procedente de las explosiones nucleares en la atmósfera que tuvieron lugar en el pasado, las emisiones de las centrales térmicas de carbón, cuyos humos contienen isótopos radiactivos; y las instalaciones nucleares.

Dentro de las causas artificiales la principal fuente de irradiación son las exploraciones radiológicas, que en los países desarrollados dan lugar a unas dosis sobre la población semejantes a la radiación cósmica. Las centrales nucleares producen una dosis prácticamente nula sobre el público en general y una dosis muy pequeña y controlada sobre el personal de la central.

6.3 VIDA MEDIA Y RAZÓN DE DECAIMIENTO.

La vida media de un elemento es el tiempo necesario para que decaiga la mitad del núcleo radiactivo. La vida media de un isótopo radiactivo puro es única para ese isótopo en particular. Él número de desintegraciones por segundo de una sustancia radiactiva se conoce como su actividad. La actividad es proporcional al número de átomos radiactivos presentes. Por lo tanto la actividad de una muestra particular se reduce por un medio, en una vida media. Así : Puesto que la radiactividad es un fenómeno nuclear , el proceso no es alterado por un cambio o la condición de la muestra. Un nucleido radiactivo dado emitirá el mismo tipo de radiación a la misma velocidad haciendo caso omiso el compuesto del cual forma parte, de su temperamento de la presión aplicada, o de la presencia de campos electroestáticos, magnéticos, o gravitacionales. Todos los átomos radiactivos en una muestra dada no se desintegran simultáneamente. La ruptura natural de un núcleo dado en un evento estadístico, cuando esta presente en grandes cantidades e núcleos, la velocidad de radiactividad sigue una ley de velocidad de primer orden. En consecuencia, la velocidad de emisión de las radiaciones en cualquier tiempo es proporcional al numero de átomos radiactivos presentes. Puesto que este numero esta disminuyendo continuamente el proceso se conoce como un decaimiento radiactivo. La vida media es una propiedad útil para la identificación de varias especies nucleídicas, porque cada nucleido radiactivo tiene una vida media característica.

6.4 FISIÓN NUCLEAR Y FUSIÓN NUCLEAR.

La fisión nuclear es la división de un núcleo atómico pesado (Uranio, plutonio, etc.)en dos o más fragmentos causado por el bombardeo de neutrones, con liberación de una enorme cantidad de energía y varios neutrones.

Cuando la fisión tiene lugar en un átomo de Uranio 235 se observa su triple fenómeno;

- Aparece una cantidad de energía, elevada en 200MeV que traduce la perdida de masa.

- Los productos de ruptura (300 o´ 400)son radiactivos. Su presencia explica los efectos de explosión de un artefacto nuclear.

- Cada núcleo fisionado emite 2 ó 3 neutrones que provocan el fenómeno de reacción en cadena y explican la noción de la masa crítica.

Se observa el mismo fenómeno de fusión en el plotinio 239 (artificial) y en el Uranio 233 (artificial). Ambos se fabrican a partir del Torio. Los núcleos se denominan núcleos flexibles.

Para que se produzca la fisión hace falta que el neutrón incidente reúna unas condiciones determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutron ha de ser un neutron térmico cuya energía es de la orden 1/40 eV, lo cual responde a una velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neitrones rápidos cuya energía es 1MeV.

La fusión nuclear de determinados núcleos de elementos ligeros es uno de los dos orígenes de energía nuclear, siendo la otra, la antes citada.

En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio. Cuando se fusionan los núcleos de dichos isótopos se observa la aparición de energía que procede de la perdida de masa, de acuerdo con la relación de Einstein E=m.c2.

La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de vista teórico como del tecnológico. Esto ocurre por estar los núcleos cargados positivamente.

La fusión y la fusión nuclear: Encontrar recursos energéticos casi inagotables, baratos y no contaminantes ha sido un afán del hombre casi desde el primer momento. El gran salto cuantivo lo dió el descubrimiento, hacia el año 1938-1939, es decir, la separación del núcleo de un átomos en otros elementos, liberaba gran cantidad de energía.

Desgraciadamente esta energía, a pesar de su rendimiento, es también altamente peligrosa- recuérdese que uno del militar en Hiroshima y Nagasaki, y el desastre de Chernobil. La alternativa del futuro es la fusión nuclear. Las diferencias entre la fisión y la fusión nuclear son; Por la fusión nuclear, un núcleo pesado como el Uranio 235, es dividido generalmente en dos núcleos más ligeros debido a la colisión de un neutron (recordemos que un átomo se compone de electrones, neutrones y protones). Como el neutron no tiene carga eléctrica atraviesa fácilmente el núcleo del Uranio. Al dividirse este, libera más neutrones que colisionan con otros átomos de Uranio creando la conocida reacción en cadena de gran poder radiactivo y energético. Esta reacción se produce a un ritmo muy acelerado en las bombas nucleares, pero es controlado para usos pacíficos. Por contra, la fusión es la unión de dos núcleos ligeros en uno más pesado, obteniéndose del orden de cuatro veces más energía que en la fisión.

Mientras que la fisión nuclear se conoce y puede controlarse bastante bien, la fusión plantea el siguiente gran inconveniente, que hace que continué en fase de estudio, aunque entrando en el siglo XXI se espera resolver:

Para que la reacción de la fusión sea posible hay que vencer la repulsión electroestática entre dos núcleos igualmente cargados; esto es, al existir núcleos atómicos con igual carga, y en virtud del principio de que las cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas. Esto se logra gracias al calor aplicando temperaturas de millones de grados. El problema mencionado proviene de la dificultad de encontrar un reactor que aguante esa temperatura. Con este calor se crea un nuevo estado de la materia, el plasma, en el que se dá un absoluto desorden de iones y electrones. Hay formas de conseguir la energía nuclear de fusión que se están experimentando actualmente, el confinamiento magnético y el confinamiento lineal.

Con el magnético se crea y se mantiene la reacción gracias a grandes cargas magnéticas. Con el lineal, el calentamiento se consigue con láser y el confinamiento del plasma con la propia inercia de la materia.

La investigación actual está inclinada más por el magnético, habiéndose descubierto recientemente un nuevo método para mantener la reacción, cambiando el campo magnético de la forma cilíndrico a otra aproximadamente de forma de toro. Podemos decir con orgullo que España se encuentra en los primeros puestos en cuanto a la investigación de la energía de fusión, disponiendo de prestigios científicos dedicados a esta materia y con gran reconocimiento nacional. La reacción de fusión se suele conseguir por la unión por la unión del tritio y el deuterio (isótopos de hidrógeno) para conseguir la partícula X (alfa) logrando el calor necesario. El deuterio se encuentra en un 0,15% en el hidrógeno, y el tritio se extra del litio, muy abundante en el agua, por lo que no hay problemas en cuanto a estas materias primas. Comparativamente, la energía de fusión proporciona más energía que la fisión. Por ejemplo, medio kilo de hidrógeno (muy abundante en la naturaleza, ya que forma parte del agua)produciría unos 35 millones de kilovatios hora. Por otro lado la fusión no contamina, o al menos no tanto como la fisión no existiendo peligro de radioactividad. La fisión por contra requiere de una materia prima de difícil y costosa extracción. También se a hablado de fusión en frió, para evitar los problemas que ya hemos citado con anterioridad. Este sistema lo propuso hace pocos años un importante científico, que supondría un gigantesco avance en este campo.

Desgraciadamente, y como la inversión en los otros dos sistemas ha sido grandísima y costaría mucho dinero cambiar los métodos de investigación a esta nueva vía, a parte de las presiones de los científicos que ahora investigan, que vieron peligrar sus subvenciones, al descubridor de la fusión en frío poco menos que se les lapidó, no volviéndose a oír hablar de él ni de su sistema. Científicos más objetivos consideran que con ello se han perdido al menos cuarenta o cincuenta años en la investigación de la fusión. En cuanto a la utilidad de la energía de fusión, que es la que se da en el Sol para generar el calor que nos permite vivir, podemos destacar primeramente que sería una fuente casi inagotable de electricidad. Paulatinamente se deberían ir sustituyendo los reactores de fisión por los nuevos de fisión, evitándose así los problemas de radio actividad. En un futuro no demasiado lejano incluso podrían instalarse estos reactores, como a hora ocurre en la fisión, en submarinos , en naves espaciales, y también en aeronaves y vehículos terrestres. Quizás se pueda llegar a tener en camiones, trenes, autobuses,… con motores de fusión (¿quién sabe?).

Aparte de esto, técnicamente, llegará a ser factible, habrá que contar de nuevo con los intereses ecomómcos y políticos ( la industria del petróleo mueve anualmente billones de pesetas, y los estados gana muchísimo a través de los impuestos). Recordemos, por ejemplo, el caso de aquel español que inventó un motor a base de agua hace algunos años; sorprendentemente la noticia desapareció de los medios de comunicación en cuestión de días (¿presiones económicas y políticas?). Con todos estos acontecimientos cabe preguntarnos si de verdad podremos ver algún día estos avances y beneficiarnos. como ciudadanos de a pie, con ellos. Recientemente se ha logrado en el reactor español de fusión TJ-II, del CIEMAT, confinar plasma a una temperatura similar a la del Sol. El objetivo de ese reactor no es conseguir la fusión y generar electricidad, sino comprobar durante los próximos quince años el comportamiento del plasma. El TJ-II tiene un peso de sesenta toneladas y un diámetro de cinco metros, y funciona calentando hidrógeno inyectado en su interior, gracias a una potencia eléctrica de un millón de watios generados. Hasta el momento se ha logrado en 120 ocasiones plasma, durando cada prueba aproximadamente un de segundo. El éxito de este experimento es un paso más en la consecución de la esperada energía de fusión.

Bibliografía

Para la realización de este trabajo me he basado en textos encontrados en los siguientes lugares;

  • Atlas de la Historia Universal

  • Circulo de lectores, Diccionario Enciclopédico Lexis

  • Diccionario enciclopédico Larousse

  • Enciclopedia temática Larousse

  • Enciclopedia temática Guinness

  • Enciclopedia multimedia Encarta 1999

  • Internet

  • Salvat Editores S.A., Diccionario Enciclopédico Salvat

18

E= M x C2

E=

h x c

""

;

M x C2

=

ð

estable




Descargar
Enviado por:Chimo
Idioma: castellano
País: México

Te va a interesar