Superordenadores

Supercomputadores. Instrucciones en Paralelo. Procesamiento Vectorial. Superaplicaciones. SIMD

  • Enviado por: Eviuxa
  • Idioma: castellano
  • País: México México
  • 24 páginas
publicidad

Superordenadores

INTRODUCCIÓN

Pag. 1

Informática de alto rendimeinto

Pag. 2

Evolución de las supercomputadoras

Pag. 2

¿Què es una supercomputadora?

Pag. 3

¿Para que se necesitan?

Pag. 4

¿Còmo son?

Pag. 5

Tipos de supercomputadoras

Pag. 6

Procesamiento Vectorial

Pag. 6

Ejecución de instrucciones en paralelo

Pag. 7

Computadoras vectoriales SIMD

Pag. 10

Superaplicaciones para las supercomputadoras

Pag. 13

Ejemplos

Pag. 14

Cray Incorporation

Pag. 16

Supercómputo en la UNAM

Pag. 17

Cray Y-MP4 / 464

Pag. 18

Cray Origin 2000

Pag. 19

Conclusiones

Pag. 20

Bibliografía

Pag. 21

Superordenadores

Los superordenadores son herramientas para la creación y el desarrollo de simulaciones y modelos de estados y procesos. Los usos y el aprovechamiento del rendimiento de estas potentes herramientas dependen fundamentalmente de la pericia, la imaginación y esfuerzo de nuestros investigadores.

La modelización por ordenador de una gran variedad de sistemas físicos ha alcanzado el punto donde la realidad puede ahora ser simulada con un alto grado de fiabilidad. Los modelos físicos de sistemas reales, ya sea la atmósfera, la turbulencia, el caos, la combustión en sistemas químicos/mecánicos, los vehículos automotores y aerospaciales, las máquinas, las moléculas de proteínas, los procesos industriales o económicos, etc., pueden ser suficientemente detallados para utilizarse para predicciones verídicas. De esta manera la computación avanzada es más y más un instrumento para el desarrollo de la sociedad y para la competitividad industrial a todos los niveles, y no está limitada a un sector industrial específico.

El impacto en la sociedad de los superordenadores no está limitado a sus beneficios en la industria, el comercio y los servicios. Incluye el estudio de la propagación de enfermedades, el reconocimiento y traducción de lenguajes naturales, los cambios globales de clima o la compleja dinámica de los sistemas económicos. Es bien conocido que los principales problemas que afectan a nuestra sociedad son de naturaleza mundial y necesitan estudiarse y resolverse a esta escala.

En muchos casos, la ausencia de datos completos, como los referentes a la atmósfera y la biosfera, o a la población mundial, hace que se desarrollen criterios subjetivos para realizar predicciones. Esto requiere la comprensión de sistemas muy complejos, cuyo comportamiento solamente puede ser totalmente asimilado y predecible con precisión por medio de una modelización detallada empleando ordenadores de altas prestaciones.

Informática de Alto Rendimiento

Si el siglo XIX marcó el comienzo de la era moderna con la Revolución Industrial, ahora nos encontramos inmersos en otra "revolución", la denominada revolución del conocimiento, que se centra en las denominadas tecnologías de la información. La máquina de vapor de entonces es "sustituida" por el ordenador. El nombre de James Watt deja paso a otros como Charles Babbage, John von Neumann (considerado el padre de los ordenadores), Seymour Cray (fundador de le empresa Cray y padre de los superordenadores) o el mítico Bill Gates (el genio del desarrollo de software).

En pocos años, el ordenador "de casa" ha ido ganando en rapidez, habilidad, capacidad de almacenamiento de información, interfaces más amigables para el usuario, precios más baratos..., pero estos pequeños avances no son suficientes cuando se trata de realizar tareas de investigación, de control, de análisis, por el volumen y complejidad de la información a tratar. Subimos entonces al escalón más alto, a la informática de alto rendimiento, donde se encuentran los potentes superordenadores.


La evolución de las Supercomputadoras

A principios de los años setenta, la aplicación predominante de la computadora era el procesamiento de datos administrativos. Los banqueros, los administradores de universidades y los ejecutivos publicitarios se sorprendía ante la velocidad sensacional con que las grandes computadoras de millones de dólares procesaban datos. Los ingenieros y científicos se mostraban agradecidos por este tremendo logro tecnológico, pero distaban de estar satisfechos.

Cuando los ejecutivos empresariales hablaban acerca de la capacidad ilimitada, los ingenieros y científicos sabían que deberían esperar avances futuros antes de que pudieran usar las computadoras para manejar problemas complicados. Los ingenieros automotrices aún no podían construir prototipos tridimensionales de automóviles en una computadora. Los físicos no podían investigar las actividades de un átomo durante una explosión nuclear. Las comunidades de ingenieros y científicos tenían una necesidad apremiante de computadoras más potentes. En respuesta a esa necesidad, los diseñadores de computadoras em

pezaron a trabajar en lo que ahora se conoce como SUPERCOMPUTADORAS.

Fundamentalmente, las supercomputadoras manejan aplicaciones del tipo LIMITADO A PROCESADOR. Las aplicaciones limitadas a procesador, que son útiles para los ingenieros y científicos, requieren relativamente poco en lo que se refiere a entrada o salida. En las aplicaciones limitadas al procesador, la cantidad de trabajo que el sistema de computación puede realizar está limitada principalmente por la velocidad de la computadora.

Una tarea científica involucra el manejo de un modelo matemático complejo que, a menudo, requiere para su resolución de billones de operaciones. A principios de la década de 1970, algunos de los trabajos científicos complejos de tipo limitado a procesador ocupaban durante días las grandes computadoras de las universidades más importantes.

Por lo contrario, las macrocomputadoras, se orientan a aplicaciones limitadas de entradas / salidas; es decir, la cantidad de trabajo que el sistema de computación puede realizar está limitada principalmente por la velocidad de los dispositivos de entrada / salida.

¿Qué es una Supercomputadora?

Las computadoras son máquinas de alto rendimiento muy poderosas que se usan sobre todo para cálculos científicos. Para acelerar la operación, los componentes se juntan para minimizar la distancia que tienen que recorrer las señales electrónicas. Las supercomputadoras también utilizan técnicas especiales para evitar el calor en los circuitos y prevenir que se quemen debido a su proximidad.

El conjunto de instrucciones de las supercomputadoras contiene las instrucciones de transferencias de datos, manipulación de datos y transferencia de control del programa de las computadoras convencionales. Esto se aumenta mediante instrucciones que procesan valores y combinaciones de escalares y vectores.

Una supercomputadora es un sistema computacional que se reconoce por su alta velocidad de cálculo, sus sistemas de memoria grandes y rápidos y un uso amplio de procesamiento paralelo. Está equipada con unidades funcionales múltiples y cada unidad tiene su propia configuración de arquitectura paralela. Aunque la supercomputadora maneja aplicaciones de propósito general que se encuentran en todas las otras computadoras, está optimizada específicamente para el tipo de cálculos numéricos que involucran vectores y matrices de números de punto flotante.

Las supercomputadoras no son convenientes para procesamiento cotidiano normal de una instalación de computadora típica.

La velocidad de un supercomputador se mide en base a la cantidad de operaciones matemáticas que hace por segundo. El término técnico para esta velocidad es FLOPS. Si tu haces una operación en la calculadora, tu velocidad sería de 1 FLOPS. El término megaflops se utiliza para representar millones de flops.

Lo que hace que un superordenador sea "SUPER" es su capacidad para ejecutar al menos mil millones de operaciones de coma flotante por segundo. Es una medida de velocidad sorprendente conocida como "gigaflop".

¿Para qué se necesitan?

Una de las primeras tareas asignadas al "superordenador" de los años cuarenta, el ENIAC, no fue para un uso muy "pacífico", ya que se utilizó en los cálculos de diseño de la primera bomba. atómica (Proyecto Manhattan), en concreto para calcular las ondas de choque de las explosiones de prueba de las bombas atómicas.

Sin la rapidez y la capacidad de cálculo de los ordenadores, algunas disciplinas se habrían "ahogado" en sus planteamientos teóricos. Tal es el caso de la física de alta energía. Hay experimentos en el CERN que hacen colisionar electrones y positrones y que producen tal cantidad de información que, sin la ayuda de un superordenador que sepa discriminar entre todos los sucesos, no se habría podido comprobar experimentalmente las ideas teóricas.

En la investigación espacial, la utilización de ordenadores se convirtió en esencial. La nave Voyager 2, que fue lanzada el 20 de agosto de 1977 con la misión de explorar los planetas exteriores al sistema solar, iba equipada con seis ordenadores diferentes, con capacidad de 540 Megas, algo portentoso para la época.

Hoy en día, la existencia de superordenadores que, naturalmente, trabajen en tiempo real, se ha convertido en una necesidad.

Por ejemplo, son imprescindibles en las industrias del automóvil y la aeronáutica. En este caso los estudios de aerodinámica son una pieza fundamental para optimizar la forma del fuselaje o de las alas. También se emplea en simulación de vuelos para el entrenamiento de los pilotos, etc. El análisis de la estructura del avión Boeing 777 se realizó completamente por un supercomputador y también el diseño del avión invisible F-117.

Otras aplicaciones son el diseño de nuevos productos farmacéuticos, componentes electrónicos, simulación de terremotos, estudio de la evolución de la contaminación en áreas extensas, predicción meteorológica y estudios del cambio climático o simulación de órganos corporales con el objetivo de reproducir su funcionamiento con representaciones en 3D de alta precisión a partir de métodos de resonancia magnética.

En definitiva, el mercado pide ordenadores más potentes y más "SUPER". Los sistemas actuales permiten, como en el caso del Pentium de INTEL poder tener 5,5 millones de transistores en una placa de silicio inferior a 100 milímetros cuadrados. Pero se necesita más.

¿ Como Son ?

Tipos de procesadores: los procesadores vectoriales operan en subconjunto de elementos de un vector con una única instrucción, mientras que los procesadores escalares han de manipularlos elemento a elemento y, por lo tanto, tiene que ejecutar una misma instrucción de manera iterativa para conseguir el mismo resultado que una única instrucción vectorial.

Los procesadores superescalares pueden iniciar la ejecución simultánea de varias instrucciones escalares en paralelo de forma que pueden operar varios elementos de un vector dentro de una misma iteración.

Los procesadores en array ejecutan la misma instrucción en todos los procesadores sobre diferentes datos.

Organización de la memoria: Si la memoria está compartida entre todos los procesadores, la programación es mucho más sencilla, ya que los datos se pueden colocar en cualquier módulo de la memoria y su acceso es uniforme para todos los procesadores.

Si cada procesador tiene acceso a su propia memoria, entonces la programación es más compleja, pero tiene la ventaja de su escalabilidad, con lo que el sistema puede crecer hasta un mayor número de procesadores. Es el sistema idóneo para máquinas paralelas.

La memoria distribuida compartida combina las ventajas de ambas organizaciones: la memoria está físicamente distribuida y. por lo tanto, el sistema es escalable, pero se accede con un espacio único de direcciones y es fácilmente programable.

Tipos de Supercomputadoras

     Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente.

      Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras.

      Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas.

     A pesar de que tu fueras muy bueno en matemáticas, te tomaría mas tiempo en hacer todos los 100 problemas que a las 20 personas trabajando juntas.

Procesamiento Vectorial

El procesamiento vectorial requiere específicamente instrucciones con vectores en lenguaje de máquina. El procesamiento requiere hardware canalizado, pero no viceversa. Una instrucción vectorial indica la operación que se va a realizar y especifica la lista de operandos (denominada vector) sobre los que operará. Cuando se ejecuta una instrucción vectorial, se alimentan los elementos del vector a la canalización apropiada uno a la vez, retrasados por el tiempo que toma completar una etapa.

Ejecución De Instrucciones En Paralelo

Desde lo albores de la computación, los diseñadores han tratado de hacer máquinas más rápidas. Hasta cierto punto, esto se podría lograr haciendo más veloz el hardware; sin embargo, empiezan a aparecer en el horizonte diversos límites físicos. Por un lado, las leyes de la física señalan que nada puede viajar más rápido que la velocidad de la luz, que es de alrededor de 30cm, por nanosegundo en el vacío y de 20 cm por nanosegundo a través de alambre de cobre.

Esto significa que para construir una computadora con un tiempo de instrucción de 1 nanosegundo, la distancia total que las señalas eléctricas tuvieran que viajar entre la memoria, el CPU y de regreso, no debe exceder de 20 centímetros. De ahí que las computadoras demasiado rápidas tengan que ser muy pequeñas.

Desgraciadamente, las computadoras rápidas producen más calor que las lentas, y el construirlas en un volumen reducido hace difícil disipar dicho calor. En ocasiones, las supercomputadoras se sumergen en freón líquido, un refrigerante, a fin de eliminar el calor tan pronto como sea posible. Con todo, hacer más y más rápidas a las computadoras es cada día más y más difícil, así como muy caro.

No obstante, es posible lograrlo de otra manera: en lugar de un solo CPU de alta velocidad, se puede construir una máquina con varias ALU más lentas (y más baratas), o hasta CPU completas, para obtener el mismo poder de cómputo a un costo más bajo. Muchas investigaciones se han dedicado a construir este tipo de máquinas paralelas.

Las máquinas paralelas pueden dividirse en tres categorías (Flynn, 1972), basadas en el número de instrucciones y de datos que pueden procesar:

  • SISD: Corriente de instrucciones sencilla. Corriente de datos sencilla.

  • SIMD: Corriente de instrucciones sencilla. Corriente de datos múltiple.

  • MIMD: Corriente de instrucciones múltiple. Corriente de datos múltiples.

Por ejemplo, la CDC 6600 y algunas de sus sucesoras tienen unidades funcionales múltiples (ALU especializadas), cada una de las cuales puede realizar una operación sencilla a alta velocidad, según se ilustra en la figura 1. En este ejemplo, se tienen cinco unidades funcionales, dos de ellas para la suma y las tres restantes para las operaciones de resta, multiplicación y división.

La idea que sustenta este diseño es que la unidad de control extrae un instrucción y la dirige a una de las unidades funcionales para su ejecución; mientras tanto, la unidad de control extrae la siguiente instrucción y la envía a otra unidad funcional. Este proceso continúa hasta que no se puede avanzar más, ya sea porque todas las unidades del tipo requerido están ocupadas, o bien porque se necesita un operando que todavía se está procesado.

Superordenadores

Figura 1. Un CPU con cinco unidades funcionales que pueden correr en paralelo.

Por lo que en general se utiliza para las operaciones de punto flotante, que son lentas y complejas, en lugar de las operaciones con números enteros que son sencillas y rápidas.

En la figura 2. (a), se observa una CPU formada por cinco unidades de procesamiento de P1 a P5. Durante el primer intervalo de tiempo, P1 extrae de memoria la primera instrucción; en el segundo intervalo, la primera instrucción pasa a P2 para su análisis, mientras que P1 extrae la siguiente instrucción. En cada uno de los intervalos subsecuentes, P1 extrae una nueva instrucción y las anteriores pasan a la siguiente unidad, a lo largo de la trayectoria.

Superordenadores

Figura 2 (a). Una computadora de procesamiento en línea o escalonado (pipeline) de cinco unidades.

Figura 2 (b) Estado de cada unidad de proceso en función del tiempo.

A la organización de la figura 2 (a) se le podría llamar PROCESAMIENTO ENTUBADO o PROCESAMIENTO EN LÍNEA (pipeline). Si cada paso (intervalo de tiempo) dura n nanosegundos, se requiere de 5n nanosegundos para ejecutar una instrucción. Sin embargo, cada n nanosegundos P5 termina de ejecutar una instrucción, lo que incrementa la velocidad en un factor de cinco. Solo hay un programa y un conjunto de datos.

La MÁQUINA VECTORIAL que se muestra en la siguiente figura 3 tiene una arquitectura que se adapta muy bien a esta tarea. En forma análoga, la ALU es en sí una unidad vectorial capaz de realizar operaciones como la suma de vectores a partir de dos vectores de entrada y obteniendo como resultado un vector de salida. Algunas supercomputadoras tienen una arquitectura parecida a ésta.

Computadoras Vectoriales SIMD

La Máquina de Conexión está concebida para aplicaciones simbólicas tales como problemas de inteligencia artificial. La máquina puede realizar operaciones de punto flotante, no está convenientemente adaptada para la predicción del clima, el análisis de datos sismológicos, o el procedimientos de datos en reconocimiento de imágenes de tres dimensiones en tiempo real. Para aplicaciones de demasiados cálculos como éstas, se requiere de computadoras vectoriales (llamadas también supercomputadoras numéricas).

Una aplicación típica de esta clase es una sentencia completa como:

For i: = 1 to n do a[ i ]: = b[ i ] + c[ i ]

Donde a, b y c son vectores, es decir, arreglos numéricos, por lo general en punto flotante. La interacción for anterior indica a la computadora que sume los i-ésimos elementos de b y c y que almacene el resultado en el i-ésimo elemento de a.

Técnicamente, el programa especifica que los elementos deben ser sumados en forma secuencial, pero esto se debe al hecho de que Pascal no tiene ninguna otra forma de expresar la suma de dos vectores. Además, un compilador que optimice puede ver que el orden es irrelevante, y puede generar un código para sumar los n elementos en forma simultánea, si es que el hardware posee capacidad para hacerlo.

En la Figura 3 se muestra una posible arquitectura SIMD bien adaptada para este tipo de procesamiento de vectores. Esta máquina toma como entrada a dos vectores de n elementos y opera en paralelo en los elementos correspondientes, utilizando una ALU vectorial que puede trabajar con los n elementos al mismo tiempo.

Se requiere también de computadoras vectoriales para efectuar operaciones escalares y operaciones mixtas escalares y vectoriales.

En la práctica, pocas supercomputadores se construyen realmente como en la Figura 3.

Superordenadores

Fig. 3 Una ALU vectorial

La Máquina de Conexión se puede permitir tantas ALU pues las que utiliza son sencillas y baratas. Para una supercomputadoras se requiere de ALU de punto flotante extremadamente rápidas, lo que incrementa en gran medida el precio.

El método que se usa normalmente es combinar el procesamiento vectorial con el procesamiento serie. Las operaciones de punto flotante son demasiado complejos, pues requieren de muchos pasos, y cualquier operación de pasos múltiples es candidata a su procesamiento en serie.

Normalmente, las supercomputadoras tienen varias ALU, cada una especializada para una operación en particular y todas capaces de trabajar en paralelo. Como ejemplo, considérese a la Cray-1, la primera supercomputadora del mundo. Aunque no es de las más recientes tiene una arquitectura simple de tipo RISC que la hace ser un buen sujeto de estudio. No es un accidente que la Cray-1 tenga un gran parecido con la CDC 6600. Ambas fueron diseñadas por Seymour Cray, uno de los fundadores de CDC y su arquitecto en jefe hasta que renunció para formar su propia compañía , Cray Research.

La Cray-1 está orientada a los registros, con la mayor parte de las instrucciones de 16 bits consistentes en un código de operación de 7 bits y 3 bits para indicar el número de registro para cada uno de los tres operandos. Como se puede apreciar en la figura 4, existen cinco tipos de registros. Los ocho registros A de 24 bits se usan para direccionar la memoria. Los 64 registros B 24 bits se utilizan para almacenar los registros A cuándo éstos no se necesitan, en lugar de escribirlos de nuevo a memoria. Los ocho registros S de 64 bits se emplean para contener cantidades escalares, tanto enteras como de punto flotante. Los valores en estos registros se pueden usar como operandos en ambos tipos de operaciones . Los 64 registros T de 64 bits son un almacenamiento extra para los registros S, una vez más reducir el número de instrucciones de carga y almacenamiento.

La parte más interesante del conjunto de registros de la Cray-1 es el grupo de ocho registros de vector. Cada uno de los cuales puede contener un vector de punto flotante de 64 elementos. Se puede sumar, resta o multiplicar dos vectores con una instrucción de 16 bits. La división no es posible, pero se pueden calcular recíprocos.

Todas las operaciones con vectores utilizan operandos de registros.

No todas las supercomputadoras tienen esta propiedad de tipo RISC de requerir que todos los operandos se encuentren en registros. Por ejemplo, la CDC 205 realiza sus operaciones con vectores en memoria.

La Cray-1 tiene 12 unidades funcionales, dos unidades son para aritmética de direcciones de 24 bits y cuatro para operaciones enteras en escalares de 64 bits.

La Cray-1 no tiene una unidad para efectuar multiplicaciones de enteros. Las seis unidades restantes trabajan todas con vectores y en serie. La suma, la multiplicación y las unidades de recíprocos trabajan también sobre números escalares de punto flotante lo mismo que con vectores.

Como muchas otras computadoras de vector, la Cray-1 permite el encadenamiento de operaciones.

R1:= R1*R2+R3

Donde R1, R2 y R3 son todos los registros de vector, sería realizar la multiplicación de vectores, elemento por elemento, almacenar el resultado en alguna parte después hacer la suma de vectores.

Superaplicaciones Para Las Supercomputadoras

Las supercomputadoras se conocen tanto por sus aplicaciones como por su velocidad o capacidad de computación, que puede ser 10 veces mayor que la de una macrocomputadora. Las siguientes aplicaciones son representativas de las supercomputadoras:

  • Las supercomputadoras ordenan y analizan grandes cantidades de datos sísmicos que se recopilan durante las exploraciones en busca de yacimientos petrolíferos.

  • Las supercomputadoras permiten la simulación de una corriente de aire alrededor de un avión a diferentes velocidades y altitudes.

  • Los fabricantes de automóviles usan supercomputadoras para simular accidentes automovilísticos en pantallas de video. (Es menos costoso, permite conocer más detalles y es más seguro que desarrollar un choque real).

  • Los físicos usan supercomputadoras para estudiar los resultados de explosiones de armas nucleares.

  • Los meteorólogos usan supercomputadoras para estudiar la formación de tornados.

  • Los estudios de producción de Hollywood usan gráficos avanzados para crear efectos especiales para películas y comerciales de televisión.

  • Analizar el comportamiento de fluidos, diseñar piezas aerodinámicas

La simulación empleando superordenadores complementa (cuando no reemplaza) cada vez más a los experimentos y a los modelos a escala en un amplio rango de aplicaciones científicas, de ingeniería y comerciales. En algunas áreas industriales, tales como el diseño de aviones, vehículos espaciales, grandes estructuras resistentes, barcos y coches es ya una necesidad ineludible. En otras, los científicos e ingenieros están realizando grandes avances en el diseño de moléculas para medicamentos, enzimas, catalizadores y nuevos materiales.

El tiempo transcurrido desde la concepción de un nuevo producto hasta su introducción en el mercado y el coste de su proceso de diseño pueden reducirse drásticamente con la ayuda de la simulación por ordenador. Todo esto, combinado con la exactitud alcanzada en reproducir la realidad, tiene el efecto de aumentar substancialmente la competitividad de la industria al reducir costes y mejorar la calidad. Al mismo tiempo hay áreas donde los superordenadores deben utilizarse para establecer los métodos y modelos de simulación física más eficientes.

Todas estas aplicaciones son poco viables, sino es que imposibles, en las macrocomputadoras.

Rara vez se requieren las supercomputadoras para el procesamiento administrativo limitado a entradas / salidas, el procesamiento de la nómina o la contabilidad. Hacerlo sería desaprovechar un recurso de alto costo y relativamente escaso.

Ejemplos

A continuación se explican algunos ejemplos de interés

La gestión del Medio Ambiente (atmósfera/agua/tierra) y la predicción del cambio climático es un ejemplo característico. Distintas organizaciones gubernamentales ya han invertido grandes sumas en nuevas técnicas para observar la atmósfera y el océano y en nuevos programas de investigación enfocados a evaluar el efecto del genero humano en el ambiente.

Así es bien conocido, que los modelos numéricos de la atmósfera y el océano juegan un papel importante en el estudio del clima. Sin embargo, por ejemplo, la evaluación completa de la respuesta global y regional del efecto invernadero debido al aumento de la concentración de gases proveniente de fuentes antropogénicas, requerirá el uso de modelos climáticos más sofisticados que los existentes. Hoy en día se requieren aumentos significativos en la precisión y el uso de modelos computacionales de la física y la química mucho más precisos y con un mayor costo computacional.

Otro ejemplo típico es el diseño de nuevas moléculas o materiales y es básico para las industrias química y farmacéutica. Combinado con desarrollos en biotecnología, se pueden diseñar y producir nuevas proteínas, obteniéndose nuevos productos que tendrán impacto en la vida cotidiana. Las estrategias tradicionales para el diseño de nuevos componentes involucra métodos inteligentes de prueba y error. La modelización computacional está tan solo comenzando a hacer impacto en el proceso de diseño. Sin embargo, este diseño aún consume mucho tiempo y dinero. Un aumento considerable en potencia computacional es necesario para acelerar el diseño de nuevos productos, lo que permitirá un mayor nivel de competitividad en nuestra industria química.

Al desarrollarse totalmente, los modelos computacionales incorporarán una combinación de simulación, búsqueda en bases de datos y visualización, y ahorrarán al diseñador tiempo de experimentación en laboratorio con la consiguiente reducción de coste. Ello requerirá aumentar al menos mil veces la potencia computacional disponible actualmente. Se prevé que la aplicación de las técnicas de modelación molecular a este nivel será imperativo para que las industrias químicas, farmacéutica y biotecnológica puedan seguir siendo innovadoras y competitivas a nivel internacional.

La optimización es otro ejemplo de la necesidad de disponer de modelos matemáticos precisos de la realidad y ordenadores potentes. La optimización es una aplicación relativamente nueva para los superordenadores y es cada vez más importante en las operaciones de grandes industrias y compañías de servicio. La solución de grandes problemas de optimización es casi siempre crítica: las decisiones deben tomarse en tiempo real para responder a situaciones que evolucionan rápidamente.

La diferencia entre buenas soluciones de estos problemas y soluciones óptimas o cercanas a la óptima, pueden significar el ahorro de grandes sumas de dinero. Las principales aplicaciones de la optimización incluyen el diseño de formas estructurales complejas, la planificación de la inversión, la planificación y distribución de la producción, el trazado de carreteras, la planificación de rutas y de personal, etc. La ayuda de los superordenadores a través de una mejor interacción investigador-ordenador da un realce esencial al poder creativo del ser humano y permite incorporar a las decisiones de diseño un mayor conjunto de elementos concretos de importancia técnica, económica y empresarial.

El mercado de los superordenadores ha crecido de manera que cada vez son más los fabricantes de computadoras que se dedican al diseño de superordenadores, algunos de ellos son:

  • CRAY INCORPORATION

  • IBM

  • INTEL

  • ISGI

  • HITACHI

  • COMPAQ

  • FUJITSU

  • SUN

  • NEC

  • HEWLETT PACKARD

Cray Incorporation

Cray Inc. creada en Marzo del 2000 de la unión de Tera Computer Company y Cray Research, es un líder en el mercado de las supercomputadoras. Cray Inc. Se dedica a ayudar a los usuarios a resolver la mayoría de los problemas de computación más cruciales sobre la tierra, diseñando los carros y camiones que conducimos, creando nuevos materiales para el descubrimiento de nuevas medicinas. Prediciendo severos cambios del clima y en infinidad de problemas más.

La compañía Cray comienza en el año 1972, cuando el legendario Seymor Cray, conocido como el “padre de las supercomputadoras” fundó Cray Research en Wisconsin.

El primer sistema Cray-1 fue instalado en el Laboratiorio “Los Alamos” en 1976 por $8.8 millones de dólares, teniendo la capacidad de 160 millones de operaciones de punto flotante por segundo (160 megaflops) y con 8 megabytes en memoria principal. Para poder incrementar la velocidad de este sistema, la supercomputadora Cray-1 tenía una forma única en “C” que permitía que los circuitos integrados estuvieran más juntos. Ningún cable del sistema medía mas de 4 pies de largo. Para controlar el intenso calor generado por la computadora, Cray elaboró un innovador sistema de refrigeración utilizando Freon.

La compañìa Cray elaboro el primer multiprocesdador de la supercomputadora, el Cray X-MP que fue introducido en 1982. El sistema Cray-2 apareciò en 1985 superando al Cray-1.

Supercómputo en la UNAM

Para llevar a cabo una investigación científica y desarrollo tecnológico de una manera competitiva se requieren de servicios de cómputo modernos.

Con el propósito de proporcionar este tipo de servicios a la comunidad universitaria y productiva del país la Universidad Nacional Autónoma de México puso en operación en 1991 una supercomputadora CRAY Y-MP/432 y un Laboratorio de Visualización.

Estos servicios están disponibles a traés de la RedUNAM los investigadores, profesores y estudiantes de la UNAM, así como a los miembros de las instituciones de investigación y educación superior de todo el país. Están también disponibles, a través de convenios específicos, a las industrias que los requieran para llevar a cabo investigación, desarrollo y producción.

El personal de la Dirección General de Servicios de Cómputo Académico (DGSCA) que se encarga de estos servicios proporciona asesoría en el uso de compiladores y paquetes que requieran los usuarios. También se ocupan de analizar los problemas que se les planteen para determinar si el uso de supercómputo y visualización son necesarios para su solución.

CRAY Y-MP4/464

Superordenadores

Aspectos Físicos:

La supercomputadora Cray se compone de varios gabinetes: el CPU, las unidades de disco, la unidad de refrigeración y la unidad de control de energía y refrigeración. El CPU ocupa un área de 1.5 m., pesa 2,450 kg. y mide 1.9 m. de altura.

Características:

  • El equipo instalado tiene 4 procesadores diseñados con capacidad para trabajar en paralelo y realizar operaciones matemáticas escalares o vectoriales.

  • La memoria central del CPU es de 32 Megapalabras (1 palabra=64 bits), además existe una memoria temporal (Buffer Memory) de 4 Mp (32MB); ésta sirve como interfaz entre los procesadores y los subsistemas restantes del CPU.

Sistema Operativo:

El sistema operativo de CRAY es UNICOS 7.0, el cual está basado en UNIX. Dicho sistema operativo tiene capacidad de multiproceso y multiprogramación así como un sistema de archivos distribuido en diferentes unidades físicas.

CRAY-ORIGIN 2000

Superordenadores

En enero de 1997, arribó a la Dirección General de Servicios de Cómputo Académico, la nueva supercomputadora "CRAY-ORIGIN 2000" de Silicon Graphics.

Características:

  • 40 Procesadores MIPS RISC R 10000 64-bit a 195 MHZ.

  • 10 Gb en memoria RAM.

  • 171 Gb de espacio en disco.

  • 13.6 GFlops pico (contra los 1.2 GFlops de la CRAY Y-P4/464).

Una característica muy importante, es que este nuevo tipo de procesadores pertenecen a la tecnología CMOS, los cuales requieren solamente enfriamiento por aire a 15 grados centígrados y no una compleja instalación de enfriamiento con Fluorinert, como la que usa la actual supercomputadora, por lo cual el mantenimiento es mínimo.

Esta máquina es la supercomputadora más grande de América Latina y una de las más grandes del mundo, con lo que la UNAM vuelve a estar a la vanguardia de la tecnología como lo estuvo en la época en la que se adquirió la CRAY-YMP 4/464. Esta nueva supercomputadora estará muy pronto a la disposición de la comunidad universitaria para el desarrollo de investigaciones de primer nivel.

Superordenadores

En resumen, las supercomputadoras son herramientas de tecnología avanzada utilizadas por compañías especializadas como las bolsas mercantiles, empresas especializadas en fármacos, también se utilizan para investigar factores relacionados con el cambio climático, etc.

A pesar de lo que podemos creer las supercomputadoras están constantemente involucradas en nuestra vida diaria, debido a que las encontramos en donde menos nos esperamos.

Seymour Cray es conocido como el padre de las computadoras, en el grande campo de la supercomputación. Debido a su gran ingenio, demostrado al crear la primer supercomputadora Cray-1 en 1976 con un costo aproximado de $8.8 millones de dólares. Marcando así el comienzo de una nueva era.

Es muy amplio el tema de las supercomputadoras aunque un poco complejo.

Existen diferentes tipos de supercomputadoras, las supercomputadoras de vectores y las supercomputadoras en paralelo.

Superordenadores

Libros

  • Senn, James A.

  • “Sistemas de Información para la administración”

  • Grupo Editorial Iberoamérica S.A. de C.V.

  • México

  • 1987

  • pag. 116.

    • Tanenbaum, Adrew S.

    • “Organización de Computadoras un enfoque estructurado”

    • Prentice Hall Hispanoamericana S.A.

    • Naucalpan, Edo. México

    • 1992

    • pags. 26,27, 40-44 y 586-592.

      • Mano, Morris M.

      “Arquitectura de Computadoras”

      Prentice Hall Hispanoamericana S.A.

      México

      1993

      pags. 347 y 348.

      • Deitel, Harvey M.

      • “Introducción a los sistemas operativos”

      • Adisson - Wesley Iberoamericana

      • Wilmington, Delaware, E.U.A.

      • 1993

      • pags. 26, 327, 332, 346, 353, 447, 599.

        • Long, Larry

        “Introducción a las computadoras y al procesamiento de Información”

        Prentice Hall Hispanoamericana S.A.

        Naucalpan, Edo. México

        1995

        pags. 42-43, 64-66.

        Internet

        http://www.netlib.org

        http://www.apple.com/es/g4/

        http://www.dlsi.ua.es/~marco/tema3/sld072.htm

        http://www.sdsc.edu/Resources/bluehorizon.html

        http://www.cesga.es/ca/defaultC.html?CalcIntensivo/Introduccion.html&2

        http://www.cesga.es/ca/defaultC.html?CalcIntensivo/VPP300.html&2

        http://www.sgi.com/company_info/

        http://www.cray.com

        http://www-1.ibm.com/servers/eserver/iseries/hardware/

        http://www.top500.org/ORSC/2000/

        http://www.nlanr.net/CASA/family.gif

        http://lcdx00.wm.lc.ehu.es/~svet/garatu/hist.html

        http://primepower.fujitsu.com/hpc/en/vpp5000e/

        http://www.com4hd.com/com4hd/broadcast97/sgi/hard/hard.htm

        http://coqui.lce.org/cadiaz/CEDU5130V/Genera-Tipos/sld018.htm

        http://www.netlib.org/benchmark/top500/top500.list.html

        http://www.unam.mx/unam/html-docs/htm/telecom/servicios_red/supercomputo.html

        http://www.biomedicas.unam.mx/html/period97/jul9.htm

        http://www.sdsc.edu/discovery/lo/sc-s.htm

        http://www.cs.cmu.edu/~scandal/gifs.html