Espacial porque hay una distribucion de tareas no en el tiempo sino en el espacio. En vez de haber una sola CPU tendremos varias, con varias UAL.
Veremos una clasificación propuesta por Flynn.
S.I.S.D. : simple camino de control y simple camino de datos. Una UC, CPU, UAL.
S.I.M.D. : estas maquinas tienen un único camino de control y varios de datos es decir tendrán varias UC y Memorias.(De nada serviría varias UAL y una única memoria).
M.I.S.D. : tendremos muchos caminos de control o instrucciones y uno solo de datos. A este tipo de maquinas no se les encontró sentido son maquinas que no existen.
M.I.M.D. : tendremos muchos caminos de instrucciones, muchos caminos de datos, tendremos muchas UC, Muchas UAL y muchas memorias, estas maquinas si existen.
ARQUITECTURA PIPE-LINE
Paralelismo Temporal: Pipe-Line “Lineal”
La arquitectura pipe-line se aplica en dos lugares de la maquina, en la CPU y en la UAL.
Veamos en que consiste el pipe-line y tratemos de entender porque el pipe-line mejora el rendimiento de todo el sistema.
Veamos una CPU no organizada en pipe-line:
Si se trata de una instrucción a ser ejecutada por la ALU podemos decir que la CPU realiza a lo largo del ciclo de maquina estas 5 tareas.
Una vez que termina de ejecutar una instrucción va a buscar otra y tarda en ejecutarla un tiempo T, es decir cada T segundos ejecuta una instrucción.
¿Qué sucede si dividimos en 5 unidades según las 5 cosas que realiza la CPU?
Supongamos la CPU dividida en 5 unidades, de tal forma que c/u tarde lo mismo en realizar su partecita. Es decir c/u tardará T/5.
Para que una instrucción se ejecute se necesita T segundos entonces para que usar pipe-line.
Si ocurre esto en una CPU normal a una con pipe-line, la cantidad de instrucciones que se hacen por segundo aumenta, es decir aumenta el flujo de instrucciones que se ejecutan por segundo.
ARQUITECTURA HARVARD
Arquitectura Harvard, que utiliza antememorias de instrucciones y datos separadas. Esta técnica, denominada Arquitectura Harvard, en cierto modo contrapuesta a la idea de Von Newmann, ya que utiliza memorias caché separadas para código y datos. Esto tiene algunas ventajas .
ARQUITECTURA VECTORIAL
El encadenamiento aumenta la velocidad de proceso, pero aún se puede mejorar añadiendo técnicas como el supersescalado. Esta técnica permite hacer paralelas las mismas etapas sobre instrucciones diferentes. Un procesador superescalar puede ejecutar más de una instrucción a la vez. Para ésto es necesario que existan varias unidades aritmético-lógicas, de punto flotante y de control. El proceso que sigue el micro es transparente al programa, aunque el compilador puede ayudar analizando el código y generando un flujo de instrucciones optimizado. Veamos cómo se ejecutarían las instrucciones en un procesador superescalar de que tiene duplicadas las subunidades que lo componen:
Aunque esto mejora la velocidad global del sistema, los conflictos de datos crecen. Si antes las instrucciones se encontraban muy próximas, ahora se ejecutan simultaneamente. Esto hace necesario un chequeo dinámico para detectar y resolver los posibles conflictos.
Ejemplo: El Pentium
bibliografia
PC Interno. MARCOMBO. Data Becker, 1995.
Computer Architecture and Organization, Second Edition. HAYES, J.McGraw-Hill, 1988.
Computer System Architecture. MANO, M. Prentice Hall, 1993.
Fundamentos de Informática. FERNANDO SAEZ VACAS. Alianza Informática, 1991.
Apuntes sobre arquitectura de computadores. JUAN ÁNGEL GARCÍA MARTÍNEZ.
Arquitectura de computadores JOSÉ ANTONIO DE FRUTOS REDONDO. Alcalá de Henares : Departamento de Automática, Universidad de Alcalá de Henares, 1994.
Arquitectura de ordenadores. ENRIQUE HERNÁNDEZ HERNÁNDEZ S.l. : s.n., 1998.
Arquitectura de ordenadores . EDUARDO ALCALDE LANCHARRO. Mcgraw-Hill, Interamericana de España, 1996.
Arquitectura de computadores : de las técnicas básicas a las técnicas avanzadas / GÉRARD BLANCHET, BERTRAND DUPOUYMasson, D.L. 1994
Arquitectura de computadores : un enfoque cuantitativo / JOHN L. HENNESSY, DAVID A. PATTERSON. McGraw-Hill, D.L. 1993
Organización y arquitectura de computadores. WILLIAM STALLINGS. Prentice Hall, 1997.