Informática


Discos IDE


INDICE

Introducción 4

Definición 5

Historia 6

Interfaz 7

Influye el bus de datos 8

Transferencia y Velocidad del IDE 9

Ventajas y Desventajas 12

Estabilidad Física 12

Supervivencia a los Fallos 13

Rendimiento 13

Conclusión 16

Bibliografía 17

INTRODUCCIÓN

En el presente informe se darán a conocer los discos IDE, se empezara definiendo esta pequeña sigla, luego daremos a conocer una pequeña reseña histórica en donde se pude comentar que el estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro. Está claro que la necesidad es la madre de la inventiva, ¿verdad?, pero bueno, además la interfaz es un punto importante a analizar y aquí hay que tener claro que no existe la mejor de ellas sino que solo encontramos la mas adecuada para cada necesidad, después seguiremos con un punto igual de importante que el anterior la trasferencia de información o modos de transferencia y aquí podemos nombrarlos dos métodos empleados principalmente los llamados PIO y MDA, también veremos sus ventajas y desventajas la estabilidad física, la supervivencia a los fallos, el rendimiento y por último una conclusión para de esta manera dar por finalizado el tema.

DEFINICION

(Integrated Drive Electronics) conector estándar para los discos duros de los PC. Electrónica de unidades integradas. Disco duro que contiene un controlador incorporado. Las unidades IDE se utilizan ampliamente en computadores personales y su capacidad varía de 40MB a 1GB. La unidad se conecta a través de un cable de tipo cinta plana de 40 líneas a un adaptador de computador central IDE (con frecuencia llamado controlador IDE), que se enchufa en una ranura de expansión en el computador personal. El adaptador del computador central controla hasta dos unidades IDE, pero los adaptadores avanzados y los adaptadores IDE ampliados controlan hasta cuatro. Algunas tarjetas base se construyen con un conector IDE de 40 pines (agujas) directamente en la tarjeta, liberando así una ranura de expansión para usar en otro dispositivo. La unidad IDE utiliza la interfaz ATA (AT Attachment), aunque con frecuencia ATA se referencia sólo en manuales técnicos.

UN POCO DE HISTORIA

“Integrated Drive Electronics”, o mas conocido como IDE, fue creado por la firma Western Digital. Y en conjunto con Conner, definieron la interfaz EIDE (Enhanced IDE o IDE mejorado), al tiempo que Seagate y Quantum definieron el FAST ATA. Curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo.

IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado. No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?

El estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro.

En antiguos discos duros (sobre todo MFM) era imprescindible, antes de apagar el equipo para moverlo de sitio, ejecutar una utilidad especial para "aparcar" las cabezas de la unidad. Con esta operación se depositaban los cabezales en una zona segura del disco, de forma que no pudieran dañar la superficie del disco en caso de movimientos o vibraciones. En la actualidad este proceso lo realiza la unidad de forma automática al ser desconectada (podéis comprobar cómo al apagar el PC, durante un segundo se ilumina el led del disco duro), y no se concibe un disco duro que no incluya esta característica.

Formatear un disco duro IDE a bajo nivel puede ser perjudicial para el mismo. Durante el proceso, que el fabricante realiza en sus instalaciones antes de sacarlo al público, se graban en él las marcas de direcciones y los números de sector. Volver a realizar este proceso en circunstancias o con software no apropiados, puede dañar definitivamente la unidad, hacerla más lenta o generarle sectores defectuosos e irrecuperables. En realidad, el formateo a bajo nivel sólo está justificado en casos muy concretos, como la aparición progresiva de errores a nivel lógico, y nunca por infección de virus (el caso más frecuente). Ciertamente, algunos vicios de la época MFM son bastante difíciles de ser desterrados.

Algunos modelos de discos duros, de diversos fabricantes, sufrían una anomalía con cierta frecuencia, consistente en la paralización del motor que da giro al eje del disco (especialmente tras varios días de falta de uso del equipo por parte del usuario, o también por acumulación de humedad); el resultado era la imposibilidad de iniciar el sistema desde el disco duro. La solución, no demasiado "científica", por cierto, era sacar el disco y propinarle un par de buenos golpes (no demasiado fuertes, claro); y mano de santo.

LA INTERFAZ DEL IDE

Cronológicamente, y empezando por el primero nos encontramos con los primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos.

La interfaz EIDE o IDE mejorado, propuesto también por Western Digital con el fin de sustituir a las antiguas controladoras del PC XT, aumentando las prestaciones. Para ello, se doto a la unidad de disco de la lógica necesaria para codificar-decodificar los datos, de manera que la controladora solo tuviese que efectuar peticiones y recibir respuestas. La especificación original permitía fabricar discos de buenas prestaciones y precio asequible, a costa de ciertas limitaciones que se hicieron evidentes con el paso del tiempo, como la imposibilidad para soportar discos de mas de 528Mb o la limitación a dos dispositivos por controladora. Este logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.

¿Influye el bus de datos?

Evidentemente los buses de datos IDE actuales, han limado bastantes de las  diferencias existentes entre discos duros SCSI e IDE. Los estándares ATA 66 y ATA 100 han hecho del bus IDE una opción mas que recomendable para equipos de alto rendimiento.

Si ha esto le sumamos la incorporación de controladoras RAID para este tipo de discos han hecho que se puedan tener sistemas de altísima respuesta en equipos "domésticos". ¿Pero están los discos IDE a la altura del interfaz ATA 100 actual?. La respuesta es un rotundo no.

Fijandonos en la transferencia máxima del disco 444MBits/s y la transformamos a MB/s dividiendo por ocho (cada byte son 8 Bits) nos encontramos con una transferencia máxima de 55 MB/s y el bus nos admite 100MB/s. Un 50% del potencial.

Nos atrevemos a decir que este es el disco de mayores prestaciones en ATA 100 del mercado y aun asi no alcanza el ATA 66. El problema radica en la velocidad de giro.  La media de velocidad se encuentra en 5400 o 7200 rpm en los últimos modelos. Esta velocidad es insuficiente. También es cierto que intervienen otros factores como capacidad del buffer de datos, el numero de discos, la densidad de estos, etc. Pero la principal tarea a superar es la velocidad de giro.

¿Porque no aplicar mas velocidad?. Sencillo, se generan cantidades de calor horribles. Existen discos duros de mas revoluciones, hasta 15000 rpm, pero se destinan al mercado "muy profesional" debido a su precio y a su corta vida de trabajo. Un disco duro de 10000 rpm puede durar refrigerándolo bien 1 año máximo. Con este panorama es justificable que los discos domésticos se queden cortos. Actualmente el bus de datos no es la principal preocupación de los fabricantes.



TRANSFERENCIA Y VELOCIDAD DEL IDE

Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O Modo de transferencia de datos) PIO es más lento que DMA porque requiere el uso del procesador para efectuar el traslado de datos. A nivel de rendimiento no hay mayor problema, ya que los microprocesadores actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras.

El otro método es el DMA (Acceso directo a la memoria. Modo de transferencia de datos. DMA acelera las velocidades de transferencia porque no accede al procesador del ordenador) así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.

Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas labores. Además de liberar de carga al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.

Como ya se ha dicho el EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por lo tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.

Afortunadamente, EIDE y ATA convergieron a una norma única, que después fue perfeccionada con la versión ultra ATA/33 (velocidades de transferencia de hasta 33Mbps ) y Ultra ATA/66. Esta ultima hasta hace poco se encontraba en periodo de implantación, y trata de eliminar el previsible cuello de botella que se producirá cuando las unidades de disco mas rápidas sean capaces de saturar el bus Ultra ATA/33. La nueva interfaz requerirá nuevos cables ( doblando el número de conductores de 40 a 80 ) pero no incluirá nuevas señales, usándose los conectores adicionales para la corrección de errores y mejora en la calidad de la señal.

Es necesario también tener presente que las velocidades de transferencia a las que nos estamos refiriendo no son velocidades netas de transferencia de archivos, que quedan por bastante bajo. Por ejemplo, los 33Mbps de ultra ATA/33 quedan reducidos a unos 6Mbps reales. La figura a continuación nos muestra una genealogía cinética de la interfaz IDE.

Este cuadro muestra algunas características de los estándares IDE:

ESTANDAR

VELOCIDAD DE TRANSFERENCIA

NUMERO DE DISPOSITIVOS

Ultra DMA 100

100 Mb/s

4

Ultra DMA 66

66 Mb/s

4

Ultra DMA 33

33 Mb/s

4

PIO Mode 4

16.6 Mb/s

4

PIO Mode 3

8.8 Mb/s

4

Otros avances en velocidades vienen a partir de los modos de acceso el siguiente cuadro nos muestra un resumen de esto:

MODO DE ACCESO

TRANSFERENCIA TEORICA

COMENTARIO

PIO - 0

3.3 Mb/s

En discos muy antiguos, de 100Mbo menos

PIO - 1

5.2 Mb/s

En discos antiguos, de capacidad menor de unos 400 Mb

PIO - 2

8.3 Mb/s

PIO - 3

11.1 Mb/s

Típicos en discos de capacidad entre unos 400Mb y 2Gb

PIO - 4

16.6 Mb/s

DMA - 1 multiword

13.3 Mb/s

Modos de utilidad dudosa, ya que su velocidad no es mayor que en el modo PIO - 4

DMA - 2 multiword o DMA/16

16.6 Mb/s

Ultra DMA(DMA33 o Ultra DMA modo 2)

33.3 Mb/s

El estándar hasta hace muy poco

Ultra DMA66 (ATA66 o Ultra DMA modo 4)

66.6 Mb/s

VENTAJAS Y DESVENTAJAS

La principal ventaja de los discos duros IDE es su precio. Mientras que las prestaciones de los discos IDE se van acercando poco a poco a los SCSI, su precio se mantiene mucho más bajo, generalmente entre un 30% y un 50% en unidades de igual capacidad.

Todas las placas madre del mercado llevan integradas una controladora IDE. Esto elimina la necesidad de una controladora PCI y su coste adicional. Además, prácticamente todas las placas madre del mercado tienen soporte para UDMA (Ultra Disk Matching Architecture), la cual permite transferencias de hasta 100 MB por segundo. Sin duda, las DMA's han salvado a los discos IDE. Antes de la implementación de la tecnología DMA, el procesador tenía que supervisar la transferencia de datos entre la memoria RAM y el disco duro, lo cual consumía mucho tiempo de procesado que podría emplearse en tareas de automatización A demás son mas complicadas de configurar. Las unidades de disco IDE y sus modelos Ultra DMA/33 o Ultra DMA/66 son casi igual o mas veloces que otro tipo de discos. Para la mayoría de los usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.

Otro punto es que el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CD-ROMs, escáneres y discos removibles ) mientras que otro tipo de disco admite 15 dispositivos y a modo de ejemplo el Ultra2 SCSI LVD admite 30 dispositivos).

ESTABILIDAD FISICA

Tradicionalmente los discos IDE han sido de peor calidad mecánica que los discos SCSI. Incluso hoy en día la garantía de los discos IDE es típicamente de un año , mientras que a menudo es de 3 o5 años en los discos SCSI. Aunque no es justo decir que los discos IDE están, por definición, malamente hechos uno debe saber de que los discos IDE de algunas marcas pueden fallar con mas frecuencia que los discos SCSI similares. Sin embargo, otras marcas usan exactamente la misma estructura mecánica tanto para los discos SCSI como para los discos IDE.

SUPERVIVENCIA A LOS FALLOS

La controladora IDE normalmente sobrevive a un dispositivo IDE que ha fallado. La capa RAID marcará el disco como defectuoso y, si esta trabajando con un RAID de nivel 1 o superior, la maquina debería trabajar igual de bien hasta que la desconecte para su mantenimiento. Es muy importante que sólo use un disco IDE por bus IDE. Dos discos no sólo arruinarían el rendimiento sino que, también, el fallo de un disco a menudo garantiza el fallo del bus y, por tanto, el fallo de todos los discos de ese bus. En una configuración RAID tolerante a fallos (RAID de niveles 1, 4, 5 ) el fallo de un disco se pude manejar pero el fallo de dos discos (los dos discos del bus que ha fallado debido al fallo de uno de los discos ) dejará el array inutilizable. También, el dispositivo esclavo o la controladora IDE de un bus pueden confundirse de manera horrible cuando el dispositivo maestro del bus falla. Un bus, un disco, esa es la regla.

Existen por ahí controladoras IDE PCI baratas. A menudo puede obtener 2 o 4 buses por unos 80 dólares. Considerando el precio mucho mas bajo de los disco IDE respecto a los discos SCSI, diría que un array de discos IDE podría ser una solución realmente buena si uno puede vivir con los relativamente pocos discos (unos 8 probablemente) que se pueden conectar a un sistema típico (a menos que, naturalmente, tenga muchas ranuras PCI para esas controladoras IDE).

RENDIMIENTO

El rendimiento de los discos IDE en una interfase AT (es decir, lo normal que tenemos en nuestro PC), viene determinado por dos factores: la electrónica y factores mecánicos.

En una operación típica de lectura / escritura (en acceso aleatorio, es decir al acceder a un sector del fichero que puede estar en cualquier parte del disco duro), el 90 % del rendimiento viene determinado únicamente por los factores “mecánicos”, es decir por el tiempo de “seek” (posicionamiento de la cabeza) y la velocidad de rotación. Es decir, para “leer” un determinado sector de disco, primero, la cabeza de lectura debe posicionarse en el cilindro correspondiente, (seek) y posteriormente debe esperar a que el sector que queramos leer, pase por debajo de la cabeza lectora al estar girando el disco (latencia, o “average”).

Los factores “electrónicos”, como por ejemplo el modo de acceso (PIO4, DMA, UDMA), el sistema operativo y el caché del disco representan únicamente el 10% del costo total. Por lo que estamos viendo, los factores “mecánicos” son cientos de veces mas lentos que los factores “electrónicos” y por tanto son los que tienen el mayor impacto en el rendimiento del disco.

De los dos factores mecánicos (seek y velocidad de rotación), el cambio en la velocidad de rotación es el que es mas fácilmente implementable por la industria. Las velocidades típicamente establecidas, han pasado de 3600 rpm (a mediados de los 80) a 5400 y actualmente, en los discos de ultima generación a 7200.

El cambio en la velocidad de rotación, afecta a la latencia del disco (tiempo de espera hasta que el sector buscado pasa por debajo de la cabeza del disco) y por tanto afecta a la velocidad de transferencia.

La latencia rotacional, es definida como el tiempo que la cabeza de lectura / escritura debe esperar para que el sector buscado pase por debajo de esta, una vez que la cabeza ya está posicionada en la pista correspondiente (seek). Esta se define como la mitad del tiempo de una revolución completa (average). Ya que por lógica, el sector buscado, puede estar, justo a continuación y será leído inmediatamente, o bien justo acaba de pasar y no será leído hasta la siguiente vuelta completa. Estadísticamente la “mitad” de una vuelta es el tiempo medio de lectura y así se define el “average”.

Es decir, la latencia de un disco a 5400 rpm es 5,6 milisegundos (ms), y baja a 4,2 ms en un disco de 7200 rpm. El como afecta este cambio al tiempo medio típico de acceso a un bloque de datos de 4 Kb, lo podemos saber mediante la siguiente ecuación:

I/O time = command overhead time + seek time + latency + time to transfer data

En esta ecuación, vamos a suponer que todos los factores excepto la latencia, son constantes en dos discos. Vamos a asumir que el tiempo de overhead es 0,5 ms, un seek de 9,5 ms, y una transferencia de datos de 0,3 ms para 4 Kb. (estos datos son suposiciones reales en prácticamente todos los discos actuales).

Utilizando la ecuación anterior, vemos que el tiempo a 5400 rpm para leer 4 Kb de datos es de 15,9 ms. A 7200 rpm nos baja a 14,5. Por tanto, el cambio de 5400 rpm a 7200 rpm nos representa un 10% más rápido al leer un bloque de 4 Kbs en acceso “aleatorio”.

Además, un cambio en la velocidad de rotación, también afecta a la transferencia de datos. Para simplificar, la máxima transferencia teórica, (la velocidad con la cual los datos son leídos y escritos a disco), es dependiente de la velocidad de rotación del disco, el numero de sectores por pista, el numero de superficies del disco (pistas por cilindro), y el tiempo de cambio entre cabezas y cilindros. El tiempo para completa una I/O (entrada /salida) y en particular un largo bloque de I/Os secuenciales, va a decrementarse si la transferencia del disco se incrementa. Para calcular el máximo teórico podemos utilizar la siguiente ecuación:

Máxima transferencia = sectores por pista * 0,5 / tiempo de revolución

El tiempo de revolución de un disco a 7200 rpm es 8,3 ms y es de 11,1 para 5400 rpm. Asumiendo constantes el resto de factores entre ambos discos, vemos que el aumento teórico de rendimiento es de un 33% para los accesos secuenciales.

CONCLUSIÓN

Se puede concluir que, aunque las unidades IDE van pisando los talones a las SCSI, lo cierto es que SCSI sigue ofreciendo unos tiempos de acceso a disco y velocidad mejores y más eficientes que los IDE. Por el contrario, las unidades IDE son bastante más económicas. Si a esto se añade el coste de la tarjeta controladora que hay que comprar por separado y el precio de la unidad SCSI que es mayor, la diferencia de rendimiento entre unas y otras no debería ser una consideración importante. Se puede decir que con 24 pistas de audio o menos podría perfectamente utilizar un sistema basado en IDE. Por el contrario, si se piensa trabajar con múltiples unidades de almacenamiento (4 ó más) tanto internas como externas, SCSI es la única eleccion posible, ya que IDE está limitado a 4 dispositivos internos, en los que hay que incluir los CD-ROM/RW. Como se ha comentado, un bus SCSI soportará hasta 15 dispositivos en una misma cadena SCSI, tanto internos como externos.

Algunos usuarios han decidido adoptar ambas soluciones. Usar un disco IDE más barato para la instalación del sistema operativo y programas de 40 GB por una parte de lo que les costaría una unidad SCSI del mismo tamaño. Y después, instalan una unidad más pequeña SCSI que utilizan exclusivamente para grabar audio. Con esto consiguen tener una unidad dedicada exclusivamente al audio con la que pueden trabajar en tiempo real a la vez que se aseguran espacio de almacenamiento suficiente.

BIBLIOGRAFÍA

La información que se encuentra en este informe fue obtenida principalmente de las siguientes

http://www.pchardware.org/discosduros.php

Capacidad e instalación de dispositivos

http://ditec.um.es/~piernas/manpages-es/otros/Software-RAID.HOWTO-3.html

Configuración estabilidad física rendimiento

http://club.telepolis.com/jlrosalesf/Articulo_velocidad.htm

Rendimiento

http://www.baluma.com/noticias/home17042002.asp

Noticias actuales

Los modos PIO son una mejora de una antigua norma ANSI para la transmisión de datos, y que sucesivas versiones alcanzaron la versión 4 (PIO 4). Fast ATA llego hasta PIO 3, pero usando transferencia DMA, y posteriormente fue producida la interfaz Fast ATA 2, con el consiguiente aumento de prestaciones.

Se supone IDE integrado.

IDE

EIDE

Fast ATA

Hasta PIO 4

Hasta PIO 4

Fast ATA - 2

Hasta PIO 4




Descargar
Enviado por:El remitente no desea revelar su nombre
Idioma: castellano
País: Chile

Te va a interesar