Servidor de máquinas virtuales con VmWare

Informática. Máquinas virtuales. Software de virtualización. Sistema RAID. Conversor de imágenes Ghost. Sistema Cluster. Sistemas operativos. Planes de calidad, seguridad e higiene

  • Enviado por: Crankel
  • Idioma: castellano
  • País: España España
  • 93 páginas
publicidad
cursos destacados

Cantabria en la Época Contemporánea. Política, Sociedad, Economía y Territorio
UNED
¿Te gustaría conocer los aspectos más relevantes de la historia de Cantabria? Conoce el origen y causas de su...
Solicita InformaciÓn

publicidad

PROYECTO

SERVIDOR DE MÁQUINAS VIRTUALES CON WM-WARE

INDICE

  • MEMORIAS…………………………………………………………………………………….…….……..pag. 04

  • VIRTUALIZACION. CONCEPTOS………………………………………………….………pag. 05

  • MAQUINA VIRTUAL CON SISTEMA RAID…………………………….……..……...pag. 08

  • CONVERSION DE IMÁGENES GHOST………………………..…………….….……..pag. 32

  • CREACION DE LA IMAGEN CON GHOST 10.0………………………….….……..pag. 40

  • SITEMA CLUSTER………………………………………………………………………..…….pag. 48

  • CONCEPTO, HISTORIA Y COMPONENTES......………………………………pag. 48

  • PROCESO DE VIRTUALIZACION DE UN S.O………………………………….pag. 54

  • SERVIDOR VMWARE SERVER…………………………………………………..……….pag. 70

  • PLANOS…………………………………………………………………………………………………………pag. 73

  • PLANO DE SITUACION DEL SIMO DE COLONIA…………..........................pag. 74

  • PLANO DEL AULA………………………………………………………………………………pag. 75

  • PLANO DEL PUESTO………………………………………………………….…….………..pag. 76

  • PRESUPUESTO …………………………………………………………………………….….….………..pag. 77

  • PRESUPUESTO DETALLADO………………………………………………….……………pag. 78

  • PLIEGO DE CONDICIONES……………………………………………………………....…………….pag. 79

  • CONDICIONES GENERALES………………………………………….……..…….……….pag. 80

  • ESPECIFICACIONES FACULTATIVAS……………………………………….…..……..pag. 81

  • CONDICIONES ECONOMICAS……………………………………………….……………pag. 82

  • CARACTERISTICAS Y CALIDAD DE LOS MATERIALES……..…………..……….pag. 83

  • EJECUCION DE LA OBRA………………………………………………………….…………pag. 83

  • PLAZO DE GARANTIA RECEPCION DE LA OBRA……………………………...…pag. 84

  • CONDICIONES DE CARÁCTER LEGAL Y RESPONSABILIDADES…….………pag. 84

  • PLANES DE CALIDAD, HIGIENE Y SEGURIDAD……………………………………………….. pag. 86

  • PLAN DE CALIDAD……………………………………………………………………………..pag. 87

  • IMPLANTACION DEL PLAN DE CALIDAD…………………………………………….pag. 88

  • DISEÑO DEL PLAN DE CALIDAD…………………………………………………………pag. 89

  • INTRODUCCION PLANES DE HIGIENE Y SEGURIDAD……………………….…pag. 91

  • PLAN DE HIGIENE……………………………………………………………………………...pag. 92

  • PLAN DE SEGURIDAD…………………………………………………………………………pag. 93

  • PLANIFICACION DE TAREAS: MS PROYECT……………………………………………….…..pag. 95

  • DURACION DE LAS TAREAS………………………………………………………………..pag. 96

  • SECUENCIA DE LAS TAREAS………………………………………..……………………..pag. 98

  • RECURSOS DE LAS TAREAS……………………………………..………………………pag. 100

  • MEMORIAS

    SERVIDOR DE MÁQUINAS VIRTUALES CON WM-WARE

    Virtualización

    Virtualización es un término amplio que se refiere a la abstracción de los recursos de una computadora. Este término viene siendo usado desde antes de 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos hasta capacidades o componentes individuales. El tema en común de todas las tecnologías de virtualización es la de ocultar los detalles técnicos a través de la encapsulación. Un reciente desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este maduro concepto. Existen dos tipos de virtualización:

    • Virtualización de plataforma que involucra la simulación de máquinas virtuales.

    • Virtualización de recursos que involucra la simulación de recursos combinados, fragmentados o simples.

    Virtualización de plataforma

    El sentido original del término virtualización es el de la creación de una máquina virtual utilizando una combinación de hardware y software. Para nuestra conveniencia vamos a llamar a esto virtualización de plataforma.

    La virtualización de plataforma es llevada a cabo en una plataforma de hardware mediante un software “host” (un programa de control) que simula un entorno computacional (máquina virtual) para su software “guest”. Este software “guest”, que generalmente es un sistema operativo completo, corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una máquina física dada. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente robusta como para soportar todas las interfaces externas de los sistemas guest, las cuales pueden incluir (dependiendo del tipo de virtualización) los drivers de hardware.

    Existen muchos enfoques a la virtualización de plataformas:

    Emulación o simulación: la máquina virtual simula un hardware completo, admitiendo un sistema operativo “guest” sin modificar para una CPU completamente diferente. Este enfoque fue muy utilizado para permitir la creación de software para nuevos procesadores antes de que estuvieran físicamente disponibles. La emulación es puesta en práctica utilizando una variedad de técnicas, desde state machines hasta el uso de la recopilación dinámica en una completa plataforma virtual.q

    Virtualización nativa y virtualización completa: la máquina virtual simula un hardware suficiente para permitir un sistema operativo “guest” sin modificar (uno diseñado para la misma CPU) para correr de forma aislada. Típicamente, muchas instancias pueden correr al mismo tiempo. Este enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM. Algunos ejemplos: VMware Workstation, VMware Server, Parallels Desktop, Adeos, Mac-on-Linux, Win4BSD, Win4Lin Pro y z/VM.

    Virtualización parcial (y aquí incluimos el llamado “address space virtualization”): la máquina virtual simula múltiples instancias de mucho (pero no de todo) del entorno subyacente del hardware, particularmente address spaces. Este entorno admite compartir recursos y aislar procesos, pero no permite instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y fue usado en sistemas como CTSS, el experimental IBM M44/44X, y podría decirse que en sistemas como OS/VS1, OS/VS2 y MVS.

    Paravirtualización: la máquina virtual no necesariamente simula un hardware, en cambio ofrece un API especial que solo puede usarse mediante la modificación del sistema operativo “guest”. La llamada del sistema al hipervisor tiene el nombre de “hypercall” en Xen y Parallels Workstation; está implementada vía el hardware instruction DIAG (“diagnose”) en el CMS de VM en el caso de IBM (este fue el origen del término hypervisor). Ejemplo: VMware ESX Server, Win4Lin 9x y z/VM.

    Virtualización a nivel del sistema operativo: virtualizar un servidor físico a nivel del sistema operativo permitiendo múltiples servidores virtuales aislados y seguros correr en un solo servidor físico. El entorno del sistema operativo “guest” comparte el mismo sistema operativo que el del sistema “host” (el mismo kernel del sistema operativo es usado para implementar el entorno del “guest”). Las aplicaciones que corren en un entorno “guest” dado lo ven como un sistema autónomo. Ejemplos: Linux-VServer, Virtuozzo, OpenVZ, Solaris Containers y FreeBSD Jails.

    Virtualización de aplicaciones: consiste en el hecho de correr una desktop o una aplicación de server localmente, usando los recursos locales, en una máquina virtual apropiada. Esto contrasta con correr la aplicación como un software local convencional (software que fueron “instalados” en el sistema). Semejantes aplicaciones virtuales corren en un pequeño entorno virtual que contienen los componentes necesarios para ejecutar, como entradas de registros, archivos, entornos variables, elementos de uso de interfaces y objetos globales. Este entorno virtual actúa como una capa entre la aplicación y el sistema operativo, y elimina los conflictos entre aplicaciones y entre las aplicaciones y el sistema operativo. Los ejemplos incluyen el ]]Java Virtual Machine]] de Sun, Softricity, Thinstall, Altiris y Trigence (esta metodología de virtualización es claramente diferente a las anteriores; solo una pequeña línea divisoria los separa de entornos de máquinas virtuales como Smalltalk, FORTH, Tel, P-code).

    Virtualización de los recursos

    El concepto básico de la virtualización de plataforma, descrita anteriormente, se extendió a la virtualización de recursos específicos del sistema como la capacidad de almacenamiento, nombre de los espacios y recursos de la red.

    Los términos resource aggregation, spanning o concatenation (name spaces) se utiliza cuando se combinan componentes individuales en un mayor recurso o en un recurso de uso común (resource pools). Por ejemplo:

    RAID (de el cual hablaremos posteriormente) y volume managers combinan muchos discos en un gran disco lógico.

    La Virtualización de almacenamiento (Storage virtualization) refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y es comúnmente usado en SANs (Storage Area Network). Los recursos de almacenamientos físicos son agregados al storage pool, del cual es creado el almacenamiento lógico. Múltiples dispositivos de almacenamiento independientes, que pueden estar dispersos en la red, le aparecen al usuario como un dispositivo de almacenamiento independiente del lugar físico, monolítico y que puede ser administrado centralmente.

    Channel bonding y el equipamiento de red utilizan para trabajar múltiples enlaces combinados mientras ofrecen un enlace único y con mayor amplitud de banda.

    Red privada virtual (en inglés Virtual Private Network, VPN), Traducción de dirección de red (en inglés Network Address Translation, NAT) y tecnologías de red similares crean una red virtual dentro o a través de subredes.

    Sistemas de computación multiprocessor y multi-core muchas veces presentan lo que aparece como un procesador único, rápido e independiente.

    Cluster (del cual hablaremos posteriormente) grid computing y servidores virtuales usan las tecnologías anteriormente mencionadas para combinar múltiples y diferentes computadoras en una gran metacomputadora.

    Particionamiento es la división de un solo recurso (generalmente grande), como en espacio de disco o ancho de banda de la red, en un número más pequeño y con recursos del mismo tipo más fáciles de utilizar. Esto es muchas veces llamado “zoning”, especialmente en almacenamiento de red.

    Encapsulación es el ocultamiento de los recursos complejos mediante la creación de un interfaz simple. Por ejemplo, muchas veces CPUs incorporan memoria caché o segmentación (pipeline) para mejorar el rendimiento, pero estos elementos no son reflejados en su interfaz virtual externa. Interfaces virtuales similares que ocultan implementaciones complejas se encuentran en los discos, módems, routers y otros dispositivos “inteligentes” (smart).

    Creación de una maquina virtual con sistema RAID

    ¿Qué es RAID?

    El término RAID es un acrónimo del inglés "Redundant Array of Independent Disks". Significa matriz redundante de discos independientes. RAID es un método de combinación de varios discos duros para formar una única unidad lógica en la que se almacenan los datos de forma redundante. Ofrece mayor tolerancia a fallos y más altos niveles de rendimiento que un sólo disco duro o un grupo de discos duros independientes.

    Una matriz consta de dos o más discos duros que ante el sistema principal funcionan como un único dispositivo. Un RAID, para el sistema operativo, aparenta ser un sólo disco duro lógico . Los datos se desglosan en fragmentos que se escriben en varias unidades de forma simultánea. En este método, la información se reparte entre varios discos, usando técnicas como el entrelazado de bloques (RAID nivel 0) o la duplicación de discos (RAID nivel 1) para proporcionar redundancia, reducir el tiempo de acceso, y/o obtener mayor ancho de banda para leer y/o escribir, así como la posibilidad de recuperar un sistema tras la avería de uno de los discos.

    El termino RAID fue originariamente ideado en un artículo de un grupo de investigación de la Universidad de California Berkeley. El artículo perfilaba varias configuraciones y aplicaciones RAID e introducía las definiciones de los niveles RAID, que todavía se usan. RAID se propuso para disminuir el aumento de la diferencia entre la velocidad del procesador y las unidades de disco electromecánicas, relativamente lentas. La estrategia es sustituir una unidad de disco de gran capacidad por varias unidades menores, y distribuir los datos de forma que se habiliten accesos simultáneos a los datos a través de distintas unidades, así, se mejoran las prestaciones de E/S y se posibilita un aumento más fácil de la capacidad.

    La tecnología RAID protege los datos contra el fallo de una unidad de disco duro. Si se produce un fallo, RAID mantiene el servidor activo y en funcionamiento hasta que se sustituya la unidad defectuosa.

    La tecnología RAID se utiliza también con mucha frecuencia para mejorar el rendimiento de servidores y estaciones de trabajo. Estos dos objetivos, protección de datos y mejora del rendimiento, no se excluyen entre sí.

    RAID ofrece varias opciones, llamadas niveles RAID, cada una de las cuales proporciona un equilibrio distinto entre tolerancia a fallos, rendimiento y coste.

    Todos los sistemas RAID suponen la pérdida de parte de la capacidad de almacenamiento de los discos, para conseguir la redundancia o almacenar los datos de paridad.

    RAID por software y RAID por hardware

    La distribución de datos en varios discos puede ser gestionada por hardware dedicado o por software. Además, existen sistemas RAID híbridos basados en software y hardware específico.

    Con la implementación por software, el sistema operativo gestiona los discos del conjunto a través de una controladora de disco normal (IDE/ATA, Serial ATA, SCSI o Fibre Channel). Considerada tradicionalmente una solución más lenta, con el rendimiento de las CPUs modernas puede llegar a ser más rápida que algunas implementaciones hardware, a expensas de dejar menos tiempo de proceso al resto de tareas del sistema.

    Para la implementación por software necesitaremos un sistema operativa que nos lo permita hacer como es el caso del Windows 2000, NT, XP y Vista, además de Linux.

    Una implementación de RAID basada en hardware requiere al menos una controladora RAID específica, ya sea como una tarjeta de expansión independiente o integrada en la placa base, que gestione la administración de los discos y efectúe los cálculos de paridad (necesarios para algunos niveles RAID). Esta opción suele ofrecer un mejor rendimiento y hace que el soporte por parte del sistema operativo sea más sencillo (de hecho, puede ser totalmente transparente para éste). Las implementaciones basadas en hardware suelen soportar sustitución en caliente (hot swapping), permitiendo que los discos que fallen puedan reemplazarse sin necesidad de detener el sistema.

    En los RAIDs mayores, la controladora y los discos suelen montarse en una caja externa específica, que a su vez se conecta al sistema principal mediante una o varias conexiones SCSI, Fibre Channel o iSCSI. A veces el sistema RAID es totalmente autónomo, conectándose al resto del sistema como un NAS.

    Los RAIDs híbridos se han hecho muy populares con la introducción de controladoras RAID hardware baratas. En realidad, el hardware es una controladora de disco normal sin características RAID, pero el sistema incorpora una aplicación de bajo nivel que permite a los usuarios construir RAIDs controlados por la BIOS. Será necesario usar un controlador de dispositivo específico para que el sistema operativo reconozca la controladora como un único dispositivo RAID. Estos sistemas efectúan en realidad todos los cálculos por software (es decir, los realiza la CPU), con la consiguiente pérdida de rendimiento, y típicamente están restringidos a una única controladora de disco.

    Una importante característica de los sistemas RAID por hardware es que pueden incorporar un caché de escritura no volátil (con alimentación de respaldo por batería) que permite aumentar el rendimiento del conjunto de discos sin comprometer la integridad de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo, construir RAIDs de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto de fallo más al sistema (la controladora RAID).

    Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), unidades preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID.

    Niveles de RAID

    La elección de los diferentes niveles de RAID va a depender de las necesidades del usuario en lo que respecta a factores como seguridad, velocidad, capacidad, coste, etc. Cada nivel de RAID ofrece una combinación específica de tolerancia a fallos (redundancia), rendimiento y coste, diseñadas para satisfacer las diferentes necesidades de almacenamiento. La mayoría de los niveles RAID pueden satisfacer de manera efectiva sólo uno o dos de estos criterios. No hay un nivel de RAID mejor que otro; cada uno es apropiado para determinadas aplicaciones y entornos informáticos. De hecho, resulta frecuente el uso de varios niveles RAID para distintas aplicaciones del mismo servidor. Oficialmente existen siete niveles diferentes de RAID (0-6), definidos y aprobados por el RAID Advisory Board (RAB). Luego existen las posibles combinaciones de estos niveles (10, 50, ...). Los niveles RAID 0, 1, 0+1 y 5 son los más populares.

    • RAID 0: Disk Striping "La más alta transferencia, pero sin tolerancia a fallos".

    Un RAID 0 (también llamado conjunto dividido o volumen dividido) distribuye los datos equitativamente entre dos o más discos sin información de paridad o redundancia, es decir, no ofrece tolerancia al fallo (si ocurriese alguno, la información de los discos se perdería y debería restaurarse desde una copia de seguridad). Es importante señalar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 suele usarse para la edición de vídeo ya que aumenta la velocidad de acceso a los discos. Un RAID 0 puede ser creado con discos de diferentes tamaños, pero el espacio de almacenamiento añadido al conjunto estará limitado al tamaño del disco más pequeño (por ejemplo, si un disco de 120 GB se divide con uno de 100 GB, el tamaño del conjunto resultante será 200 GB). Una buena implementación de un RAID 0 dividirá las operaciones de lectura y escritura en bloques de igual tamaño y los distribuirá equitativamente entre los dos discos. También es posible crear un RAID 0 con más de un disco, si bien la fiabilidad del conjunto será igual a la fiabilidad media de cada disco entre el número de discos del conjunto; es decir, la fiabilidad total —medida como MTTF o MTBF— es (aproximadamente) inversamente proporcional al número de discos del conjunto. Esto se debe a que el sistema de ficheros se distribuye entre todos los discos sin redundancia, por lo que cuando uno de ellos falla se pierde una parte muy importante de los datos.

    Con un RAID 0, si todos los sectores accedidos están en el mismo disco, entonces el tiempo de búsqueda será el de dicho disco. Si los sectores a acceder están distribuidos equitativamente entre los discos, entonces el tiempo de búsqueda aparente estará entre el más rápido y el más lento de los discos del conjunto, pues todos los discos necesitan acceder a su parte de los datos antes de que la operación pueda completarse. Esto podría llevar a tiempos de búsqueda cercanos al peor escenario para un único disco, salvo si los discos giran sincronizadamente, lo que daría tiempos de búsqueda sólo ligeramente superiores al de un único disco. La velocidad de transferencia del conjunto será la suma de la de todos los discos, limitada sólo por la velocidad de la controladora RAID.

    El RAID 0 es útil para configuraciones tales como servidores NFS de solo lectura en las que montar muchos discos es un proceso costoso en tiempo y la redundancia es irrelevante. Otro uso es cuando el número de discos está limitado por el sistema operativo: por ejemplo, en Microsoft Windows el número de unidades lógicas (letras) está limitado a 24, por lo que el RAID 0 es una forma de usar más discos (en Windows 2000 Professional y posteriores es posible montar particiones en directorios, de forma parecida a Unix, eliminando así la necesidad de asignar una letra a cada unidad). El RAID 0 es también una opción popular para sistemas destinados a juegos en los que se desea un buen rendimiento y la integridad no es muy importante, si bien el coste es una preocupación para la mayoría de los usuarios.

    • RAID 1: Mirroring "Redundancia. Más rápido que un disco y más seguro"

    Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos (array). Esto resulta útil cuando el rendimiento en lectura es más importante que la capacidad de escritura y también desde el punto de vista de la seguridad, pues un RAID 0 por ejemplo no es tolerante al fallo de uno de los discos, mientras que un RAID 1 sí, al disponer de la misma información en cada disco.

    Un conjunto RAID 1 es tan grande como el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos).

    Adicionalmente, dado que todos los datos están en dos o más discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como múltiplo linear del número del copias; es decir, un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (práctica que algunos denominan splitting o duplexing).

    Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los discos, bajando el tiempo de búsqueda y subiendo la tasa de transferencia, con el único límite de la velocidad soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen sólo de un disco de la pareja, por lo que su rendimiento es igual al de un único disco. Algunas implementaciones RAID 1 antiguas también leen de ambos discos simultáneamente y comparan los datos para detectar errores. La detección y corrección de errores en los discos duros modernos hacen esta práctica poco útil.

    Al escribir, el conjunto se comporta como un único disco, dado que los datos deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no mejora.

    El RAID 1 es un sistema apropiado en entornos donde la disponibilidad es crítica 24 horas al día. Aparte de los discos en espejo que crean el array en RAID 1 podemos marcar discos adicionales como reserva. Éstos se pueden definir como hot spare si queremos que estén en funcionamiento o standby hot spare, si queremos que estén en modo de espera. En el momento que alguno de los discos del espejo sufra algún fallo, uno de los discos de reserva entra a formar parte del array de discos espejo (entra instantáneamente si es un disco hot spare o tarda unos instantes si tiene que arrancar al ser un disco standby hot spare), duplicándose la información en él. Ésto requiere que la aplicación de gestión del conjunto soporte la recuperación de los datos del disco en el momento de la división, procedimiento denominado recomposición (rebuilding). Éste es menos crítico que la presencia de una característica de snapshot en algunos sistemas de ficheros, en la que se reserva algún espacio para los cambios, presentando una vista estática en un punto temporal dado del sistema de ficheros. Alternativamente, un conjunto de discos puede ser almacenado de forma parecida a como se hace con las tradicionales cintas.

    • RAID 2: "Acceso paralelo con discos especializados. Redundancia a través del código Hamming"

    El RAID nivel 2 adapta la técnica comúnmente usada para detectar y corregir errores en memorias de estado sólido. En un RAID de nivel 2, el código ECC (Error Correction Code) se intercala a través de varios discos a nivel de bit. El método empleado es el Hamming. Puesto que el código Hamming se usa tanto para detección como para corrección de errores (Error Detection and Correction), RAID 2 no hace uso completo de las amplias capacidades de detección de errores contenidas en los discos. Las propiedades del código Hamming también restringen las configuraciones posibles de matrices para RAID 2, particularmente el cálculo de paridad de los discos. Por lo tanto, RAID 2 no ha sido apenas implementado en productos comerciales, lo que también es debido a que requiere características especiales en los discos y no usa discos estándares.
    Debido a que es esencialmente una tecnología de acceso paralelo, RAID 2 está más indicado para aplicaciones que requieran una alta tasa de transferencia y menos conveniente para aquellas otras que requieran una alta tasa de demanda I/O.

    Teóricamente, un RAID 2 necesitaría 39 discos en un sistema informático moderno: 32 se usarían para almacenar los bits individuales que forman cada palabra y 7 se usarían para la corrección de errores.

    • RAID 3: "Acceso síncrono con un disco dedicado a paridad"

    Dedica un único disco al almacenamiento de información de paridad. La información de ECC (Error Checking and Correction) se usa para detectar errores. La recuperación de datos se consigue calculando el O exclusivo (XOR) de la información registrada en los otros discos. La operación I/O accede a todos los discos al mismo tiempo, por lo cual el RAID 3 es mejor para sistemas de un sólo usuario con aplicaciones que contengan grandes registros.
    RAID 3 ofrece altas tasas de transferencia, alta fiabilidad y alta disponibilidad, a un coste intrínsicamente inferior que un Mirroring (RAID 1). Sin embargo, su rendimiento de transacción es pobre porque todos los discos del conjunto operan al unísono.
    Se necesita un mínimo de tres unidades para implementar una solución RAID 3.

    • RAID 4: "Acceso Independiente con un disco dedicado a paridad."

    Basa su tolerancia al fallo en la utilización de un disco dedicado a guardar la información de paridad calculada a partir de los datos guardados en los otros discos. En caso de avería de cualquiera de las unidades de disco, la información se puede reconstruir en tiempo real mediante la realización de una operación lógica de O exclusivo. Debido a su organización interna, este RAID es especialmente indicado para el almacenamiento de ficheros de gran tamaño, lo cual lo hace ideal para aplicaciones gráficas donde se requiera, además, fiabilidad de los datos. Se necesita un mínimo de tres unidades para implementar una solución RAID 4. La ventaja con el RAID 3 está en que se puede acceder a los discos de forma individual.

    • RAID 5: "Acceso independiente con paridad distribuida."

    Un RAID 5 usa división de datos a nivel de bloques distribuyendo la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad.

    Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma división (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de división (stripe). Si otro bloque, o alguna porción de un bloque, es escrita en esa misma división, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está escalonado de una división a la siguiente, de ahí el término «bloques de paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos de operaciones de disco y tráfico entre los discos y la controladora.

    Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sería una sobrecarga innecesaria y disminuiría el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector de datos provoca un error de control de redundancia cíclica (CRC). En este caso, el sector en la misma posición relativa dentro de cada uno de los bloques de datos restantes en la división y dentro del bloque de paridad en la división se utilizan para reconstruir el sector erróneo. El error CRC se oculta así al resto del sistema. De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemáticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado «al vuelo».

    Lo anterior se denomina a veces Modo Interno de Recuperación de Datos (Interim Data Recovery Mode). El sistema sabe que un disco ha fallado, pero sólo con el fin de que el sistema operativo pueda notificar al administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecución siguen funcionando ajenas al fallo. Las lecturas y escrituras continúan normalmente en el conjunto de discos, aunque con alguna degradación de rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperación de Datos, el RAID 5 puede ser ligeramente más rápido, debido a que, cuando el CRC y la paridad están en el disco que falló, los cálculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los cálculos tienen que ser realizados en cada acceso.


    Se necesita un mínimo de tres unidades para implementar una solución RAID 5. Los niveles 4 y 5 de RAID pueden utilizarse si se dispone de tres o más unidades de disco en la configuración, aunque su resultado óptimo de capacidad se obtiene con siete o más unidades. RAID 5 es la solución más económica por megabyte, que ofrece la mejor relación de precio, rendimiento y disponibilidad para la mayoría de los servidores.


    El número máximo de discos en un grupo de redundancia RAID 5 es teóricamente ilimitado, pero en la práctica es común limitar el número de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor probabilidad de fallo simultáneo de dos discos, un mayor tiempo de reconstrucción y una mayor probabilidad de hallar un sector irrecuperable durante una reconstrucción. A medida que el número de discos en un conjunto RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser más bajo que el de un único disco. Esto sucede cuando la probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un único disco. Una alternativa que proporciona una protección de paridad dual, permitiendo así mayor número de discos por grupo, es el RAID 6.

    Algunos vendedores RAID evitan montar discos de los mismos lotes en un grupo de redundancia para minimizar la probabilidad de fallos simultáneos al principio y el final de su vida útil.

    Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que incluyen muchas escrituras más pequeñas que el tamaño de una división (stripe). Esto se debe a que la paridad debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificación y escritura tanto para el bloque de datos como para el de paridad. Implementaciones más complejas incluyen a menudo cachés de escritura no volátiles para reducir este problema de rendimiento.

    En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una división (stripe) puede quedar en un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden perderse datos debido a que se usará una paridad incorrecta para reconstruir el bloque perdido en dicha división. Esta potencial vulnerabilidad se conoce a veces como «agujero de escritura». Son comunes el uso de caché no volátiles y otras técnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad.

    • RAID 6: "Acceso independiente con doble paridad"

    Un RAID 6 amplía el nivel RAID 5 añadiendo otro bloque de paridad, por lo que divide los datos a nivel de bloques y distribuye los dos bloques de paridad entre todos los miembros del conjunto. El RAID 6 no era uno de los niveles RAID originales.

    El RAID 6 es ineficiente cuando se usa un pequeño número de discos pero a medida que el conjunto crece y se dispone de más discos la pérdida en capacidad de almacenamiento se hace menos importante, creciendo al mismo tiempo la probabilidad de que dos discos fallen simultáneamente. El RAID 6 proporciona protección contra fallos dobles de discos y contra fallos cuando se está reconstruyendo un disco. En caso de que sólo tengamos un conjunto puede ser más adecuado que usar un RAID 5 con un disco de reserva (hot spare).

    La capacidad de datos de un conjunto RAID 6 es n-2, siendo n el número total de discos del conjunto.

    Un RAID 6 no penaliza el rendimiento de las operaciones de lectura, pero sí el de las de escritura debido al proceso que exigen los cálculos adicionales de paridad. Esta penalización puede minimizarse agrupando las escrituras en el menos número posible de divisiones (stripes), lo que puede lograrse mediante el uso de un sistema de ficheros WAFL.

    Hay pocos ejemplos comerciales en la actualidad, ya que su coste de implementación es mayor al de otros niveles RAID, ya que las controladoras requeridas que soporten esta doble paridad son más complejas y caras que las de otros niveles RAID. Así pues, comercialmente no se implementa.

    Existen otros niveles de RAID que consisten en anidar dos niveles de RAID de los que hemos estudiado anteriormente. Algunos son estos:

    • RAID 0+1: "Un espejo de divisiones"

    Un RAID 0+1 (también llamado RAID 01, que no debe confundirse con RAID 1) es un RAID usado para replicar y compartir datos entre varios discos. La diferencia entre un RAID 0+1 y un RAID 1+0 es la localización de cada nivel RAID dentro del conjunto final: un RAID 0+1 es un espejo de divisiones.

    Primero se crean dos conjuntos RAID 0 (dividiendo los datos en discos) y luego, sobre los anteriores, se crea un conjunto RAID 1 (realizando un espejo de los anteriores). La ventaja de un RAID 0+1 es que cuando un disco duro falla, los datos perdidos pueden ser copiados del otro conjunto de nivel 0 para reconstruir el conjunto global. Sin embargo, añadir un disco duro adicional en una división, es obligatorio añadir otro al de la otra división para equilibrar el tamaño del conjunto.

    Además, el RAID 0+1 no es tan robusto como un RAID 10, no pudiendo tolerar dos fallos simultáneos de discos salvo que sean en la misma división. Es decir, cuando un disco falla, la otra división se convierte en un punto de fallo único. Además, cuando se sustituye el disco que falló, se necesita que todos los discos del conjunto participen en la reconstrucción de los datos.

    Con la cada vez mayor capacidad de las unidades de discos (liderada por las unidades serial ATA), el riesgo de fallo de los discos es cada vez mayor. Además, las tecnologías de corrección de errores de bit no han sido capaces de mantener el ritmo de rápido incremento de las capacidades de los discos, provocando un mayor riesgo de hallar errores físicos irrecuperables.

    Dados estos cada vez mayores riesgos del RAID 0+1 (y su vulnerabilidad ante los fallos dobles simultáneos), muchos entornos empresariales críticos están empezando a evaluar configuraciones RAID más tolerantes a fallos que añaden un mecanismo de paridad subyacente. Entre los más prometedores están los enfoques híbridos como el RAID 0+1+5 (espejo sobre paridad única) o RAID 0+1+6 (espejo sobre paridad dual). Son los mas habituales por las empresas.

    • RAID 1+0: "Una división de espejos"

    Un RAID 1+0, a veces llamado RAID 10, es parecido a un RAID 0+1 con la excepción de que los niveles RAID que lo forman se invierte: el RAID 10 es una división de espejos.

    En cada división RAID 1 pueden fallar todos los discos salvo uno sin que se pierdan datos. Sin embargo, si los discos que han fallado no se reemplazan, el restante pasa a ser un punto único de fallo para todo el conjunto. Si ese disco falla entonces, se perderán todos los datos del conjunto completo. Como en el caso del RAID 0+1, si un disco que ha fallado no se reemplaza, entonces un solo error de medio irrecuperable que ocurra en el disco espejado resultaría en pérdida de datos.

    El RAID 10 es a menudo la mejor elección para bases de datos de altas prestaciones, debido a que la ausencia de cálculos de paridad proporciona mayor velocidad de escritura.

    • RAID 30: "Una división de niveles RAID con paridad dedicada"

    El RAID 30 o división con conjunto de paridad dedicado es una combinación de un RAID 3 y un RAID 0. El RAID 30 proporciona tasas de transferencia elevadas combinadas con una alta fiabilidad a cambio de un coste de implementación muy alto. La mejor forma de construir un RAID 30 es combinar dos conjuntos RAID 3 con los datos divididos en ambos conjuntos. El RAID 30 trocea los datos en bloque más pequeños y los divide en cada conjunto RAID 3, que a su vez lo divide en trozos aún menores, calcula la paridad aplicando un XOR a cada uno y los escriben en todos los discos del conjunto salvo en uno, donde se almacena la información de paridad. El tamaño de cada bloque se decide en el momento de construir el RAID.

    El RAID 30 permite que falle un disco de cada conjunto RAID 3. Hasta que estos discos que fallaron sean reemplazados, los otros discos de cada conjunto que sufrió el fallo son puntos únicos de fallo para el conjunto RAID 30 completo. En otras palabras, si alguno de ellos falla se perderán todos los datos del conjunto. El tiempo de recuperación necesario (detectar y responder al fallo del disco y reconstruir el conjunto sobre el disco nuevo) representa un periodo de vulnerabilidad para el RAID.

    • RAID 100: "Una división de una división de espejos"

    Un RAID 100, a veces llamado también RAID 10+0, es una división de conjuntos RAID 10. El RAID 100 es un ejemplo de «RAID cuadriculado», un RAID en el que conjuntos divididos son a su vez divididos conjuntamente de nuevo.

    Todos los discos menos unos podrían fallar en cada RAID 1 sin perder datos. Sin embargo, el disco restante de un RAID 1 se convierte así en un punto único de fallo para el conjunto degradado. A menudo el nivel superior de división se hace por software. Algunos vendedores llaman a este nivel más alto un MetaLun o Soft Stripe.

    Los principales beneficios de un RAID 100 (y de los RAIDs cuadriculados en general) sobre un único nivel RAID son mejor rendimiento para lecturas aleatorias y la mitigación de los puntos calientes de riesgo en el conjunto. Por estas razones, el RAID 100 es a menudo la mejor elección para bases de datos muy grandes, donde el conjunto software subyacente limita la cantidad de discos físicos permitidos en cada conjunto estándar. Implementar niveles RAID anidados permite eliminar virtualmente el límite de unidades físicas en un único volumen lógico.

    • RAID 50:

    Un RAID 50, a veces llamado también RAID 5+0, combina la división a nivel de bloques de un RAID 0 con la paridad distribuida de un RAID 5, siendo pues un conjunto RAID 0 dividido de elementos RAID 5.

    Un disco de cada conjunto RAID 5 puede fallar sin que se pierdan datos. Sin embargo, si el disco que falla no se reemplaza, los discos restantes de dicho conjunto se convierten en un punto único de fallo para todo el conjunto. Si uno de dichos falla, todos los datos del conjunto global se pierden. El tiempo necesario para recuperar (detectar y responder al fallo de disco y reconstruir el conjunto sobre el nuevo disco) representa un periodo de vulnerabilidad del conjunto RAID.

    La configuración de los conjuntos RAID repercute sobre la tolerancia a fallos general. Una configuración de tres conjuntos RAID 5 de siete discos cada uno tiene la mayor capacidad y eficiencia de almacenamiento, pero sólo puede tolerar un máximo de tres fallos potenciales de disco. Debido a que la fiabilidad del sistema depende del rápido reemplazo de los discos averiados para que el conjunto pueda reconstruirse, es común construir conjuntos RAID 5 de seis discos con un disco de reserva en línea (hot spare) que permite empezar de inmediato la reconstrucción en caso de fallo del conjunto. Esto no soluciona el problema de que el conjunto sufre un estrés máximo durante la reconstrucción dado que es necesario leer cada bit, justo cuando es más vulnerable. Una configuración de siete conjuntos RAID 5 de tres discos cada uno puede tolerar hasta siete fallos de disco pero tiene menor capacidad y eficiencia de almacenamiento.

    El RAID 50 mejora el rendimiento del RAID 5, especialmente en escritura, y proporciona mejor tolerancia a fallos que un nivel RAID único. Este nivel se recomienda para aplicaciones que necesitan gran tolerancia a fallos, capacidad y rendimiento de búsqueda aleatoria.

    A medida que el número de unidades del conjunto RAID 50 crece y la capacidad de los discos aumenta, el tiempo de recuperación lo hace también.

    Posibilidades del RAID

    • Puede hacer:

      • RAID puede mejorar el uptime. Los niveles RAID 1, 0+1 o 10, 5 y 6 (sus variantes, como el 50) permiten que un disco falle mecánicamente y que aún así los datos del conjunto sigan siendo accesibles para los usuarios. En lugar de exigir que se realice una restauración costosa en tiempo desde una cinta, DVD o algún otro medio de respaldo lento, un RAID permite que los datos se recuperen en un disco de reemplazo a partir de los restantes discos del conjunto, mientras al mismo tiempo permanece disponible para los usuarios en un modo degradado. Esto es muy valorado por las empresas, ya que el tiempo de no disponibilidad suele tener graves repercusiones. Para usuarios domésticos, puede permitir el ahorro del tiempo de restauración de volúmenes grandes, que requerirían varios DVDs o cintas para las copias de seguridad.

      • RAID puede mejorar el rendimiento de ciertas aplicaciones. Los niveles RAID 0, 5 y 6 usan variantes de división (striping) de datos, lo que permite que varios discos atienda simultáneamente las operaciones de lectura lineales, aumentando la tasa de transferencia sostenida. Las aplicaciones de escritorio que trabajan con ficheros grandes, como la edición de vídeo e imágenes, se benefician de esta mejora. También es útil para las operaciones de copia de respaldo de disco a disco. Además, si se usa un RAID 1 o un RAID basado en división con un tamaño de bloque lo suficientemente grande se logran mejoras de rendimiento para patrones de acceso que implique múltiples lecturas simultáneas (por ejemplo, bases de datos multiusuario).

    • No puede hacer:

    • RAID no protege los datos. Un conjunto RAID tiene un sistema de ficheros, lo que supone un punto único de fallo al no ser vulnerable a una amplia variedad de riesgos aparte del fallo físico de disco, por lo que RAID no evita la pérdida de datos por estas causas. RAID no impedirá que un virus destruya los datos, que éstos se corrompan, que sufran la modificación o borrado accidental por parte del usuario ni que un fallo físico en otro componente del sistema afecten a los datos. RAID tampoco supone protección alguna frente a desastres naturales o provocados por el hombre como incendios o inundaciones. Para proteger los datos, deben realizarse copias de seguridad en medios tales como DVDs, cintas o discos duros externos, y almacenarlas en lugares geográficos distantes.

    • RAID no simplifica la recuperación de un desastre. Cuando se trabaja con un solo disco, éste es accesible normalmente mediante un controlador ATA o SCSI incluido en la mayoría de los sistemas operativos. Sin embargo, las controladoras RAID necesitan controladores software específicos. Las herramientas de recuperación que trabajan con discos simples en controladoras genéricas necesitarán controladores especiales para acceder a los datos de los conjuntos RAID. Si estas herramientas no los soportan, los datos serán inaccesibles para ellas.

    • RAID no mejora el rendimiento de las aplicaciones. Esto resulta especialmente cierto en las configuraciones típicas de escritorio. La mayoría de aplicaciones de escritorio y videojuegos hacen énfasis en la estrategia de buffering y los tiempos de búsqueda de los discos. Una mayor tasa de transferencia sostenida supone poco beneficio para los usuarios de estas aplicaciones, al ser la mayoría de los ficheros a los que se accede muy pequeños. La división de discos de un RAID 0 mejora el rendimiento de transferencia lineal pero no lo demás, lo que hace que la mayoría de las aplicaciones de escritorio y juegos no muestren mejora alguna, salvo excepciones. Para estos usos, lo mejor es comprar un disco más grande, rápido y caro en lugar de dos discos más lentos y pequeños en una configuración RAID 0.

    • RAID no facilita el traslado a un sistema nuevo. Cuando se usa un solo disco, es relativamente fácil trasladar el disco a un sistema nuevo: basta con conectarlo, si cuenta con la misma interfaz. Con un RAID no es tan sencillo: la BIOS RAID debe ser capaz de leer los metadatos de los miembros del conjunto para reconocerlo adecuadamente y hacerlo disponible al sistema operativo. Dado que los distintos fabricantes de controladoras RAID usan diferentes formatos de metadatos (incluso controladoras de un mismo fabricante son incompatibles si corresponden a series diferentes) es virtualmente imposible mover un conjunto RAID a una controladora diferente, por lo que suele ser necesario mover también la controladora. Esto resulta imposible en aquellos sistemas donde está integrada en la placa base. Esta limitación puede obviarse con el uso de RAIDs por software, que a su vez añaden otras diferentes (especialmente relacionadas con el rendimiento).

    Como montar RAID por software.

    Deberemos montar el RAID sobre uno de los sistemas operativos que permita hacer RAID, en nuestro casos utilizaremos la maquina virtual del Windows 2000 Advance Server.

    En primer lugar abriremos el Wmware Workstation y nos aparecerá la ventana con las características de la maquina virtual del sistema operativo haremos clic en Edit virtual machine settings, para añadirle más discos virtuales pues necesitamos un minimo de dos.

    'Servidor de máquinas virtuales con VmWare'

    A continuación nos aparecerá la siguiente pantalla en la que nos muestra el hardware del sistema operativo, para añadir un disco haremos clic n Add…

    'Servidor de máquinas virtuales con VmWare'

    Luego nos preguntara que tipo de hardware queremos añadir le daremos a Hard Disk y a siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Luego le daremos a crear un disco nuevo y siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Nos preguntara si queremos que sea IDE o SCSI, le damos SCSI y siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Nos preguntara que capacidad queremos darle al disco duro le daremos 1 GB y siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Le tendremos que dar un nuevo nombre a la maquina virtual y le damos a finalizar.

    'Servidor de máquinas virtuales con VmWare'

    Una vez creado haremos lo mismo añadiendo un segundo disco, pues no podemos utilizar el ya existente al estar formateado y con el sistema operativo instalado.

    Si queremos hacer RAID 5 deberemos crear otro disco duro virtud pues requiere un minimo de tres discos.

    Una vez creados los discos duros nos aparecerá la ventana con las características del hardware y con los nuevos discos.

    En este momento podremos iniciar la maquina virtual.

    Cuando este arrancada nos vamos sobre Mi PC y con hacemos con clic con botón derecho y elegimos Administrar.

    'Servidor de máquinas virtuales con VmWare'

    Se nos abrirá una ventana y le daremos en Almacenamiento.

    'Servidor de máquinas virtuales con VmWare'

    Y luego en Administrador de discos.

    'Servidor de máquinas virtuales con VmWare'

    En la ventana nos aparecerá los discos que tenemos instalados, haremos clic con el botón derecho sobre uno de los discos y le daremos a Escribir firma.

    'Servidor de máquinas virtuales con VmWare'

    Luego nos preguntara a que discos queremos dar firma elegiremos a todos

    'Servidor de máquinas virtuales con VmWare'

    A continuación les debemos convertir a dinámicos para poder hacer el RAID, para ello haremos clic con el botón derecho sobre uno de los discos y damos a Actualizar a disco dinamico.

    'Servidor de máquinas virtuales con VmWare'

    Nox preguntara que discos queremos convertir a dinámicos, daremos a todos.

    'Servidor de máquinas virtuales con VmWare'

    Ahora ya podremos hacer el RAID.

    Sobre un disco duro haremos clic con el botón derecho y le daremos a crear volumen.

    'Servidor de máquinas virtuales con VmWare'

    Y nos aparece un asistente, le damos a siguiente y nos pregunta que tipo de volumen le queremos dar, elegiremos reflejado o RAID 5 y siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Y nos pregunta con que disco queremos hacerlo, una vez elegidos los discos y el tamaño destinado al RAID le damos a siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Nos preguntara la letra que queremos asignar al nuevo volumen, le daremos a siguiente.

    'Servidor de máquinas virtuales con VmWare'

    Y nos preguntara que formato queremos darle.

    'Servidor de máquinas virtuales con VmWare'

    Luego nos aparece una ventana con todas las características que le hemos dado al volumen y le damos a Finalizar, a continuación hará el formateo de la unidad y cuando acabe ya estará listo. Nos aparecerá esta pantalla con el nuevo volumen.

    'Servidor de máquinas virtuales con VmWare'

    En el caso que hayamos elegido RAID 5 nos aparecerá esta otra pantalla.

    'Servidor de máquinas virtuales con VmWare'

    Cerraremos esta ventana y ya podremos disfrutar de nuestro sistema RAID.

    Convertir imagen Ghost

    Instalamos el programa VmWare Importer para convertir la imagen creada por el programa Symantec Norton Ghost 10.0, de extensión sv2i. El método de conversión también es posible efectuarlo con el programa VmWare Workstation ya que también reconoce ese tipo de extensión.

    El proceso de instalación es el mismo para todos los programas:

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    Ejecutamos ahora el programa Importer para escoger la imagen de recuperación del equipo, en este caso Windows Xp Home Edition y así crear con el una maquina virtual.

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    'Servidor de máquinas virtuales con VmWare'

    Así hemos acabado la conversión, que como hemos comentado antes se podria efectuar con el programa Workstation.

    Creación de la Imagen con Ghost 10.0

    Instalamos el programa Norton Ghost 10.0 de Symantec.

    Ahora seguimos el proceso para crear la imagen del sistema operativo, en este caso Windows Xp Home Edition.

    Así tenemos los archivos imagen.

    Historia de los Sistemas Clusters

    'Servidor de máquinas virtuales con VmWare'
    Evolución de los clusters

    En los primeros clusters de PCs como los sistemas tipo Beowulf se empleaba la tecnología LAN Ethernet existente cuyo costo había mejorado al punto que los clusters armados eran factibles de implementar. Sin embargo, su ancho de banda pico de 10 Mbps era sólo adecuada para las aplicaciones débilmente acopladas y algunos sistemas ensamblaron múltiples redes Ethernet en paralelo a través del software conocido como "canal enlazado" que multiplicaba los canales disponibles en un nodo de forma transparente al código de la aplicación mientras que resultaba un ancho de banda significativamente mayor al que proporcionaba un solo canal.

    Esos primeros sistemas estaban lejos de la perfección pero eran útiles. Aún estos primeros clusters exhibían una ventaja precio-rendimiento respecto a las supercomputadoras contemporáneas que se acercaba a un factor de 50 en casos especiales mientras que el rendimiento sostenido por nodo para aplicaciones reales era de un factor que variaba entre 3% y 50% de los sistemas costosos con el mismo número de procesadores. Pero el rápido mejoramiento en el desempeño de los microprocesadores de las PCs y los avances en las redes locales han llevado a los sistemas a un rendimiento de decenas y aún cientos de Gigaflops mientras mantienen excepcionales beneficios precio-rendimiento. Precisamente, con el surgimiento del Fast Ethernet con ancho de banda pico de 100Mbs y la disponibilidad de concentradores a bajo costo y switches a costo moderado, los clusters se volvieron prácticos y fueron útiles para un rango creciente de aplicaciones.

    Actualmente, los clusters permiten una flexibilidad de configuración que no se encuentra normalmente en los sistemas multiprocesadores convencionales. El número de nodos, la capacidad de memoria por nodo, el número de procesadores por nodo, y la topología de interconexión, son todos parámetros de la estructura del sistema que puede ser especificada en detalle en una base por nodo sin incurrir en costos adicionales debidos a la configuración personalizada.

    Los clusters también permiten una rápida respuesta a las mejoras en la tecnología. Cuando los nuevos dispositivos, incluyendo procesadores, memoria, disco y redes están disponibles se pueden integrar a los nodos del cluster de manera fácil y rápida permitiendo que sean los sistemas paralelos que primero se benefician de tales avances. Lo mismo se cumple para los beneficios de un mejoramiento constante en el rubro de precio-rendimiento en la tecnología. Los clusters son actualmente la mejor opción para seguir la pista de los adelantos tecnológicos y responder rápidamente a las ofertas de nuevos componentes.

    Beowulf - El primer cluster de computadoras de escritorio.

    El primer cluster fue desarrollado por la NASA y estaba formado por 16 nodos DX4 conectados en una canal ethernet, el máximo poder de procesamiento era de un GigaFLOP (Floting Point Operation/sec.) y se desarrollo como parte del proyecto Beowulf Cluster en el verano de 1994 para el desarrollo en ciencias de la tierra y el espacio.

    El proyecto fue iniciado por Thomas Sterling y Don Becker (1994) del Center of Excellence in Space Data and Information Sciences (CESDIS), bajo el patrocinio del Proyecto Earth and Space Sciences (ESS), quienes construyeron éste primer cluster de 16 nodos, conectados por un canal Ethernet a 10 Mbps, al que llamaron Beowulf.

    La puesta en marcha de éste primer cluster Beowulf no fue una tarea sencilla ya que se enfrentaron a diferentes problemas, desconocidos hasta entonces. Primero, los procesadores eran demasiado rápidos para las tarjetas de red y los equipos de comunicación. En busca de una solución a este problema, Becker modificó los controladores de las tarjetas Ethernet para el sistema operativo Linux, con el fin de crear un controlador que permitiera distribuir el tráfico de la red en dos o más tarjetas, con la finalidad de balancear el sistema. En aquella época fue necesario realizar este proceso porque se contaba con una red de 10 Mbps y un protocolo de comunicación Ethernet. Migrar a otros protocolos de red más eficientes, implicaba costos muy elevados.

    Básicamente, lo que se buscaba era proporcionar a los usuarios sistemas consistentes en componentes que se tenían a disposición o que podían conseguir fácilmente en el mercado cibernético (COTS, por sus siglas en inglés commodity off the shelf), abriendo la posibilidad de satisfacer las necesidades de cómputo paralelo. Esto tuvo un gran éxito y la idea se propagó rápidamente a través de la National Aeronautics and Space Administration (NASA) y los grupos académico y científico. La aceptación inmediata dio origen a lo que se conoció como proyecto Beowulf.

    CLUSTER

    El término cluster se aplica a los conjuntos o conglomerados de computadoras construidos mediante la utilización de componentes de hardware comunes y que se comportan como si fuesen una única computadora.

    El cómputo con clusters surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, así como la creciente necesidad de potencia computacional para aplicaciones que la requieran.

    Simplemente, cluster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un único ordenador, más potente que los comunes de escritorio. De un cluster se espera que presente combinaciones de los siguientes servicios:q

  • Alto rendimiento (High Performance)

  • Alta disponibilidad (High Availability)

  • Equilibrio de carga (Load Balancing)

  • Escalabilidad (Scalability)

  • La construcción de los ordenadores del cluster es más fácil y económica debido a su flexibilidad: pueden tener la misma configuración de hardware y sistema operativo (cluster homogéneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (cluster semi-homogéneo), o tener diferente hardware y sistema operativo (cluster heterogéneo).

    Para que un cluster funcione como tal, no basta solo con conectar entre sí los ordenadores, sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de interactuar con el usuario y los procesos que corren en él para optimizar el funcionamiento.

    Componentes de un Cluster

    En general, un cluster necesita de varios componentes de software y hardware para poder funcionar. A saber:

    • Nodos (los ordenadores o servidores)

    • Sistemas Operativos

    • Conexiones de Red

    • Middleware (capa de abstracción entre el usuario y los sistemas operativos)

    • Protocolos de Comunicación y servicios.

    • Aplicaciones (pueden ser paralelas o no)

    Nodos

    Pueden ser simples ordenadores, sistemas multi procesador o estaciones de trabajo (workstations).

    Sistema Operativo

    Debe ser multiproceso, multiusuario. Otras características deseables son la facilidad de uso y acceso.

    Ejemplos:

    • GNU/Linux

      • OpenMosix

      • Rocks (una distribución especializada para clusters).

      • Kerrighed

    • Unix: Solaris / HP-Ux / Aix

    • Windows NT / 2000 / 2003 Server

    • Mac OS X

    • Cluster OS's especiales

    Conexiones de Red

    Los nodos de un cluster pueden conectarse mediante una simple red Ethernet con placas comunes (adaptadores de red o NICs), o utilizarse tecnologías especiales de alta velocidad como Fast Ethernet, Gigabit Ethernet, Myrinet, Infiniband, SCI, etc. Es una red normal que permite conectarse a las computadoras.

    Middleware

    El middleware es un software que generalmente actúa entre el sistema operativo y las aplicaciones con la finalidad de proveer a un cluster lo siguiente:

    • una interfaz única de acceso al sistema, denominada SSI (Single System Image), la cual genera la sensación al usuario de que utiliza un único ordenador muy potente;

    • herramientas para la optimización y mantenimiento del sistema: migración de procesos, checkpoint-restart (congelar uno o varios procesos, mudarlos de servidor y continuar su funcionamiento en el nuevo host), balanceo de carga, tolerancia a fallos, etc.;

    • escalabilidad: debe poder detectar automáticamente nuevos servidores conectados al cluster para proceder a su utilización.

    Existen diversos tipos de middleware, como por ejemplo: MOSIX, OpenMOSIX, Cóndor, OpenSSI, etc.

    El middleware recibe los trabajos entrantes al cluster y los redistribuye de manera que el proceso se ejecute más rápido y el sistema no sufra sobrecargas en un servidor. Esto se realiza mediante políticas definidas en el sistema (automáticamente o por un administrador) que le indican dónde y cómo debe distribuir los procesos, por un sistema de monitorización, el cual controla la carga de cada CPU y la cantidad de procesos en él.

    El middleware también debe poder migrar procesos entre servidores con distintas finalidades:

    • balancear la carga: si un servidor está muy cargado de procesos y otro está ocioso, pueden transferirse procesos a este último para liberar de carga al primero y optimizar el funcionamiento;

    • mantenimiento de servidores: si hay procesos corriendo en un servidor que necesita mantenimiento o una actualización, es posible migrar los procesos a otro servidor y proceder a desconectar del cluster al primero;

    • priorización de trabajos: en caso de tener varios procesos corriendo en el cluster, pero uno de ellos de mayor importancia que los demás, puede migrarse este proceso a los servidores que posean más o mejores recursos para acelerar su procesamiento.

    Concepto de los algoritmos de clustering

    El clustering es una técnica estadística que permite una generación automática de grupos en los datos. Incluso, existen algoritmos de clustering que permiten la generación de grupos jerárquicos, consiguiendo una mayor abstracción y representación de la información para poder recuperarla más eficiente.

    En cuanto a los factores que influyen en el clustering son: 

    Propiedades o atributos a gestionar de los objetos que representan el conjunto de datos. 

    Función matemática que mide la distancia entre dos objetos. Las funciones típicas son la distancia Manhattan, la distancia Euclídea, el producto escalar y demás.  

    Las restricciones a las que está sujeto el conjunto de datos a clasificar, principalmente una a destacar: la elección del número de clusters: existen muchos criterios y todos ellos basados en heurísticas basadas en el cálculo de distancias entre los objetos.

     

    Uso del clustering en la extracción de información

    En la extracción de la información la técnicas basadas en clustering son muy comunes para aquellos casos donde no existan conjuntos de entrenamiento, la información cambia dinámicamente o se pretende extraer propiedades o clases de información.  

    En el dominio de la extracción de la información se distinguen dos aplicaciones muy útiles:

     

    Extracción de correferencias en los nombres de una frase . Se trata de relacionar nombre y pronombres que se refieren a la misma persona, cosa, lugar, fecha... Por ejemplo, en la frase "Bill Clinton fue a Nigeria para hablar con los trabajadores del SIDA. Después, el presidente de USA y su mujer fueron de viaje a China..." se tiene una primera clase que es Bill Clinton y una serie de nombres y pronombres que le referencian: "el presidente de USA" y "su". Sacar relaciones de texto es un problema NP-duro, pero mediante técnicas de clustering y mediante la adición de restricciones, se puede resolver con bastante menor costo computacional, tanto en tiempo como en memoria.

     

    Correferencias de frases en diferentes documentos. Recuperar cadenas de caracteres en distintos ficheros y que hagan referencia al mismo contexto. Esto es de gran utilidad para los buscadores y recuperadores de información que actualmente incluye el Windows Vista y anteriormente Mac OS, la recuperación de información no sólo consiste en el nombre del archivo, sino que también comprueba la información y el contexto de dentro de cada archivo o fichero.

    Proceso de clusterización de un S.O.

    Utilizamos el S.O. Windows 2000 Advanced Server para efectuar el proceso de cluster con la documentación obtenida en la Web de WmWare. Cabe destacar que el proceso se inicia con VmWare Workstation y se continua, al implementar el servicio de cluster en W2k AS, con VmWare Server, ya que es el unico que soporta estructura de cluster.

    Creación del primer nodo de la base de máquina virtual

    Los siguientes pasos describen cómo crear la base de máquina virtual que sirve como el primer nodo del clúster (y como una plantilla para el nodo adicional), así como los archivos de los dos discos duros virtuales que se repartirán entre las máquinas virtuales en el clúster.

    Nota: Los discos virtuales utilizados para almacenar el sistema operativo y software de clustering para cada máquina virtual (nodo) en el grupo no tiene que ser discos “planos”. Disco “plano” (en adelante plano), son los discos duros virtuales cuya forma es una imagen binaria (ISO).

    1.-Iniciar sesión en el host Wmware Server como el usuario que va a la propia máquina virtual.

    2.-Inicie la consola local y crear una nueva máquina virtual. Elija las opciones que desea (por ejemplo, el tamaño del disco virtual o la cantidad de memoria), con la excepción que debe especificar

    * Windows 2000 Advanced Server como el Sistema Operativo de Huéspedes.

    * SQL1 como nombre de la máquina virtual (en un host de Windows).

    * La máquina virtual como directorio d: \ cluster \ SQL1 (en un host de Windows).

    * SQL1 como el nombre de archivo de disco (en un host de Windows).

    * Puente de redes para la máquina virtual.

    3.-Abra el Editor de Configuración. Elija Opciones> Editor de Configuración.

    4.-Añadir un nuevo adaptador de red que utiliza el otro adaptador externo o en el de acogida-VMnet1 sólo adaptador. (Para completar el aislamiento de la acogida, también puede utilizar cualquier conmutador Ethernet virtual, a través de VMnet2 típicamente VMnet7.)

    Esta se utilizará como conexión Ethernet privada virtual para la supervisión del núcleo del cluster.

    5.-Añadir los dos archivos de los discos que han de ser compartidos:

    * Un disco de datos compartidas (lo llamaremos data.pln, por ejemplo)

    * Un disco de quórum compartido (lo llamaremos quorum.pln, por ejemplo) para almacenar las transacciones antes de que se han comprometido a los datos del disco.

    En el inciso posterior se indica como crear discos planos en Wmware Server.

    6.-Guardar los cambios y cerrar el Editor de Configuración.

    7.-Editar manualmente el fichero de configuración / o home/cluster/SQL1/SQL1.cfg d: \ cluster \ SQL1 \ SQL1.vmx usando un editor de texto.

    8.-Añadir la siguiente línea a la parte inferior del archivo de configuración:

    Scsi1.sharedBus = “virtual”

    Disk.locking = "false"

    Esto permite SCSI reserva, que se describe con más detalle en la sección de reserva de Uso de SCSI para discos SCSI Compartir Con Máquinas Virtuales.

    *** Inciso. Adición de discos planos a una máquina virtual

    Discos planos son un tipo de disco virtual que proporciona el rendimiento más rápido máquina virtual. Desde que en todo el espacio en el disco cuando se crea el disco plano, el disco plano funciona más rápido en una máquina virtual que un disco virtual estandar. Además, el tiempo que tarda en instalar el sistema operativo de clientes se reduce. El inconveniente es que es necesario que usted tenga todo el espacio que desea asignar al disco plano disponible al crear el disco. Además, los discos son mas sencillos de crear, cuanto más grande es el disco, más tiempo que se necesita para crear.

    Otro ámbito en el que son un lugar de reserva es SCSI (y configuraciones de alta disponibilidad). VMware soporta SCSI reserva cuando se utiliza con los discos planos; el apoyo a la reserva SCSI con discos virtuales en bruto y se considera experimental.

    Cualquier disco plano que se ha creado en el Server puede ejecutarse en máquinas virtuales creadas en virtud de Server y puede ser compartido a través de SCSI reserva.

    Para crear un disco sencillo, siga los pasos a continuación para su sistema operativo anfitrión. Usted necesita especificar el tamaño del disco plano de hasta 128GB. Recuerde que, a diferencia de los discos virtuales, que crecen como los datos se incluyen en ellos, todo el espacio de disco es para ocupar en el anfitrión se asigna cuando se crea el disco.

    El disco se compone de por lo menos 2 archivos, un. Pln archivo y uno o más. Dat. El. PLN es un archivo de texto que los mapas. Dat correspondientes a los sectores del disco plano. Dat archivo o archivos que contienen los datos para el disco. Cada archivo Dat está limitado a 2 GB de tamaño. Si el disco plano (llamado, por ejemplo, plaindisk.pln) es superior a 2 GB, entonces su. Dat se dividen en grupos de 2 GB de archivos de datos llamado plaindisk1.dat, plaindisk2.dat, plaindisk3.dat y así sucesivamente.

    Windows Host

    Para crear un disco sobre Windows, que utiliza el Asistente para agregar nuevo hardware en el Editor de Configuración. Cuando se va a crear el nuevo disco virtual, usted debe hacer una selección específica. Siga los pasos a continuación.

    Conectarse a la máquina virtual con una consola a continuación, seleccione Opciones> Editor de Configuración para abrir el Editor de Configuración.


    Haga clic en Agregar para empezar a añadir un disco plano. Abrir el asistente para agregar nuevo hardware.


    Elija un tipo de hardware de disco duro y haga clic en Siguiente.
    Seleccione Crear un nuevo disco virtual y haga clic en Siguiente.

    'Servidor de máquinas virtuales con VmWare'



    Especifique el tamaño del disco, compruebe todas las Asignar espacio en el disco ahora y haga clic en Siguiente.

    'Servidor de máquinas virtuales con VmWare'



    Si lo prefiere, es posible cambiar el nombre del disco plano.

    'Servidor de máquinas virtuales con VmWare'





    Si se va a configurar el disco para ejecutarse en un nodo específico, haga clic en Opciones avanzadas; es preferible que escojamos SCSI 1:1 para el disco data y SCSI 1:2 para el disco llamado quore, que será el núcleo del cluster.

    Especifique el nodo, a continuación, haga clic en Finalizar.
    Potencia de la máquina virtual y el formato de disco sencillo.

    Haga clic en Aceptar para guardar la configuración y cerrar el Editor de Configuración.

    El nuevo disco aparece a su huésped como un disco duro en blanco en el sistema operativo nuevo. Utilice los clientes las herramientas del sistema operativo para particionar y formatear la unidad nueva para su uso, de la siguiente forma:

    • Boton derecho del ratón en Mi PC > Administrar > Administrador de discos.

    • Elegimos el disco data y el quore y les activamos (botón derecho en cada uno de ellos).

    • Iniciamos la consola para crear particiones y formateamos en NTFS.

    En caso de compartir este disco de la agrupación, instalar y configurar software de clustering en el disco plano.

    Instalar el Sistema Operativo en la Primera Virtual Machine (Nodo 1)

    Seguimos estos pasos para instalar Windows 2000 Advanced Server en la máquina virtual que es el primer nodo de su grupo:

    1.-Inserte el CD de Windows 2000 Advanced Server en la unidad de CD-ROM sobre el Wmware Server anfitrión.

    2.-Conectarse a la máquina virtual con una consola local o remota.

    3.-Registrarse como usuario que ha creado la máquina virtual o como root o administrador.

    4.-Haga clic en power on.

    5.-Instalar Windows 2000 Advanced Server en el disco conectado a scsi0.

    6.-Aceptar todas las opciones por defecto durante la instalación.

    Nota: No instale la agrupación de los servicios complementarios de Windows 2000 AS en este momento.

    7.-Cuando la instalación se haya completado, instalar VMware Tools en el sistema operativo invitado. Se hace constar que debemos instalar las Tools dos veces debido a que el VmWare Server es mas avanzado que el Workstation donde se crea el cluster por primera vez.

    8.-Eliminar el CD de Windows 2000 Advanced Server de la unidad de CD-ROM.

    Clonacion del primer nodo de la máquina virtual:

    1.-Ejecutar sysprep.exe, que está disponible en el CD de Windows 2000 en el archivo \ apoyo \ herramientas \ deploy.cab (o desde el sitio Web de Microsoft).

    En este caso buscamos el archivo deploy.cab y lo trasladamos al escritorio, alli una vez descomprimido ejecutamos el sysprep.exe.

    El sysprep.exe utilidad elimina la seguridad de identificación asignado a los clientes del sistema operativo, se reinicia la máquina y se reinicia la información de TCP / IP configuración de la red.

    Cuando esta aplicación ha dejado de trabajar forzaremos la detención de la maquina virtual mediante el botón de stop del VmWare Server.

    2.-Apaga el sistema operativo invitado y apagar la máquina virtual.

    3.-Crear un directorio llamado SQL2 dentro del grupo de directorios.

    4.-Copie el SQL1 *. vmdk archivos en este directorio.

    5.-Cambiar los nombres de archivo a SQL2 *. vmdk. En nuestro caso no es posible crear una maquina virtual nueva con los nombres cambiados por lo que usaremos el nuevo disco virtual con el nombre original, por lo que se llamaran los discos virtuales SQL1.vmdk pero estarán en diferentes carpetas.

    Creación del segundo nodo del clúster utilizando el clon del primer nodo:

    1.-Iniciar sesión en el host Server como el usuario que va a la propia máquina virtual.

    2.-Inicie la consola local y crear una nueva máquina virtual. Elija las opciones que desea (por ejemplo, el tamaño del disco virtual o la cantidad de memoria), con la excepción que debe especificar

    * Windows 2000 Advanced Server como el Sistema Operativo de Huéspedes.

    * SQL2 como nombre de la máquina virtual (en un host de Windows).

    * La máquina virtual como directorio d: \ cluster \ SQL2 (en un host de Windows).

    * Para utilizar un disco virtual existente. Haga clic en Examinar y seleccione SQL2.vmdk (al no poder cambiar el nombre será SQL1.vmdk).

    * Puente de redes para la máquina virtual (Bridged Ethernet).

    3.-Abra el Editor de Configuración. Elija Opciones> Editor de Configuración.

    4.-Añadir un nuevo adaptador de red que utiliza el otro adaptador externo o en el de acogida: VMnet1 sólo adaptador (Host Only).

    5.-Añadir los dos discos duros virtuales compartidos de cluster (quorum.pln y data.pln) que creó anteriormente. Utilice un disco virtual existentes y explorar quorum.pln y data.pln.

    6.-Haga clic en Aceptar para guardar la configuración y cerrar el Editor de configuración y consola.

    7.-Editar manualmente el archivo de configuración d: \ cluster \ SQL2 \ SQL2.vmx (en un host de Windows)

    8.-Añadir la siguiente línea a la parte inferior del archivo de configuración:

    Scsi1.sharedBus = “virtual”

    Disk.locking = "false"

    Esto permite SCSI reserva, que se describe con más detalle en la sección de reserva de Uso de SCSI para discos SCSI Compartir Con Máquinas Virtuales.

    9.-Conectar a la interfaz de administración de VMware (http:// <hostname>), y revisar la página del monitor de estado. Si usamos la interface del Server.

    La interfaz de gestión debe enumerar las máquinas virtuales y mostrarlas como apagadas.

    Instalación de la Agrupación de Servicios de Microsoft en el primer nodo de su grupo:

    1.-Inicie el nodo 1 máquina virtual.

    2.-Siga el asistente de inicio de Windows 2000 Advanced Server donde introduciremos:

    • El nombre de host (SQL1).

    • Las direcciones IP de la red pública y privada adaptadores.

  • En este caso las IP del primer adaptador de red serán:

  • Dirección IP: 192.168.222.11

    Mascara de subred: 255.255.255.0

    Puerta de enlace predeterminada: 192.168.2.1

    DNS: 192.168.2.1

  • Y las del segundo adaptador:

  • Dirección IP: 10.0.0.2

    Mascara de subred: 255.0.0.0

    Puerta de enlace predeterminada: 192.168.204.1 (La IP del adaptador físico del la maquina virtual, el que se encuentra en el servicio de redes del equipo que soporta el VmWare Server).

    DNS: 10.0.0.2

    Nota: Para el adaptador público de red, escriba una dirección IP que pertenece a la red física. Esto es importante para que haya conexión entre los dos nodos. En nuestro caso incluiremos la IP 10.0.0.2 y la mascara de subred es 255.0.0.0. Para la dirección IP privada, puede utilizar una dirección como 192.168.xx con una máscara de subred de clase C (255.255.255.0). Debemos incluir la IP del adaptador de red virtual VMnet1.

    3.-Al final del proceso, Windows se reinicia automáticamente.

    4.-Inicie el Administrador de Discos de Win2k AS y cambiar ambos discos compartidos como discos básicos. Accedemos a el mediante el botón derecho del ratón en Mi PC y de aquí a Administrar.

    5.-Formato ambos discos virtuales compartidos con NTFS en caso de que no estén ya en formato.

    6.-Asignar el primer disco compartido a Q: (quórum) y en el segundo disco de R: (data).

    Si se ha unido a esta máquina virtual para un dominio de Active Directory, vaya al paso 11.

    7.-Ejecute dcpromo.exe desde el símbolo del sistema. Esto inicia el Asistente para Active Directory.

    8.-Configure la actual máquina como un controlador de dominio. Para el nombre de dominio usamos vmcluster.simon.com es su dominio DNS y vmcluster es su dominio de Active Directory, y como contraseña “simon”.

    Este nodo se puede configurar como un nuevo árbol de dominio y también un nuevo dominio de los bosques, o puede unirse a los ya existentes.

    9.-Asegúrese de que el servidor DNS está instalado, así cuando el asistente nos pida configurar el DNS le decimos que si.

    10.-Establezca el dominio de modo mixto al asignarle permisos.

    11.-Para añadir un grupo en la cuenta de servicios de dominio, vaya a Programas> Herramientas administrativas> Active Directory Usuarios y Computadoras.

    12.-Agregar cuenta de servicio de un grupo llamado “grupo”:

    * Introduzca la contraseña del usuario (“simon”).

    * Activar casilla: El usuario no puede cambiar la contraseña.

    * Activar casilla: La contraseña nunca caduca.

    Creamos dentro del grupo “grupo” un usuario que se llama “user” con la contraseña “simon”, este usuario tendrá privilegios de administrador, administrador de dominio y de empresa.

    13.-Inserte el CD Windows 2000 Advanced Server en el servidor de la unidad de CD-ROM.

    14.-Elija Panel de control> Agregar o quitar programas.

    15.-Seleccione Agregar o quitar componentes de Windows.

    16.-Compruebe el componente Servicio de Cluster.

    17.-Haga clic en Siguiente y siga las instrucciones para instalar el servicio.

    Al llegar a este paso, el servicio de cluster de W2k AS no reconoce los discos duros virtuales compartidos, por lo que debemos editar el fichero de configuración de la maquina virtual en uso (*.vmx) y añadirle las siguientes líneas:

    Scsi0:1.shared = "true"
    scsi0:2.shared = "true"

    scsi0:0.reslckname = "/tmp/scsi0-0.reslock"

    diskLib.dataCaheMaxSize = “0”

    Esta información la encontramos en un blog llamado Cluster in a Box con VMware Server.

    Una vez editado el *.vmx reiniciamos la maquina y continuamos con el paso 14.

    18.-Como se puede configurar el Servicio de Cluster, elija una Nueva Forma de Cluster.

    19.-Especifique el nombre de grupo: SQLCLUSTER.

    20.-Especificar la cuenta de servicio de clúster creado en el paso 12.

    21.-Especifica que los dos discos compartidos deben ser gestionados por el grupo de servicios.

    22.-Indique el disco compartido (Q:) a ser el disco de núcleo del cluster.

    23.-Especifica que adaptador de red es que es público y privado.

    24.-Especifique la dirección IP de clúster. Esta es la dirección que representará a la agrupación. Debe ser en la misma red que el de la física dispositivo Ethernet (con mascara de subred: 255.255.255.0) En este caso la IP ha sido 192.168.222.50.

    25.-Detener el servicio en la agrupación local de nodo (nodo 1), de forma que la segunda máquina virtual (nodo 2) pueden acceder a los discos compartidos.

    * Desde el Cluster Manager, clic con el botón derecho el nombre de nodo.

    * Seleccione Detener Servicio de Cluster.

    Se ha terminado la instalación de Agrupación de Servicios de Microsoft en el primer nodo.

    Los pasos para instalar el software en el segundo nodo son similares.

    1.-Inicie el nodo 2 máquina virtual.

    2.-Repita el paso 2 y el paso 3 en el procedimiento para el primer nodo.

    3.-Inicie el Administrador de Discos y asignar el primer disco compartido a Q: (quórum) y en el segundo disco de R: (data).

    4.-Inicio dcpromo.exe y añadir esta máquina virtual como un controlador de dominio en el mismo dominio creado en el paso 8, o añadirlo a un dominio existente.

    Nota: La configuración en el nodo 2 debe coincidir con la configuración en el nodo 1, que se ejecutó en el paso 8.

    Los servicios de red deben estar configurados de la siguiente forma:

    • En este caso las IP del primer adaptador de red serán:

    Dirección IP: 192.168.222.22

    Mascara de subred: 255.255.255.0

    Puerta de enlace predeterminada: 192.168.2.1

    DNS: 192.168.2.1

    • Y las del segundo adaptador:

    Dirección IP: 10.0.0.3

    Mascara de subred: 255.0.0.0

    Puerta de enlace predeterminada: 192.168.204.1 (La IP del adaptador físico del la maquina virtual, el que se encuentra en el servicio de redes del equipo que soporta el VmWare Server).

    DNS: 10.0.0.2

    5.-En el nodo 1 máquina virtual, inicie el servicio de clúster.

    * Desde el Cluster Manager, clic con el botón derecho el nombre de nodo.

    * Seleccione Inicio del Servicio de Cluster.

    6.-En la máquina virtual nodo 2, repita el paso 14 a paso 24 en Agrupación de Servicios de Instalación de Microsoft Cluster Por Nodos, con una excepción: En el paso 18, seleccione Únase a un grupo y seleccionamos el grupo SQLCLUSTER.

    Ahora está acabado de configurar el grupo.

    *** Inciso: Implementación del archivo de configuración de la maquina virtual para la creación del sistema cluster.

    Es importante reseñar que el los archivos .vmx de las maquinas virtuales debemos modificarlos para que el SO reconozca los discos virtuales planos y se cree el cluster mediante el asistente. Incluimos una copia de un blog de Internet.

    << Cluster in a Box con VMware Server

    Tras mucho romperme la cabeza finalmente he conseguido que los discos compartidos de ambos nodos sean vistos como uno sólo por las dos máquinas Windows Server 2003 Enterprise Edition que pertenecen a un clúster.

    Como siempre es la falta de tiempo, que nos condiciona tanto, lo que me ha llevado a tardar tanto en ver las 4 líneas que hay que añadir a los archivos vmx para que la cosa funcione bien. Hay que reconocer que los nuevos manuales de administración de VMware Server Beta (en el momento que escribo, la Beta 3) están muy bien y se han reescrito en buena parte desde las últimas versiones de GSX de donde provienen.

    Aquí pongo las líneas dichosas para gozo y disfrute de todos.


    'Compartir Bus SCSI. No compartir el 0.
    scsi1.sharedBus = "virtual"

    'Compartir los diferentes discos que pertenezcan al clúster.
    scsi1:1.shared = "true"
    scsi1:2.shared = "true"
    scsi1:3.shared = "true"

    disk.locking = "false"

    'Sobre cada nombre de archivo de disco:
    scsi1:0.fileName = "//vmSCSI.vmdk"
    'Generar un archivo de nombre de bloqueo en la ruta \masa de disco
    scsi1:0.reslckname = "/tmp/scsi1-0.reslock"

    'Desactivar la caché de disco
    diskLib.dataCaheMaxSize = “0”
    >>

    Así pues en los archivos *.vmx incluiremos estos datos:

    Scsi0.sharedBus = "virtual"

    Scsi0:1.shared = "true"
    scsi0:2.shared = "true"

    disk.locking = "false"

    scsi0:0.reslckname = "/tmp/scsi0-0.reslock"

    diskLib.dataCaheMaxSize = “0”

    La configuración de Active Directory es:

    Nombre de dominio AD: vmcluster

    Dominio: vmcluster.dominio.com

    Servidor Wmware

    VMware Server le permite particionar un servidor físico en varias máquinas virtuales y comenzar a experimentar los beneficios de la virtualización.

    Beneficios de VMware Server

    • Aprovisionar un nuevo servidor en minutos sin tener que invertir en nuevo hardware.

    • Ejecutar aplicaciones y sistemas operativos Windows y Linux en el mismo servidor físico.

    • Aumentar la utilización de un servidor físico.

    • Más máquinas virtuales desde un host físico a otro sin reconfiguración.

    Con VMware Server puede:

    • Optimizar el desarrollo y las pruebas de software al permitir que los desarrolladores creen múltiples entornos con diferentes sistemas operativos en el mismo servidor.

    • Evaluar software en máquinas virtuales listas para ejecutarse sin realizar instalaciones ni configuraciones.

    • Realbergar sistemas operativos heredados como Windows NT Server 4.0 y Windows 2000 Server en una máquina virtual que se ejecuta en un nuevo hardware y sistema operativo.

    • Simplificar el aprovisionamiento de servidores al crear una máquina virtual una vez e implementarla muchas veces.

    • Aprovechar accesorios virtuales preconstruidos y listos para ejecutarse que incluyen hardware, sistema operativo y entornos de aplicación virtuales. Los accesorios virtuales para Web, archivos, impresión, DNS, correo electrónico, proxy y otros servicios de infraestructura se encuentran disponibles para la descarga VMware Virtual Appliances.

    Los servidores utilizados para ejecutar aplicaciones de infraestructura de TI normalmente utilizan menos del 10% de su capacidad. Este es el resultado de las mejores prácticas comunes que indican ejecutar cada aplicación en un servidor dedicado. Los servidores se utilizan de esta manera para evitar los desafíos de compatibilidad, seguridad y capacidad de administración que se presentan al ejecutar múltiples aplicaciones en cada servidor.

    Por esta razón, los data centers enfrentan el crecimiento desmedido de servidores subutilizados que se deben aprovisionar, mantener y monitorear.

    El software de infraestructura virtual de VMware ofrece una solución para consolidar la infraestructura subutilizada de servidores y controlar su crecimiento desorganizado. El software de VMware permite que múltiples máquinas virtuales se ejecuten independiente y simultáneamente sobre el mismo hardware. Al consolidar aplicaciones de manera confiable en menos servidores, se reducen sustancialmente los costos, aumenta la flexibilidad, y mejora la capacidad de respuesta de TI.

    'Servidor de máquinas virtuales con VmWare'

    El software de virtualización de VMware hace posible reemplazar una gran cantidad de servidores físicos.

    Para poder utilizar el servidor de maquinas virtuales debemos tener instalado el VmWare Server en el ordenador que va ha hacer de servidor y en el ordenador del cliente el VmWare Server Console.

    En el servidor nos aseguraremos que los servicios de VmWare en automático.

    'Servidor de máquinas virtuales con VmWare'

    El servidor también deberá tener una IP y servidor DNS fija.

    'Servidor de máquinas virtuales con VmWare'

    Para poder acceder al servidor debemos de disponer una cuenta creada en el servidor, con un nombre de usuario y una contraseña.

    Luego con el VmWare Server Console introduciremos la IP del servidor y los datos de la cuenta.

    'Servidor de máquinas virtuales con VmWare'

    Ya estaremos metidos en el servidor y podremos iniciar cualquiera de las maquinas virtuales disponibles.

    'Servidor de máquinas virtuales con VmWare'

    PLIEGO DE CONDICIONES

    SERVIDOR DE MÁQUINAS VIRTUALES CON WM-WARE

  • CONDICIONES GENERALES

  • En este capítulo se va ha hacer referencia a la ejecución del proyecto, según la aplicación de las normas vigentes, calidad de materiales, disposiciones legales, etc.

    • Artículo 1: El presente pliego de condiciones forma parte del proyecto de montaje de un documental, y será objeto a tener en cuenta en los procesos de realización del mismo.

    • Artículo 2: La empresa nombrara a un director técnico con el debido nivel técnico, cuya misión consistirá en supervisar, responder y atender cualquier problema que surja durante el montaje de la unidad.

    • Artículo 3: Cualquier variación que se pretendiera efectuar sobre la obra proyectada deberá ser puesta previamente en conocimiento del director técnico, sin cuyo consentimiento no se llevara a cabo. En caso contrario la parte ejecutante responderá de las consecuencias que ello originase.

    • Artículo 4: Se entregara al fabricante un ejemplar completo del proyecto libre de gastos. La aceptación de este proyecto supone la aceptación del anteproyecto anteriormente presentado.

    La dirección técnica se reserva el derecho a realizar cualquier modificación para mejorar el desarrollo del proyecto.

    • Artículo 5: El personal contratado para llevar a cabo el montaje y la puesta en servicio será lo suficientemente especializado para realizar la instalación, de acuerdo con las exigencias del proyecto.

    • Artículo 6: La ejecución del proyecto se realizara con acuerdo con las normas especificadas, no se tendrán en cuenta las exigencias o trabajos adicionales, que correrán a cuenta de la empresa montadora.

    No se dará por concluida la obra hasta que no se hayan terminado todas las pruebas y correcciones para que el sistema funcione correctamente.

    • Artículo 7: El montador tiene el deber y la obligación de cumplir los preceptos relativos al contrato de trabajo y de los accidentes, pudiéndose solicitar las correspondientes credenciales para verificar estos cumplimientos.

    • Artículo 8: Los trabajos que ocasionen costes adicionales no les podrán realizar el contratista sin una autorización de la dirección técnica.

  • ESPECIFICACIONES FACULTATIVAS

    • Artículo 1: El proyecto técnico se realizara bajo la dirección de un técnico superior en telecomunicaciones, o bien otra persona con cargo superior y con conocimientos sobre informática.

    • Artículo 2: El personal encargado del montaje será lo suficientemente especializado para llevar a cabo dicho montaje, de acuerdo con las exigencias del proyecto.

    • Artículo 3: La ejecución del proyecto se realizara dé acuerdo con las normas especificadas y no se tendrán en cuenta, por lo tanto, las exigencias de trabajos adicionales que correrán a cuenta de la empresa montadora.

    • Artículo 4: No se dará por finalizada la ejecución del proyecto hasta haber corregido todos los defectos de los elementos a fin de obtener tanto el funcionamiento, como el rendimiento adecuado.

    • Artículo 5: La normativa de carácter general aplicable a este proyecto se observara dé acuerdo con los siguientes reglamentos, los cuales se tendrán en cuenta para la realización de los trabajos y/o en los contratos particulares que se lleven a cabo, según las siguientes disposiciones:

    • Real Decreto 1938/1984 del 4 de julio sobre medidas de seguridad en entidades y establecimientos públicos y privados.

    • Ordenanza de Seguridad e Higiene en el Trabajo (aprobada por O.M. del 9 de marzo de 1971.

    • Reglamento Electrotécnico para Baja Tensión aprobado por Decreto del 10de septiembre de 1973, con las instrucciones complementarias MI-BT vigentes en este momento.

    • Notas Técnicas de Prevención editadas por el Instituto Nacional de Seguridad e Higiene en el Trabajo referentes al presente proyecto técnico.

    • Disposiciones y Normativa vigentes de aplicación establecidas por las autoridades locales con jurisdicción sobre las obras a realizar.

    En caso de discrepancias entre algunas condiciones impuestas en las disposiciones señaladas prevalecerá la más restrictiva.

    • Artículo 6: Toda la instalación debe hacerse siguiendo las indicaciones de la ley 11/98, General de Telecomunicaciones (BOE Nº99 del 25 de Abril de 1998).

    • Artículo 7: Una vez contratadas el montaje y antes del replanteo del mismo, se procederá a nombrar al técnico superior director de la obra.

    • Artículo 8: El autor del proyecto técnico se reserva el derecho de poder realizar todas las modificaciones que estime oportunas siempre que lo considere y con vistas a lograr un mejoramiento del mismo.

    • Artículo 9: El adjudicatario de este proyecto técnico podrá solicitar la revisión de los precios unitarios si su pretensión está respaldada por la normativa legal vigente, promulgada con fecha posterior a la de su oferta, que servirá de base para el adjudicatario a su favor. El mismo derecho asistirá a la administración en caso contrario.

    • Artículo 10: Lo mencionado en el pliego de condiciones técnicas particulares y omitido en los planos o viceversa deberá ser ejecutado como si estuviera en ambos documentos. En caso de contradicción entre el documento de planos y el pliego de condiciones, prevalecerá lo escrito en este último.

  • CONDICIONES ECONÓMICAS

    • Artículo 1: Va a ser la administración la que se encargara de administrar y verificar el pago de los distintos montajes de que se compone la instalación completa, en el periodo de las fechas que se indican, por certificado aprobado y expedido por la dirección técnica.

    • Artículo 2: Una vez convenido el contrato de trabajo, la dirección técnica dispondrá de 15 días a partir de la adjudicación para comprobar las distintas características.

    • Artículo 3: Como condición fundamental se establece en principio que el contratista deba percibir el importe de todos los trabajos ejecutados, siempre que estos se hayan realizado con arreglo y sujeción al proyecto y condiciones generales y particulares que rijan la instalación.

  • DISPOSICIONES REFERENTES A LAS CARACTERÍSTICAS Y CALIDAD DE LOS MATERIALES.

    • Artículo 1: El montador está obligado a aceptar las medidas de seguridad que exigen las leyes vigentes sobre materia de seguridad e higiene en el trabajo.

    El instalador será el responsable de todos los accidentes que por inexperiencia o descuido se produjeran.

    • Artículo 2: Todos los equipos serán los que vienen especificados en las hojas de características, debiendo ser dichos equipos del modelo y marca especificados en dichas hojas.

    Si fuese necesario colocar equipos no especificados en las hojas, se deberá solicitar permiso a la dirección técnica.

    • Artículo 3: Para garantizar las calidades exigidas la dirección técnica exigirá el certificado de calidad de todo el material empleado.

    • Artículo 4: La dirección técnica deberá revisar todos los materiales colocados en la instalación, así como la calidad de los materiales recibidos.

    Los materiales que no cumplan los requisitos de calidad serán devueltos.

  • EJECUCIÓN DE LA CONTRATA

    • Artículo 1: Todos los trabajos se efectuaran de acuerdo a lo establecido por la memoria y los planos del proyecto, así como los planos que pueda introducir el director de obra.

    • Artículo 2: Todo contratista deberá estar permanentemente en contacto o hacerse fácilmente localizable por el director de obra, desde el comienzo de la instalación hasta su finalización.

    • Artículo 3: El contratista responderá del montaje en curso hasta su entrega a la propiedad.

    • Artículo 4: Los trabajos que no hayan sido realizados según la norma y conforme a la cláusula y condiciones del concurso, así como las indicaciones de planos, calidad de los materiales, resistencias, pruebas necesarias y otras características serán rechazadas y reconstruidos de acuerdo con la dirección técnica.

    • Artículo 5: Si el director de obra tuviese razones fundadas para creer la existencia de fallos ocultos en la parte del proyecto ejecutada, podrá efectuar en cualquier tiempo y antes de la recepción del proyecto, las correcciones y pruebas que sean necesarias.

    Los gastos correrán a cargo del contratista si dichos fallos existiesen, sino correrán a cargo del propietario o del director técnico.

  • DISPOSICIONES SOBRE EL PLAZO DE GARANTÍA RECEPCIÓN DE OBRA

    • Artículo 1: Una vez terminada la ejecución del montaje, el plazo de garantía será de seis meses. Durante ese plazo, todos los gastos de reparación a que hubiere lugar correrán por cuenta del contratista, así como los gastos de conservación y defectos en la instalación.

    La garantía dejara de tener validez si la avería es por uso o manipulación indebida.

    • Artículo 2: El técnico superior no será responsable ante la propiedad, de la demora de los organismos competentes en la tramitación y homologación del proyecto técnico, ni tampoco de la tardanza de su aprobación. La cuestión de la tramitación se considera ajena al técnico superior.

    El técnico superior firmante del proyecto no reconoce derechos de indemnización, en cuanto a la avería no se haya producido como consecuencia de un error en él calculo.

    De igual forma, el montador y la dirección técnica no reconocerán derechos de indemnización por uso indebido o por utilización de elementos ajenos.

    • Artículo 3: Todo litigio ante la dirección técnica, la propiedad y el fabricante como consecuencia del incumplimiento del contrato en cuanto a plazos de entrega, condiciones de pago, reclamaciones de daños y perjuicios... se refiere, están solventados por vía judicial.

  • CONDICIONES DE CARÁCTER LEGAL Y RESPONSABILIDADES

    • Artículo 1: El pago de impuestos cuyo pago debe hacerse durante el tiempo de proceso de instalación y por conceptos inherentes a los propios trabajos que se realizan, correrá a cargo de la firma ejecutante, siempre que en las condiciones particulares del proyecto no se estipule lo contrario. No obstante, este deberá ser integrado del importe de todos estos conceptos una vez concluido y entregado el proyecto.

    • Artículo 2: Se considera causa de restricción las que a continuación se señalan:

    1.- La quiebra de la firma ejecutora o incluso del propietario.

    2.- Las alteraciones del contrato por modificaciones del proyecto de forma tal que representen alteraciones del mismo y en cualquier caso, siempre que la variación del presupuesto de ejecución, como consecuencia de estas modificaciones, represente él más o menos del 25% del total.

    3.- El incumplimiento de las condiciones del contrato cuando implique descuido o mala fe con perjuicio del proyecto.

    4.- La mala fe en la ejecución de los trabajos.

    • Artículo 3: Responsabilidad general y especial.

    La responsabilidad por incumplimiento de los artículos anteriores y demás disposiciones que rijan en materia de seguridad e higiene en el trabajo, abarca, en general a todos los trabajadores y empresarios.

    • Artículo 4: Responsabilidad patrimonial de las empresas

    Las responsabilidades empresariales de contenido económico recaerán directamente o indirectamente sobre el patrimonio individual o social de la empresa respectiva.

    • Artículo 5: Personas responsables en las empresas.

    La responsabilidad de los empresarios por infracciones en materia de seguridad e higiene no excluirá a las personas que trabajen a su servicio, siempre que a cualquiera de ellas pueda serle imputada, por acción u omisión, la infracción cometida.

    • Artículo 6: Problemas de carácter legal.

    Todos los problemas o discrepancias de carácter legal que surjan durante la ejecución de la contrata serán dirimidos por el Juzgado Provincial de la ciudad de Burgos.

    PLANES DE CALIDAD, HIGIENE Y SEGURIDAD

    Plan de calidad

    Comenzaremos señalando las posibles deficiencias que pueden surgir en la calidad del servicio:

    1.- La dirección evalúa mal las expectativas de los clientes

    2.- Las normas de calidad no reflejan de modo adecuado las percepciones de la empresa.

    3.- La puesta en práctica del servicio no responde a las normas de calidad

    4.- El servicio recibido no responde a lo prometido por la entidad.

    La valoración de la calidad del servicio por parte de los clientes se fundamenta en una serie de factores:

    · De especial importancia son los aspectos tangibles. Los elementos que el cliente puede sentir, tocar le sirven de referencia para valorar la calidad del servicio. El aspecto del lugar de trabajo, de los empleados, del material escrito que le proporcionan, son indicadores de calidad para el cliente.

    · Fiabilidad. Ausencia de errores. Recibir el servicio sin errores es un aspecto fundamental en la valoración del servicio.

    · La atención rápida y responsable.

    · La sensación de seguridad. El consumidor debe sentir que está siendo atendido por un profesional con los conocimientos adecuados.

    · La cortesía del personal y el trato recibido por parte del personal.

    · Empatía. El identificarse con el cliente y ver a través de los ojos del cliente. La búsqueda de un servicio esmerado que reconozca y comprenda las necesidades del cliente

    Implantación del plan de calidad

    La implantación de un plan de calidad, consiste en un conjunto de principios, métodos y recursos organizados estratégicamente para movilizar a toda la empresa, con el fin de satisfacer las necesidades del cliente al mínimo coste.

    La puesta en práctica del plan de calidad se desarrolla en una serie de etapas e implica la coordinación de numerosas actividades y personas:

    1.- Diagnosis del problema. Partimos del análisis de las tareas críticas y de los elementos generadores de errores.

    2.- Participación del personal. Las aportaciones de todos los miembros del grupo es algo importante.

    3.- Fijación de Objetivos. Es preciso definir claramente, de forma precisa y numérica los objetivos. Por ejemplo el tiempo máximo para realizar una tarea concreta.

    4.- Control y evaluación. Se establece un sistema de medición para comprobar regularmente el cumplimiento de los objetivos dentro de un tiempo mínimo en donde no exista el error.

    Es por tanto, preciso medir regularmente la calidad del servicio, para comprobar el cumplimiento del plan y en su caso tomar medidas correctoras.

    El proceso de medición de la calidad del servicio suele incorporar varios elementos:

    · Establecer las principales dimensiones del servicio.
    · Medir las expectativas
    · Medir las percepciones del cliente
    · Evaluar la importancia que los clientes asignan a cada atributo.
    · Analizar la percepción de los clientes respecto a empresas competidoras.

    Debemos garantizar un servicio dentro de los límites pactados por el cliente, con un normal funcionamiento de los productos ofrecidos sin que el cliente tenga que acudir al mantenimiento de dicho producto por problemas técnicos.

    Diseño del Plan de Calidad

    La puesta en práctica de un plan de calidad, puede exigir el rediseño de los procedimientos de trabajo y de los puestos de trabajo. Para la puesta en práctica de este rediseño de los procesos es preciso:

    · Analizar los procesos que desarrolla la empresa desde la perspectiva del cliente. Estudiando como los diferentes procesos y tareas aportan valor al cliente.

    · Analizar las diferentes tareas que componen los procedimientos. Estudiando con especial atención los incidentes críticos. Aquellas etapas de los procedimientos donde se producen los errores.

    · Eliminar tareas. Ciertas tareas pueden ser eliminadas mediante una reorganización de los métodos de trabajo.

    · Rediseñar tareas. Algunas tareas críticas deben ser rediseñadas para mejorar la calidad, la atención a los clientes y la rapidez en la respuesta.

    · Establecer procedimientos. Fijar normas y procedimientos.

    El análisis de los procesos y el establecimiento de procedimientos forman parte de los procesos de certificación de calidad que tiene los siguientes aspectos fundamentales:

    El servicio se presta respondiendo a unas especificaciones establecidas, y mediante una organización orientada a la satisfacción del cliente, se establecen unos parámetros de exigencia. Estos parámetros se van a medir y controlar de forma continua. Se van a adoptar medidas correctoras si procede.

    Existen cauces específicos para atender a los clientes en sus disconformidades e informarles de las acciones emprendidas.

    El establecimiento de un sistema de calidad total no se queda en el establecimiento y análisis de unos procedimientos o normas sino que comporta un proceso continuo de control de calidad.

    1. Investigación final para conocer cuáles son sus estándares exigidos a la calidad de cada producto o servicio.

    2. Comunicar a los empleados las acciones para alcanzar el nivel de calidad
    Y comunicar los resultados que se van obteniendo.

    3. Creación de incentivos y reconocimientos para motivar a los trabajadores. Fomentar la orientación al cliente no sólo como filosofía sino estableciendo incentivos y reconocimientos. Es preciso poner los recursos necesarios para acompañar a las declaraciones de calidad.

    4. Control periódico de las desviaciones. Medición continuada de los resultados obtenidos y comparación con los objetivos establecidos en el plan.

    5. Compromiso de la dirección para solucionar los problemas. Es imprescindible el compromiso de la dirección con el sistema de calidad. El compromiso exige alinear los incentivos, formación, evaluación de los empleados con la satisfacción del cliente.

    Introducción

    En nuestro proyecto realizado por el Grupo 1 del grado superior de telecomunicación se ha trabajado en la creación de un sistema digital de máquinas virtuales con diversos apartados importantes. Este proyecto no implica ningún aspecto importante en cuanto a las cuestiones de seguridad e higiene puesto que se a trabajado exclusivamente con material informático (cds y ordenadores). Las únicas reseñas que se pueden tener en cuenta son:

    En el aspecto de higiene, tener el entorno (clase) limpio y ordenado para así facilitar el trabajo a los trabajadores. Además con esta higiene se refuerza la calidad del material a utilizar y la seguridad que ello implica.

    En el aspecto de seguridad, debemos de tener un claro punto a tratar. Ya que tratamos con equipo electrónicos, debemos tener en cuenta los siguientes puntos básicos:

    • Evitar riesgos causados por el tendido eléctrico, por lo que debemos tener un previo estudio de seguridad de las instalaciones eléctricas del aula, así como un departamento de seguridad encargado del plan de prevención y evacuación en el aula, en este caso se trata del profesorado. Si se encontrase algún posible riesgo, se debería avisar a un servicio de mantenimiento electrónico.

    • El centro deberá tener en su edificio un plan de señalización e infraestructura para la evacuación del edificio.

    • Ya dentro de los parámetros del proyecto, como estamos trabajando con ordenadores deberemos crear nuestra propia seguridad con el equipo. Deberemos utilizar debidamente los materiales que vayamos a utilizar, sin deteriorarlos.

    • Dentro del aspecto de software: es importante tener una seguridad interna de recuperación de datos o almacenamiento seguro de estos, ya que nunca se sabe si en algún momento podemos perder todos los puntos realizados en el proyecto, ya que se trata de un proyecto dentro de un sistema operativo dentro de los ordenadores.

    Una vez descritos los principales puntos del proyecto, se procede a un plan de seguridad e higiene global para cualquier trabajo.

    Plan de higiene

    Un plan de higiene del trabajo por lo general cubre el siguiente contenido:

    1) Un plan organizado: involucra la presentación no sólo de servicios médicos, sino también de enfermería y de primeros auxilios, en tiempo total o parcial, según el tamaño de la empresa.

    2) Servicios médicos adecuados: abarcan dispensarios de emergencia y primeros auxilios, si es necesario. Estas facilidades deben incluir:

    ¨ Exámenes médicos de admisión
    ¨ Cuidados relativos a lesiones personales, provocadas por incomodidades profesionales
    ¨ Primeros auxilios
    ¨ Eliminación y control de áreas insalubres
    ¨ Registros médicos adecuados
    ¨ Supervisión en cuanto a higiene y salud
    ¨ Relaciones éticas y de cooperación con la familia del empleado enfermo
    ¨ Utilización de hospitales de buena categoría
    ¨ Exámenes médicos periódicos de revisión y chequeo

     3) Prevención de riesgos para la salud:

     ¨ Riesgos químicos (intoxicaciones, dermatosis industriales)
    ¨ Riesgos físicos (ruidos, temperaturas extremas, radiaciones ionizantes y no ionizantes)
    ¨ Riesgos biológicos (microorganismos patógenos, agentes biológicos, etc)
     
    4) Servicios adicionales: como parte de la inversión empresarial sobre la salud del empleado y de la comunidad, incluyen:

     ¨ Programa informativo destinado a mejorar los hábitos de vida y explicar asuntos de higiene y de salud. Supervisores, médicos de empresas. Enfermeros y demás especialistas, podrán dar informaciones en el curso de su trabajo regular

    ¨ Programa regular de convenios o colaboración con entidades locales, para la prestación de servicios de radiografías, recreativos, conferencias, películas, etc
    ¨ Verificaciones interdepartamentales - entre supervisores, médicos y ejecutivos - sobre señales de desajuste que implican cambios de tipo de trabajo, de departamento o de horario

    ¨ Previsiones de cobertura financiera para casos esporádicos de prolongada ausencia del trabajo por enfermedad o accidente, por medio de planes de seguro de vida colectivo, o planes de seguro médico colectivo, incluyéndose entre los beneficios sociales concedidos por la empresa. De este modo, aunque esté alejado del servicio, el empleado recibe su salario normal, que se completa mediante este plan,

    ¨ Extensión de beneficios médicos a empleados pensionados, incluidos planes de pensión o de jubilación.

     Recordemos que la higiene en el trabajo busca conservar y mejorar la salud de los trabajadores en relación con la labor que realicen, y ésta está profundamente influida por tres grupos de condiciones:

    Condiciones ambientales de trabajo: Son las circunstancias físicas que cobijan al empleado en cuanto ocupa un cargo en la organización. Es el ambiente físico que rodea al empleado mientras desempeña su cargo. Los tres items más importantes en este aspecto son: iluminación, condiciones atmosféricas (temperatura) y ruido. Otros agentes contaminantes pueden ser químicos (intoxicaciones, dermatosis industriales, etc) y biológicos (agentes biológicos, microorganismos patógenos, entre otros

    Condiciones de tiempo: duración de la jornada de trabajo, horas extras, períodos de descanso, etc.

     Condiciones sociales: Son las que tienen que ver con el ambiente o clima laboral (organización informal, estatus, etc).

     La higiene del trabajo se ocupa del primer grupo, las condiciones ambientales de trabajo, aunque no descuida en su totalidad los otros dos grupos.


     Plan de seguridad

     Un plan de seguridad implica, necesariamente, los siguientes requisitos:

     1) La seguridad en sí , es una responsabilidad de línea y una función de staff frente a su especialización,

    2) Las condiciones de trabajo, el ramo de actividad, el tamaño, la localización de la empresa, etc, determinan los medios materiales preventivos.

    3) La seguridad no debe limitarse sólo al área de producción. Las oficinas, los depósitos, etc, también ofrecen riesgos, cuyas implicaciones atentan a toda la empresa.

     4) El problema de seguridad implica la adaptación del hombre al trabajo (Selección de Personal), adaptación del trabajo al hombre (racionalización del trabajo), más allá de los factores sociopsicológicos, razón por la cual ciertas organizaciones vinculan la seguridad a Recursos Humanos.


     5) La seguridad del trabajo en ciertas organizaciones puede llegar a:

    - Movilizar elementos para el entrenamiento y preparación de técnicos y operarios
    - Control de cumplimiento de normas de seguridad
    - Simulación de accidentes
    - Inspección periódica de los equipos de control de incendios, primeros auxilios y elección, adquisición y distribución de vestuario del personal en determinadas áreas de la organización.

    6) Es importante la aplicación de los siguientes principios:


      ¨ Apoyo activo de la Administración. Con este apoyo los supervisores deben colaborar para que los subordinados trabajen con seguridad y produzcan sin accidentes.

    ¨ Mantenimiento del personal dedicado exclusivamente a la seguridad.

    ¨ Instrucciones de seguridad para cada trabajo.

    ¨ Instrucciones de seguridad a los nuevos empleados. Éstas deben darlas los supervisores, en el lugar de trabajo.

    ¨ Ejecución del programa de seguridad por intermedio d la supervisión.

    ¨ Integración de todos los empleados en el espíritu de seguridad. Aceptación y asimilación por parte de los empleados, por medio de la divulgación de éste espíritu de prevención.

    ¨ Extensión del programa de seguridad fuera de la compañía. (Eliminación de las consecuencias de los accidentes ocurridos fuera del trabajo)

    62