Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Software RAID Como

Descargar como txt, pdf o txt
Descargar como txt, pdf o txt
Está en la página 1de 28

RAID-Software CMO

Jakob stergaard, jakob@ostenfeld.dk


piernas@ditec.um.es
v. 0.90.3 - Alpha, 22 mayo 1999
Este CMO describe cmo usar un RAID software bajo Linux. Debera usar
los parches RAID disponibles en ftp://ftp.fi.kernel.org/pub/linux/dae
mons/raid/alpha. El CMO original en ingls se puede encontrar en
http://ostenfeld.dk/~jakob/Software-RAID.HOWTO/.
______________________________________________________________________
ndice general

1. Introduccin
1.1 Renuncia de responsabilidad
1.2 Requisitos
2. Por qu RAID?
2.1 Detalles tcnicos
2.2 Trminos
2.3 Niveles RAID
2.3.1 Discos de reserva
2.4 Espacio de intercambio (
3. Asuntos hardware
3.1 Configuracin IDE
3.2 Cambio de discos en
3.2.1 Intercambio en
3.2.2 Intercambio en
3.2.3 Intercambio en

caliente
caliente
caliente
caliente

(
de dispositivos IDE
(
con SCA

4. Configuracin de RAID
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8

Configuracin general
Modo lineal
RAID-0
RAID-1
RAID-4
RAID-5
El superbloque persistente
Tamaos de segmento unitario
4.8.1 RAID-0
4.8.2 RAID-1
4.8.3 RAID-4
4.8.4 RAID-5
4.9 Opciones de
4.10 Autodeteccin
4.11 Arrancar desde RAID
4.11.1 Mtodo 1
4.11.2 Mtodo 2
4.12 Dificultades
5. Comprobacin
5.1 Simulacin de un fallo de disco
5.2 Simulacin de corrupcin de datos
6. Rendimiento
6.1
6.2
6.3
6.4

RAID-0
RAID-0 con TCQ
RAID-5
RAID-10

7. Agradecimientos
8. Anexo: El INSFLUG

______________________________________________________________________
1. Introduccin

Este CMO ha sido escrito por Jakob stergaard basndose en un gran


nmero de mensajes de correo entre el autor, Ingo Molnar
(mingo@chiara.csoma.elte.hu) -- uno de los desarrolladores de RAID --,
la lista de correo linux-raid (linux-raid@vger.rutgers.edu) y diversas
personas.
La razn por la que se ha escrito este CMO, a pesar de existir ya un
RAID-Software CMO es que el anterior describe el estilo antiguo de
RAID por software, presente en los ncleos existentes. Este CMO
describe el uso del nuevo estilo de RAID que se ha desarrollado ms
recientemente. ste nuevo estilo de RAID tiene muchas caractersticas
no presentes en el anterior.
Parte de la informacin de este CMO le puede parecer trivial si es un
entendido en RAID. Sltese esas partes.
1.1. Renuncia de responsabilidad
La declinacin obligatoria de responsabilidades:
Aunque el cdigo RAID tratado aqu me ha parecido ser estable, y para
muchas otras personas, puede no funcionar para Usted. Si pierde todos
sus datos, su trabajo, es golpeado por un camin o cualquier otra
cosa, no ser culpa ma ni de los desarrolladores. Concincese de que
usa el software RAID y esta informacin por su cuenta y riesgo!. No
hay ningn tipo de garanta de que ningn software ni esta informacin
sean correctos en modo alguno, ni adecuados para cualquier tipo de uso
en particular. Haga copia de seguridad de sus datos antes de
experimentar con esto. Ms vale prevenir que lamentarse.
1.2. Requisitos
Este CMO asume que est usando alguna de las ltimas versiones 2.2.x
o 2.0.x del ncleo con un parche raid0145 acorde y la versin 0.90 del
paquete raidtools. Ambos se pueden encontrar en
ftp://ftp.fi.kernel.org/pub/linux/daemons/raid/alpha. El parche RAID,
el paquete raidtools y el ncleo deben concordar tanto como sea
posible. En ocasiones puede ser necesario usar un ncleo antiguo si no
hay parches raid disponibles para el ltimo.
2. Por qu RAID?

Puede haber muchas buenas razones para usar RAID. Unas pocas son: la
posibilidad de combinar varios discos fsicos en un nico dispositivo
virtual ms grande, o mejoras en el rendimiento y redundancia.
2.1. Detalles tcnicos
El RAID de Linux puede funcionar sobre la mayora de los dispositivos
de bloque. No importa si usa dispositivos IDE, SCSI o una mezcla de
ambos. Incluso algunas personas han usado dispositivo de bloque en
red (Network Block Device, NBD) con diferentes grados de xito.
Asegrese de que el bus (o buses) de los discos son lo suficientemente
rpidos. No debera tener 14 discos UW-SCSI en un nico bus UW, si
cada disco puede dar 10MB/s y el bus slo puede sostener 40MB/s.
Adems, slo debera tener un dispositivo por bus IDE. El uso de
discos como maestro/esclavo es funesto para el rendimiento. IDE es
realmente ineficiente accediendo a ms de un disco por bus.
Naturalmente, todas las placas madre modernas tienen dos buses IDE,
por lo que puede configurar dos discos en RAID sin comprar ms
tarjetas controladoras.
La capa RAID no tiene absolutamente nada que ver con la capa del
sistema de ficheros. Puede poner cualquier sistema de ficheros sobre
un dispositivo RAID, tal y como hara con cualquier otro dispositivo
de bloques.

2.2. Trminos
La palabra RAID se refiere a RAID por software de Linux. Este CMO no
trata ningn aspecto de RAID por hardware.
Cuando se describen configuraciones, es til referirse al nmero de
discos y sus tamaos. En todos los casos se usa la letra N para
denotar el nmero de discos activos en el array (sin contar los discos
de reserva). La letra S es el tamao del disco ms pequeo en el
array, a menos que se diga otra cosa. La letra P representa el
rendimiento de un disco en el array, en MB/s. Cuando se use,
supondremos que los discos son igual de rpidos, lo cual no siempre
puede ser cierto.
Note que se asume que las palabras dispositivo y disco significan lo
mismo. Normalmente, los dispositivos usados para construir un
dispositivo RAID son particiones de discos, no necesariamente discos
enteros. Pero, normalmente, combinar varias particiones de un mismo
disco no tiene sentido, por lo que las palabras dispositivo y disco
simplemente significan particiones de discos diferentes.
2.3. Niveles RAID
Lo siguiente es una breve descripcin de lo que soportan los parches
RAID de Linux. Parte de esta informacin es informacin RAID
absolutamente bsica, aunque he aadido unas pocas reseas de lo que
hay de especial en la implementacin de Linux de los niveles.

Simplemente, sltese esta seccin si conoce RAID. Regrese despus


cuando tenga problemas :)
Los actuales parches RAID para Linux soportan los siguientes niveles:
Modo Lineal (Linear mode)
Dos o ms discos se combinan en un nico dispositivo fsico. Los
discos se adjuntan unos a otros de tal manera que las escrituras
en el dispositivo RAID primero llenarn el disco 0, a continuacin
el disco 1 y as sucesivamente. Los discos no tienen porqu ser del
mismo tamao. De hecho, los tamaos no importan para nada aqu :)
No existe redundancia en este nivel. Si un disco falla perder toda
su informacin con toda probabilidad. Sin embargo, puede tener
suerte y recuperar algunos datos, ya que el sistema de ficheros
simplemente habr perdido un gran puado de datos consecutivos.
El rendimiento de las lecturas y las escrituras no se incrementar
para lecturas/escrituras individuales. Pero si varios usuarios usan
el dispositivo, puede tener la suerte de que un usuario use
efectivamente el primer disco y el otro usuario acceda a ficheros
que por casualidad residan en el segundo disco. Si esto ocurre,
ver un aumento en el rendimiento.
RAID-0
Tambin llamado modo striping o de distribucin por bandas. Como
el modo lineal salvo que las lecturas y escrituras se realizan en
paralelo en los dispositivos. stos deben tener aproximadamente el
mismo tamao. Puesto que todos los accesos se realizan en
paralelo, los discos se llenan por igual. Si un dispositivo es
mucho mayor que los otros dems, el espacio extra se utilizar en
el dispositivo RAID durante las escrituras en el extremo superior,
aunque slo se acceder a este disco ms grande. Naturalmente, esto
perjudica el rendimiento.
Como en el modo lineal, tampoco hay redundancia en este nivel. A
diferencia del modo lineal, no ser capaz de recuperar ningn dato
si un disco falla. Si elimina un disco de un grupo RAID-0, el
dispositivo RAID no perder simplemente un bloque consecutivo de
datos, sino que se llenar con pequeos agujeros por todo el
dispositivo. Probablemente, e2fsck no sea capaz de recuperar gran
cosa.
El rendimiento de las lecturas y las escrituras se incrementar, ya
que las lecturas y las escrituras se realizan en paralelo sobre los
dispositivos. Normalmente, sta es la razn principal para usar
RAID-0. Si los buses a los discos son suficientemente rpidos,
puede obtener casi N*P MB/seg.
RAID-1
Este es el primer modo que realmente tiene redundancia. RAID-1 se
puede usar en dos o ms discos con cero o ms discos de reserva.
Este modo mantiene en un disco un duplicado exacto de la
informacin del otro(s) disco(s). Por supuesto, los discos deben

ser del mismo tamao. Si un disco es mayor que otro, su dispositivo


RAID ser del tamao del disco ms pequeo.
Si se eliminan (o fallan) hasta N-1 discos, los datos permanecern
intactos. Si existen discos de reserva disponibles y el sistema (es
decir, las controladoras SCSI o los chipsets IDE, etc.) sobreviven
al desastre, comenzar inmediatamente la reconstruccin de un
duplicado en uno de los discos de reserva, despus de la deteccin
del fallo del disco.
Normalmente, el rendimiento de las lecturas aumenta hasta casi N*P,
mientras que el rendimiento de las escrituras es el mismo que el de
un nico dispositivo o, tal vez, incluso menos. Las lecturas se
pueden hacer en paralelo pero, cuando se escribe, la CPU debe
transferir N veces la cantidad de datos que normalmente
transferira (recuerde, se deben enviar N copias idnticas de todos
los datos a los discos).
RAID-4
Este nivel de RAID no se usa con mucha frecuencia. Se puede usar
sobre 3 o ms discos. En lugar de duplicar completamente la
informacin, guarda informacin de paridad en un nico disco y
escribe datos a los otros discos de forma parecida a un RAID-0. Ya
que uno de los discos se reserva para informacin de paridad, el
tamao del array ser (N-1)*S, donde S es el tamao del disco ms
pequeo del array. Como en un RAID-1, los discos deben ser del
mismo tamao, o de lo contrario tendr que aceptar que el valor de
S en la frmula (N-1)*S anterior ser el tamao del disco ms
pequeo del array.
Si un disco falla, y no es el de paridad, se puede usar la
informacin de paridad para reconstruir todos los datos. Si dos
discos fallan, se perder toda la informacin. .
La razn por la que este nivel no se usa con mucha frecuencia es
que la informacin de paridad se guarda en un nico disco. Esta
informacin se debe actualizar cada vez que se escribe en uno de
los otros discos. Por eso, el disco de paridad se convertir en un
cuello de botella si no es mucho ms rpido que los otros discos.
Sin embargo, si por pura casualidad tuviera muchos discos lentos y
un disco muy rpido, este nivel de RAID podra resultarle muy til.
RAID-5
Este es quizs el modo RAID ms til cuando uno desea combinar un
mayor nmero de discos fsicos y todava conservar alguna
redundancia. RAID-5 se puede usar sobre 3 o ms discos, con cero o
ms discos de reserva. El tamao del dispositivo RAID-5 resultante
ser (N-1)*S, tal y como sucede con RAID-4. La gran diferencia
entre RAID-5 y RAID-4 es que la informacin de paridad se
distribuye uniformemente entre los discos participantes, evitando
el problema del cuello de botella del RAID-4.
Si uno de los discos falla, todos los datos permanecern intactos,
gracias a la informacin de paridad. Si existen discos de reserva
disponibles, la reconstruccin comenzar inmediatamente despus del
fallo del dispositivo. Si dos discos fallan simultneamente, todos

los datos se perdern. RAID-5 puede sobrevivir a un fallo de disco,


pero no a dos o ms.
Normalmente, el rendimiento de las lecturas y las escrituras se
incrementar, pero es difcil predecir en qu medida.
2.3.1. Discos de reserva
Los discos de reserva son discos que no forman parte del grupo RAID
hasta que uno de los discos activos falla. Cuando se detecta un fallo
de disco, el dispositivo se marca como defectuoso y la reconstruccin
se inicia inmediatamente sobre el primer disco de reserva disponible.
De esta manera, los discos de reserva proporcionan una buena seguridad
extra, especialmente a sistemas RAID-5 que tal vez, sean difciles de
lograr (fsicamente). Se puede permitir que el sistema funcione
durante algn tiempo con un dispositivo defectuoso, ya que se conserva
toda la redundancia mediante los discos de reserva.
No puede estar seguro de que su sistema sobrevivir a una cada de
disco. La capa RAID puede que maneje los fallos de dispositivos
verdaderamente bien, pero las controladoras SCSI podran fallar
durante el manejo del error o el chipset IDE podra bloquearse, o
muchas otras cosas.

2.4. Espacio de intercambio ( swap ) sobre RAID


No hay ninguna razn para usar RAID a fin de aumentar el rendimiento
del sistema de paginacin de memoria (swap). El propio ncleo puede
balancear el intercambio entre varios dispositivos si simplemente les
da la misma prioridad en el fichero /etc/fstab.
Un buen fstab se parece a ste:

/dev/sda2
/dev/sdb2
/dev/sdc2
/dev/sdd2
/dev/sde2
/dev/sdf2
/dev/sdg2

swap
swap
swap
swap
swap
swap
swap

swap
swap
swap
swap
swap
swap
swap

defaults,pri=1
defaults,pri=1
defaults,pri=1
defaults,pri=1
defaults,pri=1
defaults,pri=1
defaults,pri=1

0
0
0
0
0
0
0

0
0
0
0
0
0
0

Esta configuracin permite a la mquina paginar en paralelo sobre


siete dispositivos SCSI. No necesita RAID, ya que esa ha sido una
caracterstica del ncleo desde hace mucho tiempo.
Otra razn por la que podra interesar usar RAID para swap es la alta
disponibilidad. Si configura un sistema para arrancar desde, por
ejemplo, un dispositivo RAID-1, el sistema podra ser capaz de
sobrevivir a un fallo de disco. Pero si el sistema ha estado paginando
sobre el ahora dispositivo defectuoso, puede estar seguro de que se

vendr abajo. El intercambio sobre un dispositivo RAID-1 solucionara


este problema.
Sin embargo, el intercambio sobre RAID-{1,4,5} NO est soportado.
Puede configurarlo, pero fracasar. La razn es que la capa RAID
algunas veces reserva memoria antes de realizar una escritura. Esto
produce un bloqueo, quedando en un punto muerto, ya que el ncleo
tendr que reservar memoria antes de que pueda intercambiar, e
intercambiar antes de que pueda reservar memoria.
Es triste pero cierto, al menos por ahora.
3. Asuntos hardware
Esta seccin mencionar algunos de los asuntos hardware involucrados
en el funcionamiento de un RAID software.
3.1. Configuracin IDE
En efecto, es posible hacer funcionar un RAID sobre discos IDE.
Tambin se puede obtener un rendimiento excelente. De hecho, el precio
actual de los discos y las controladoras IDE hacen de IDE algo a tener
en cuenta cuando se montan nuevos sistemas RAID.
Estabilidad fsica: tradicionalmente, los discos IDE han sido de
peor calidad mecnica que los discos SCSI. Incluso hoy en da, la
garanta de los discos IDE es tpicamente de un ao, mientras que,
a menudo, es de 3 a 5 aos en los discos SCSI. Aunque no es justo
decir que los discos IDE son por definicin de menor calidad, uno
debera ser consciente de que los discos IDE de algunas marcas
pueden fallar con ms frecuencia que los discos SCSI similares.
Sin embargo, otras marcas usan exactamente la misma estructura
mecnica tanto para los discos SCSI como para los discos IDE. Todo
se reduce a: todos los discos fallan, tarde o temprano, y uno
debera estar preparado para ello.
Integridad de los datos: al principio, IDE no tena forma de
asegurar que los datos enviados a travs del bus IDE eran los
mismos que los datos escritos realmente en el disco. Esto se debi
a la falta total de paridad, sumas de verificacin (checksums),
etc. Ahora, con el estndar UltraDMA, los dispositivos IDE realizan
una suma de verificacin sobre los datos que reciben y por eso es
altamente improbable que los datos se corrompan.
Rendimiento: no voy a escribir aqu sobre el rendimiento de IDE de
forma detallada. Una historia realmente breve sera:
Los dispositivos IDE son rpidos (12 MB/s y ms)
IDE tiene una mayor sobrecarga de CPU que SCSI (pero, a quin le
preocupa?)
Slo usa un disco IDE por bus, los discos esclavos deterioran el

rendimiento.
Resistencia a los fallos: la controladora IDE normalmente sobrevive
a un dispositivo IDE que ha fallado. La capa RAID marcar el disco
como defectuoso y, si est trabajando con un RAID de nivel 1 o
superior, la mquina debera trabajar igual de bien hasta que la
desconecte para su mantenimiento.
Es muy importante que slo use un disco IDE por bus IDE. Dos discos
no slo arruinaran el rendimiento sino que, tambin, el fallo de un
disco a menudo garantiza el fallo del bus y, por tanto, el fallo de
todos los discos de ese bus. En una configuracin RAID tolerante a
fallos (RAID de niveles 1, 4, 5) el fallo de un disco se puede
manejar, pero el fallo de dos discos (los dos discos del bus que ha
fallado debido a uno de ellos) dejar el array inutilizable. Tambin,
el dispositivo esclavo o la controladora IDE de un bus pueden
confundirse de manera horrible cuando el dispositivo maestro del bus
falla. Un bus, un disco, esa es la regla.
Existen controladoras IDE PCI baratas. A menudo puede obtener 2 o 4
buses por unos 80 dlares. Considerando el precio mucho ms bajo de
los discos IDE respecto a los discos SCSI, dira que un array de
discos IDE podra ser una solucin realmente buena si uno puede vivir
con los relativamente pocos discos (unos 8 probablemente) que se
pueden conectar a un sistema tpico (a menos que, naturalmente, tenga
muchas ranuras PCI para dichas controladoras IDE).
3.2. Cambio de discos en caliente ( Hot-Swap )
ste ha sido un tema de actualidad en la lista linux-kernel durante
algn tiempo. Aunque el intercambio en caliente de los dispositivos
est soportado hasta cierto punto, todava no es algo que se pueda
hacer fcilmente.
3.2.1. Intercambio en caliente de dispositivos IDE
No lo haga! IDE no soporta en modo alguno el intercambio en caliente.
Seguro, puede funcionar para usted si compila el soporte IDE como
mdulo (slo posible en la serie 2.2.x del ncleo) y lo vuelve a
cargar despus de que haya reemplazado el dispositivo. Pero tambin
puede terminar perfectamente con una controladora IDE frita y
observar que el perodo de dicho sistema fuera de servicio ser mucho
mayor que habiendo reemplazado el dispositivo con el sistema apagado.
El principal problema, aparte de los aspectos elctricos que pueden
destruir su hardware, es que se debe reexplorar el bus IDE despus de
que se hayan intercambiado los discos. El manejador IDE actual no
puede hacer eso. Si el nuevo disco es 100% idntico al antiguo
(geometra, etc.) puede que funcione incluso sin volver a explorar el
bus pero, crame, aqu est caminando por el filo de la navaja.
3.2.2. Intercambio en caliente ( Hot-Swap ) de dispositivos SCSI
El hardware SCSI normal tampoco es capaz de soportar intercambios en

caliente. Sin embargo, puede que funcione. Si su manejador SCSI


soporta la reexploracin del bus y la conexin y desconexin de
dispositivos, puede ser capaz de intercambiar dispositivos en
caliente. Sin embargo, en un bus SCSI normal probablemente no debera
desenchufar dispositivos mientras su sistema est todava encendido.
Pero, le repito, puede que funcione simplemente (y tambin puede
terminar con su hardware frito).
La capa SCSI debera sobrevivir si un disco muere, pero no todos los
manejadores SCSI soportan esto todava. Si su manejador SCSI muere
cuando un disco cae, su sistema caer con l y la conexin en caliente
no ser verdaderamente interesante entonces.
3.2.3. Intercambio en caliente con SCA
Con SCA debera ser posible conectar dispositivos en caliente. Sin
embargo, no poseo el hardware para probar esto y no he odo de nadie
que lo haya probado, por lo que verdaderamente no puedo dar ninguna
receta de cmo hacer esto.
De todos modos, si quiere jugar con esto, debera conocer los aspectos
internos de SCSI y de RAID. Por tanto, no voy a escribir aqu nada que
no pueda comprobar que funciona. En cambio, s puedo proporcionarle
algunas pistas:
Busque la cadena remove-single-device en linux/drivers/scsi/scsi.c
Eche un vistazo a raidhotremove y raidhotadd
No todos los manejadores SCSI soportan la conexin y desconexin de
dispositivos. En la serie 2.2 del ncleo, al menos los manejadores de
la controladoras Adaptec 2940 y Symbios NCR53c8xx parecen soportarlo,
mientras que otras puede que s o puede que no. Agradecera que
alguien me pasara ms informacin sobre esto...
4. Configuracin de RAID

4.1. Configuracin general


Esto es lo que necesita para cualquiera de los niveles RAID:
Un ncleo. Obtenga la versin 2.0.36 o un ncleo 2.2.x reciente.
Los parches RAID. Normalmente existe un parche disponible para los
ncleos recientes.
El paquete de herramientas RAID (raidtools).
Paciencia, una pizza y su bebida con cafena favorita.
Todo este software se puede encontrar en
ftp://ftp.fi.kernel.org/pub/linux;. Las herramientas RAID y los

parches estn en el subdirectorio daemons/raid/alpha. Los ncleos se


encuentran en el subdirectorio kernel.
Parchee el ncleo, configrelo para incluir el soporte del nivel RAID
que quiera usar. Complelo e instlelo.
A continuacin desempaquete, configure, compile e instale las
herramientas RAID.
Hasta ahora todo va bien. Si rearranca ahora, debera tener el fichero
/proc/mdstat. Recurdelo, ese fichero es su amigo. Vea lo que contiene
haciendo cat /proc/mdstat. Le debe decir que tiene registrada la
personalidad RAID (es decir, el modo RAID) correcta y que actualmente
no hay dispositivos RAID activos.
Cree las particiones que quiere incluir en su grupo RAID.
Ahora, vayamos a un modo especfico.
4.2. Modo lineal
De acuerdo, as que tiene dos o ms particiones que no son
necesariamente del mismo tamao (pero que, naturalmente, pueden serlo)
que quiere adjuntar unas con otras.
Prepare el fichero /etc/raidtab para describir su configuracin. He
preparado un /etc/raidtab para dos discos en modo lineal y el fichero
se parece a esto:

raiddev /dev/md0
raid-level
linear
nr-raid-disks 2
persistent-superblock 1
device
/dev/sdb6
raid-disk
0
device
/dev/sdc5
raid-disk
1

Aqu no se soportan discos de reserva. Si un disco muere, el array


muere con l. No hay informacin que poner en un disco de reserva.
Creemos el array. Ejecute la orden:

mkraid /dev/md0

Esto inicializar su array, escribir superbloques persistentes y


arrancar el array.

chele un vistazo a /proc/mdstat. Debe ver que el array est


funcionando.
Ahora, puede crear un sistema de ficheros, justo como hara con
cualquier otro dispositivo, montarlo, incluirlo en su /etc/fstab, etc.
4.3. RAID-0
Tiene dos o ms dispositivos, de aproximadamente el mismo tamao, y
quiere combinar sus capacidades de almacenamiento y rendimiento
accedindolos en paralelo.
Prepare el fichero /etc/raidtab para describir su configuracin. Un
raidtab de ejemplo se parece a esto:

raiddev /dev/md0
raid-level
0
nr-raid-disks 2
persistent-superblock 1
chunk-size
4
device
/dev/sdb6
raid-disk
0
device
/dev/sdc5
raid-disk
1

Como en el modo lineal, los discos de reserva tampoco se soportan


aqu. Un RAID-0 no tiene redundancia, por lo que cuando un disco
muere, el array le acompaa.
Una vez ms, ejecute simplemente

mkraid /dev/md0

para inicializar el array. Esto debe inicializar los superbloques y


poner en funcionamiento el dispositivo RAID. che un vistazo a
/proc/mdstat para ver qu sucede. Debera ver que su dispositivo ahora
est en funcionamiento.
/dev/md0 est listo para ser formateado, montado, usado y maltratado.
4.4. RAID-1
Tiene dos dispositivos de aproximadamente el mismo tamao y quiere que
cada uno de los dos sea un duplicado del otro. Finalmente, tiene ms
dispositivos que quiere guardar como discos de reserva preparados, que
automticamente formarn parte del duplicado si uno de los

dispositivos activos se rompe.


Configure as el fichero /etc/raidtab:

raiddev /dev/md0
raid-level
1
nr-raid-disks 2
nr-spare-disks 0
chunk-size
4
persistent-superblock 1
device
/dev/sdb6
raid-disk
0
device
/dev/sdc5
raid-disk
1

Si tiene discos de reserva, puede aadirlos al final de la


especificacin de dispositivos como

device
spare-disk

/dev/sdd5
0

Recuerde configurar la entrada nr-spare-disks adecuadamente.


De acuerdo, ahora estamos listos para comenzar la inicializacin del
RAID. Se debe construir el duplicado, es decir, los contenidos (de
todos modos, sin importancia ahora, ya que el dispositivo todava est
sin formatear) de los dos dispositivos se deben sincronizar.
D la orden
mkraid /dev/md0

para comenzar la inicializacin del duplicado.


Compruebe el fichero /proc/mdstat. Debe decirle que se ha puesto en
funcionamiento el dispositivo /dev/md0, que est siendo reconstruido
el duplicado y una cuenta del tiempo estimado para la terminacin de
la reconstruccin.
La reconstruccin se realiza usando el ancho de banda libre de E/S. De
esta manera, su sistema debe ser capaz todava de responder en gran
medida, aunque los LEDs de sus discos deben parpadear lozanamente.
El proceso de reconstruccin es transparente, por lo que realmente
puede usar el dispositivo aunque la duplicacin est actualmente en
curso.

Intente formatear el dispositivo mientras la reconstruccin se est


realizando. Funcionar. Tambin puede montarlo y usarlo mientras la
reconstruccin se est realizando. Naturalmente, si el disco
equivocado se rompe mientras se est realizando la reconstruccin, no
hay solucin.
4.5. RAID-4

Nota! No he comprobado esta configuracin por m mismo. La


configuracin de ms abajo es mi mejor suposicin, no algo que
realmente haya tenido funcionando.
Tiene tres o ms dispositivos de aproximadamente el mismo tamao, un
dispositivo es significativamente ms rpido que los otros
dispositivos y quiere combinarlos todos en un nico dispositivo ms
grande, conservando todava alguna informacin de redundancia.
Finalmente, tiene varios dispositivos que desea usar como discos de
reserva.
Configure el fichero /etc/raidtab as:
raiddev /dev/md0
raid-level
4
nr-raid-disks 4
nr-spare-disks 0
persistent-superblock 1
chunk-size
32
device
/dev/sdb1
raid-disk
0
device
/dev/sdc1
raid-disk
1
device
/dev/sdd1
raid-disk
2
device
/dev/sde1
raid-disk
3

Si tuviramos discos de reserva, se insertaran de forma parecida,


siguiendo las especificaciones de discos RAID;

device
spare-disk

/dev/sdf1
0

como de costumbre.
Su array se puede inicializar con la orden

mkraid /dev/md0

como es habitual.
Debera ver la seccin ``'' de opciones especiales de mke2fs antes de
formatear el dispositivo.
4.6. RAID-5
Tiene tres o ms dispositivos de aproximadamente el mismo tamao,
quiere combinarlos en un dispositivo mayor, pero conservando todava
cierto grado de redundancia para la seguridad de datos. Finalmente,
tiene varios dispositivos para usar como discos de reserva, que no
tomarn parte en el array antes de que otro dispositivo falle.
Si usa N dispositivos donde el tamao del ms pequeo es S, el tamao
de todo el array ser (N-1)*S. El espacio que falta se usa para
informacin de paridad (redundancia). De esta manera, si cualquier
disco falla, todos los datos permanecern intactos. Pero si dos discos
fallan, todos los datos se perdern.
Configure el fichero /etc/raidtab as:

raiddev /dev/md0
raid-level
5
nr-raid-disks 7
nr-spare-disks 0
persistent-superblock 1
parity-algorithm
left-symmetric
chunk-size
32
device
/dev/sda3
raid-disk
0
device
/dev/sdb1
raid-disk
1
device
/dev/sdc1
raid-disk
2
device
/dev/sdd1
raid-disk
3
device
/dev/sde1
raid-disk
4
device
/dev/sdf1
raid-disk
5
device
/dev/sdg1
raid-disk
6

Si tuviramos discos de reserva, se insertaran de forma parecida,


siguiendo las especificaciones de discos RAID;

device
spare-disk

/dev/sdh1
0

Y as sucesivamente.
Un tamao de segmento de 32KB es un buen valor por defecto para muchos
sistemas de ficheros de propsito general de estas proporciones. El
array sobre el que se utiliza el raidtab anterior es un dispositivo de
7 por 6 GB = 36 GB (recuerde que (N-1)*S = (7-1)*6 = 36). Contiene un
sistema de ficheros ext2 con un tamao de bloque de 4KB. Podra
incrementar tanto el tamao del segmento unitario del array como el
tamao de bloque del sistema de ficheros si su sistema de ficheros
fuera o bien mucho mayor o bien si simplemente contuviera ficheros muy
grandes.
Vale, ya hemos hablado bastante. Configure el fichero /etc/raidtab y
veamos si funciona. Ejecute la orden

mkraid /dev/md0

y observe qu ocurre. Es de esperar que sus discos comiencen a


trabajar como locos debido a que empiezan la reconstruccin de su
array. chele un vistazo a /proc/mdstat para ver qu est sucediendo.
Si el dispositivo se ha creado correctamente, el proceso de
reconstruccin comenzar ahora. Su array no ser consistente hasta que
esta fase de reconstruccin haya terminado. No obstante, el array es
totalmente funcional (excepto, por supuesto, para el manejo de fallos
de dispositivos) y puede formatearlo y usarlo incluso mientras se est
reconstruyendo.
Consulte la seccin ``'' de opciones especiales de mke2fs antes de
formatear el array.
Bueno, ahora que ya tiene su dispositivo RAID funcionando, siempre
puede pararlo o rearrancarlo usando las rdenes

raidstop /dev/md0

raidstart /dev/md0,

respectivamente.
En lugar de colocar stos en ficheros de inicio y rearrancar un nmero
astronmico de veces hasta hacer que funcione, siga leyendo y haga
funcionar la autodeteccin.
4.7. El superbloque persistente
Si volviramos a aquellos maravillosos das (The Good Old Days (TM)),
las herramientas RAID (raidtools) leeran su fichero /etc/raidtab y a
continuacin inicializaran el array. Sin embargo, esto requerira que
el sistema de ficheros sobre el que reside /etc/raidtab estuviera
montado. Esto es imposible si quiere arrancar a partir de un RAID.
Tambin, la anterior aproximacin produca complicaciones al montar
sistemas de ficheros sobre dispositivos RAID. stos no se podan
colocar en el fichero /etc/fstab como era usual, sino que tenan que
ser montados en los guiones (scripts) de inicio.
Los superbloques persistentes solucionan estos problemas. Cuando un
array se inicializa con la opcin persistent-superblock en el fichero
/etc/raidtab, se escribe un superbloque especial al principio de todos
los discos participantes en el array. Esto permite al ncleo leer la
configuracin de los dispositivos RAID directamente de los discos
involucrados, en lugar de leerla de algn fichero de configuracin que
puede no estar disponible en todo momento.
Sin embargo, todava debera mantener un fichero /etc/raidtab
consistente, ya que puede necesitar este fichero para una
reconstruccin posterior del array.
Los superbloques persistentes son obligatorios si desea la
autodeteccin de sus dispositivos RAID durante el arranque del
sistema. Esto se describe en la seccin ``''.

4.8. Tamaos de segmento unitario


El tamao de segmento unitario merece una explicacin. Nunca puede
escribir de forma totalmente paralela a un grupo de discos. Si tuviera
dos discos y quisiera escribir un byte, tendra que escribir cuatro
bits en cada disco; realmente, todos los segundos bits iran al disco
0 y los otros al disco 1. Sencillamente, el hardware no soporta eso.
En su lugar, elegimos algn tamao de de segmento unitario que
definimos como la masa atmica ms pequea de datos que puede ser
escrita en los dispositivos. Una escritura de 16 KB con un tamao de
segmento unitario de 4 KB provocara que el primer y tercer segmento
unitario de 4KB se escriban en el primer disco, y el segundo y el
cuarto en el segundo, en el caso de un RAID-0 de dos discos. De esta
manera, para grandes escrituras, podra observar menor sobrecarga
teniendo segmentos lo suficientemente grandes, mientras que los arrays
que contuvieran principalmente ficheros pequeos se podran beneficiar
ms de un tamao de segmento unitario ms pequeo.
Los tamaos de segmento unitario se pueden especificar para todos los

niveles de RAID excepto para el modo lineal.


Para un rendimiento ptimo, debera experimentar con el valor, as
como con el tamao de bloque del sistema de ficheros que pusiera en el
array.
El argumento de la opcin chunk-size en /etc/raidtab especifica el
tamao de segmento unitario en kilobytes. Por tanto, 4 significa 4 KB.
4.8.1. RAID-0
Los datos se escriben casi en paralelo en todos los discos del array.
Realmente, se escriben chunk-size bytes en cada disco, de forma
consecutiva.
Si especifica un tamao de segmento unitario de 4 KB y escribe 16 KB a
un array de 3 discos, el sistema RAID escribir 4 KB a los discos 0, 1
y 2, en paralelo, y a continuacin los 4 KB restantes al disco 0.
Un tamao de segmento unitario de 32 KB es un punto de partida
razonable para la mayora de los arrays. Pero el valor ptimo depende
muchsimo del nmero de discos implicados, del contenido del sistema
de ficheros que aloja y de muchos otros factores. Experimente con l
para obtener el mejor rendimiento.
4.8.2. RAID-1
Para las escrituras, el tamao de segmento unitario no afecta al
array, ya que se deben escribir todos los datos a todos los discos sin
importar qu. Para las lecturas, sin embargo, el tamao de segmento
unitario indica cuntos datos leer consecutivamente de los discos
participantes. Ya que todos los discos activos del array contienen la
misma informacin, las lecturas se pueden hacer en paralelo al estilo
de un RAID-0.
4.8.3. RAID-4
Cuando se realiza una escritura en un array RAID-4, tambin se debe
actualizar la informacin de paridad en el disco de paridad. El tamao
de segmento unitario es el tamao de los bloques de paridad. Si se
escribe un byte a un array RAID-4, entonces se leern chunk-size bytes
de los N-1 discos, se calcular la informacin de paridad y se
escribirn chunk-size bytes al disco de paridad.
El tamao de segmento unitario afecta al rendimiento de las lecturas
de la misma manera que en un RAID-0, ya que las lecturas de un RAID-4
se realizan de la misma forma.
4.8.4. RAID-5
En RAID-5 el tamao de segmento unitario tiene exactamente el mismo
significado que en un RAID-4.

Un tamao de segmento unitario razonable para un RAID-5 es 128 KB


pero, como siempre, puede desear experimentar con ste.
Tambin consulte la seccin ``'' de opciones especiales de mke2fs.
Esto afecta al rendimiento de un RAID-5.
4.9. Opciones de mke2fs
Hay disponible una opcin especial cuando se formatean dispositivos
RAID-4 y RAID-5 con mke2fs. La opcin -R stride=nn permitir a mke2fs
situar mejor diferentes estructuras de datos especficas de ext2 en un
dispositivo RAID de forma inteligente.
Si el tamao de segmento unitario es 32 KB significa que 32 KB de
datos consecutivos residirn en un nico disco. Si queremos construir
un sistema de ficheros ext2 con un tamao de bloque de 4KB, nos damos
cuenta de que habr 8 bloques del sistema de ficheros en una segmento
unitario del array. Podemos pasar esta informacin a la utilidad
mke2fs cuando se cree el sistema de ficheros:

mke2fs -b 4096 -R stride=8 /dev/md0

El rendimiento de un RAID-{4,5} se ve fuertemente influido por esta


opcin. No estoy seguro de cmo la opcin stride afectar a otros
niveles RAID. Si alguien tiene informacin sobre esto, por favor, que
la enve a mi direccin email.
4.10. Autodeteccin
La autodeteccin permite a los dispositivos RAID ser automticamente
reconocidos por el ncleo durante el arranque, justo despus de que se
realice la deteccin ordinaria de particiones.
Esto requiere varias cosas:
1. Necesita todo el soporte necesario para autodeteccin (SCSI, IDE,
RAID, etc) en el ncleo (no como mdulo) o bien crear una imagen
initrd, lo cual de todos modos es absurdo, dado lo improbable de
que descargue dicho soporte en un sistema activo.
Compruebe esto.
2. Debe haber creado los dispositivos RAID usando superbloques
persistentes.
3. El tipo de particin de los dispositivos usados en el RAID se debe
establecer a 0xFD (use fdisk y establezca el tipo a fd)
NOTA: asegrese de que su RAID NO EST FUNCIONANDO antes de cambiar
los tipos de las particiones. Use raidstop /dev/md0 para parar el

dispositivo.
Si sigue los pasos 1, 2 y 3 de arriba, la autodeteccin debera
activarse. Pruebe rearrancar. Cuando el sistema se levante, vea el
contenido de /proc/mdstat; debera decirle que su RAID est
funcionando.
Durante el arranque, podra ver mensajes similares a stos:

db1>

Oct 22 00:51:59 malthe kernel: SCSI device sdg: hdwr sector= 512
bytes. Sectors= 12657717 [6180 MB] [6.2 GB]
Oct 22 00:51:59 malthe kernel: Partition check:
Oct 22 00:51:59 malthe kernel: sda: sda1 sda2 sda3 sda4
Oct 22 00:51:59 malthe kernel: sdb: sdb1 sdb2
Oct 22 00:51:59 malthe kernel: sdc: sdc1 sdc2
Oct 22 00:51:59 malthe kernel: sdd: sdd1 sdd2
Oct 22 00:51:59 malthe kernel: sde: sde1 sde2
Oct 22 00:51:59 malthe kernel: sdf: sdf1 sdf2
Oct 22 00:51:59 malthe kernel: sdg: sdg1 sdg2
Oct 22 00:51:59 malthe kernel: autodetecting RAID arrays
Oct 22 00:51:59 malthe kernel: (read) sdb1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdb1,1>
Oct 22 00:51:59 malthe kernel: (read) sdc1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdc1,2>
Oct 22 00:51:59 malthe kernel: (read) sdd1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdd1,3>
Oct 22 00:51:59 malthe kernel: (read) sde1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sde1,4>
Oct 22 00:51:59 malthe kernel: (read) sdf1's sb offset: 6205376
Oct 22 00:51:59 malthe kernel: bind<sdf1,5>
Oct 22 00:51:59 malthe kernel: (read) sdg1's sb offset: 6205376
Oct 22 00:51:59 malthe kernel: bind<sdg1,6>
Oct 22 00:51:59 malthe kernel: autorunning md0
Oct 22 00:51:59 malthe kernel: running: <sdg1><sdf1><sde1><sdd1><sdc1><s
Oct 22 00:51:59 malthe kernel: now!
Oct 22 00:51:59 malthe kernel: md: md0: raid array is not clean -starting background reconstruction

Esta es la salida de la autodeteccin de un array RAID-5 que no fue


limpiamente desactivado (es decir, la mquina se cay). La
reconstruccin se inicia automticamente. Montar este dispositivo es
perfectamente seguro, ya que la reconstruccin es transparente y todos
los datos son consistentes (slo es la informacin de paridad la que
es inconsistente - aunque la misma no se necesita hasta que un
dispositivo falle).
Los dispositivos autoarrancados tambin son automticamente parados
durante el cierre del sistema. No se preocupe de los guiones de
inicio. Simplemente, use los dispositivos /dev/md como cualquier otro
dispositivo /dev/sdX o /dev/hdX.
S, verdaderamente es as de fcil.
Quizs desee buscar cualquier orden raidstart/raidstop en sus guiones

de inicio/parada /etc/rc.d/rc.sysinit y /etc/rc.d/init.d/halt (guiones


de inicio estndares de RedHat). Se usan para el antiguo estilo de
RAID y no tienen utilidad en el nuevo estilo de RAID con
autodeteccin. Elimine las lneas y todo ir perfectamente bien.
4.11. Arrancar desde RAID
Existen varias formas de configurar un sistema que monta su sistema de
ficheros raz sobre un dispositivo RAID. Desafortunadamente, ninguna
de las distribuciones de Linux con las que yo he probado (RedHat y
Debian) soportan un dispositivo RAID como dispositivo del sistema de
ficheros raz durante el proceso de instalacin. Por tanto, le va a
doler un poco si quiere esto pero, de hecho, es posible.
Actualmente, LILO no maneja dispositivos RAID y por ello, no se puede
cargar el ncleo desde un dispositivo RAID en el instante del
arranque. Su sistema de ficheros /boot tendr que residir en un
dispositivo que no sea RAID. Un modo de asegurar que su sistema
arranca, pase lo que pase, es crear particiones /boot similares en
todas las unidades de su RAID, de esa forma la BIOS siempre puede
cargar datos desde, por ejemplo, la primera unidad disponible. Esto
necesita que no arranque con un disco defectuoso en su sistema.
Otra forma de asegurar que su sistema siempre arranca es crear un
disquete de arranque cuando toda la configuracin se haya terminado.
Si muere el disco en el que reside el sistema de ficheros /boot,
siempre puede arrancar desde el disquete.
4.11.1. Mtodo 1
Este mtodo asume que posee un disco de reserva en el que puede
instalar el sistema y que no es parte del RAID que configurar ms
adelante.
Primero, instale un sistema normal en su disco extra.
Obtenga el ncleo que piensa ejecutar, obtenga los parches y las
herramientas RAID y haga que su sistema arranque con el nuevo
ncleo con soporte RAID. Asegrese de que el soporte RAID est
dentro del ncleo y que no se carga como mdulo.
Ahora debe configurar y crear el RAID que tiene pensado usar para
el sistema de ficheros raz. ste es un procedimiento estndar como
ya se describi en ``''.
Simplemente para asegurarse de que todo est bien, trate de
rearrancar el sistema para ver si el nuevo RAID aparece durante el
arranque. Debera aparecer.
Coloque un sistema de ficheros sobre el nuevo array (usando
mke2fs), y mntelo en /mnt/newroot.
Ahora, copie el contenido de su sistema de ficheros raz actual (el
disco extra) al nuevo sistema de ficheros raz (el array). Hay

muchas formas de hacer esto. Una de ellas es

cd /
find . -xdev | cpio -pm /mnt/newroot

Debe modificar el fichero /mnt/newroot/etc/fstab para usar el


dispositivo correcto (el dispositivo raz /dev/md?) para el sistema
de ficheros raz.
Ahora, desmonte el sistema de ficheros /boot actual y mntelo en su
lugar en /mnt/newroot/boot. Esto es necesario para que LILO
funcione correctamente en el siguiente paso.
Actualice /mnt/newroot/etc/lilo.conf para que apunte a los
dispositivos correctos. El dispositivo de arranque debe ser todava
un disco normal (no un dispositivo RAID) pero el dispositivo raz
debe apuntar a su nuevo RAID. Cuando est hecho, ejecute lilo -r
/mnt/newroot Esta ejecucin de LILO debera terminar sin errores.
Rearranque el sistema y observe que todo aparece como se esperaba
:)
Si est haciendo esto con discos IDE, asegrese de indicarle a su BIOS
que todos los discos son del tipo auto-detect, as la BIOS permitir
a su mquina arrancar incluso cuando un disco haya fallado.
4.11.2. Mtodo 2
Este mtodo necesita que parchee su paquete raidtools para poder
incluir la directiva failed-disk en /etc/raidtab. Busque en los
archivos de la lista de correo Linux-raid los mensajes enviados por
Martin Bene, alrededor del 23 de abril de 1999, donde se envi el
parche failed-disk. Se espera que esta funcionalidad est pronto en
el paquete raidtools (para cuando est leyendo esto puede que incluso
no necesite parchear las raidtools).
Slo puede utilizar este mtodo en RAIDs de niveles 1 o superiores.
La idea es instalar un sistema sobre un disco que es adrede marcado
como estropeado en el RAID, copiar a continuacin el sistema en el
RAID que estar funcionando en modo degrado y finalmente hacer que el
RAID use el ya no necesario disco de instalacin, aniquilando la
anterior instalacin pero haciendo que el RAID funcione en modo no
degradado.
Primero, instale un sistema normal sobre un disco (que ms tarde
formar parte de su RAID). Es importante que este disco (o
particin) no sea el ms pequeo. Si lo es, no ser posible
aadirlo al RAID ms tarde!
A continuacin, obtenga el ncleo, los parches, las herramientas,
etc., etc. Ya conoce el ejercicio. Haga que su sistema arranque con
un nuevo ncleo que tenga el soporte RAID que necesita compilado

dentro del ncleo.


Ahora, configure el RAID con su dispositivo raz actual como el
failed-disk (disco estropeado) en el fichero raidtab. No coloque el
failed-disk como el primer disco en el fichero raidtab, eso le dar
problemas para poner en marcha el RAID. Cree el RAID y coloque un
sistema de ficheros en l.
Pruebe a rearrancar y vea si el RAID aparece como debera hacerlo.
Copie los ficheros del sistema y reconfigure el sistema para usar
el RAID como dispositivo raz, como se ha descrito en la seccin
``'' anterior.
Cuando su sistema arranque con xito desde el RAID, puede modificar
el fichero raidtab para incluir el failed-disk anterior como un
disco raid-disk normal. Ahora, ejecute raidhotadd para aadir el
disco a su sistema RAID.
Ahora debera tener un sistema capaz de arrancar desde un RAID no
degradado.
4.12. Dificultades
Nunca NUNCA nunca reparticione discos que son parte de un RAID que
est funcionando. Si debe alterar la tabla de particiones de un disco
que es parte de un RAID, pare primero el array y reparticione despus.
Es fcil poner demasiados discos en un bus. Un bus Fast-Wide SCSI
normal puede sostener 10 MB/s que es menos de lo que muchos discos
pueden obtener por s solos hoy en da. Por supuesto, colocar seis de
tales discos en un bus no le proporcionar el aumento de rendimiento
esperado.
La mayora de los controladores SCSI slo le proporcionarn un
rendimiento extra si los buses SCSI son llevados prcticamente al
mximo por los discos conectados a ellos. No observar una mejora de
rendimiento por usar dos controladoras 2940 con dos discos SCSI viejos
en lugar de simplemente hacer funcionar los dos discos sobre una sola
tarjeta.
Si olvida la opcin persistent-superblock puede que su array no
arranque por las buenas despus de que haya sido parado. Simplemente,
recree el array con la opcin colocada correctamente en el fichero
/etc/raidtab.
Si un RAID-5 no logra reconstruirse despus de que un disco haya sido
eliminado y reinsertado, puede deberse al orden de los dispositivos en
el fichero /etc/raidtab. Intente mover el primer par device -- raiddisk al final de la descripcin del array en el fichero raidtab.
5. Comprobacin
Si piensa usar un RAID para obtener tolerancia a fallos, tambin puede
que quiera comprobar su configuracin para ver si realmente funciona.
Ahora bien, cmo se simula un fallo de disco?.

El resumen es que no puede, salvo quizs atravesando mediante un hacha


incandescente la unidad sobre la que quiere simular el fallo. Nunca
puede saber qu ocurrir si un disco muere. Puede que se apodere
elctricamente del bus al que est conectado, haciendo que todas las
unidades de ese bus sean inaccesibles, aunque nunca he odo que eso
haya ocurrido. La unidad tambin puede simplemente informar de un
fallo de lectura/escritura a la capa SCSI/IDE que a su vez har que la
capa RAID maneje esta situacin de forma elegante. Afortunadamente,
esta es la forma en la que normalmente ocurren las cosas.
5.1. Simulacin de un fallo de disco
Si quiere simular un fallo de disco desconecte la unidad. Debe hacer
esto con el sistema apagado. Si est interesado en comprobar si sus
datos pueden sobrevivir con un disco menos de los habituales, no hay
motivo para ser un vaquero de las conexiones en caliente aqu. Apague
el sistema, desconecte el disco y encindalo de nuevo.
Mire en el registro del sistema (generado por syslogd) y en
/proc/mdstat para ver qu es lo que est haciendo el RAID. Ha
funcionado?.
Recuerde que debe utilizar un RAID-{1,4,5} para que su array sea capaz
de sobrevivir a un fallo de disco. Un modo lineal o un RAID-0 fallarn
totalmente cuando se pierda un dispositivo.
Cuando haya reconectado el disco de nuevo (recuerde, con el sistema
apagado, naturalmente) podr aadir el nuevo dispositivo al RAID otra
vez, con la orden raidhotadd.
5.2. Simulacin de corrupcin de datos
Un RAID (ya sea hardware o software) asume que si una escritura en
disco no devuelve un error, entonces la escritura ha tenido xito.
tanto. si su disco corrompe datos sin devolver un error, sus datos
corrompern. Naturalmente, esto es muy improbable que ocurra, pero
posible, y producira un sistema de ficheros corrupto.

un
Por
se
es

Un RAID no puede y no est pensado para proteger contra la corrupcin


de datos del medio de almacenamiento fsico. Por tanto, tampoco tiene
ningn sentido corromper a propsito los datos de un disco (usando dd,
por ejemplo) para ver cmo manejar el sistema RAID esa situacin. Es
ms probable (a menos que corrompa el superbloque del RAID) que la
capa RAID no descubra nunca la corrupcin, sino que su sistema de
ficheros en el dispositivo RAID se corrompa.
As es como se supone que funcionan las cosas. Un RAID no es una
garanta absoluta para la integridad de datos, simplemente le permite
conservar sus datos si un disco muere (naturalmente, con RAIDs de
niveles iguales o superiores a 1).
6. Rendimiento
Esta seccin contiene varias pruebas de evaluacin de prestaciones

(benchmarks) de un sistema real usando un RAID software.


Las evaluaciones se han realizado con el programa bonnie y todas las
veces con ficheros dos o ms veces ms grandes que el tamao de la RAM
fsica de la mquina.
Estas evaluaciones slo miden el ancho de banda de entrada y de salida
sobre un nico gran fichero. Esto es algo interesante de saber si uno
est interesado en el mximo rendimiento de E/S para grandes
lecturas/escrituras. Sin embargo, tales nmeros nos dicen poco sobre
cul sera el rendimiento si el array se usara para un almacn
temporal de noticias, un servidor web, etc. etc. Tenga siempre en
cuenta que los nmeros de las evaluaciones son el resultado de
ejecutar un programa sinttico. Pocos programas del mundo real hacen
lo que bonnie hace y, aunque es interesante mirar estos nmeros de
E/S, no son indicadores en ltima instancia del rendimiento de los
dispositivos del mundo real.
Por ahora, slo poseo resultados de mi propia mquina. La
configuracin es:
Dual Pentium Pro 150 MHz
256 MB RAM (60 MHz EDO)
Tres IBM UltraStar 9ES 4.5 GB U2W SCSI
Adaptec 2940U2W
Un IBM UltraStar 9ES 4.5 GB UW SCSI
Adaptec 2940 UW
Ncleo 2.2.7 con los parches RAID
Los tres discos U2W cuelgan de la controladora U2W y el disco UW
cuelga de la controladora UW.
Parece imposible sacar mucho ms de 30 MB/s a travs de los buses SCSI
de este sistema, usando un RAID o no. Mi suposicin es que, debido a
que el sistema es bastante antiguo, el ancho de banda de la memoria lo
fastidia y, por tanto, limita lo que se puede enviar a travs de las
controladoras SCSI.
6.1. RAID-0
Lectura significa entrada de bloques secuencial y Escritura significa
salida de bloques secuencial. El tamao de fichero fue de 1GB en todas
las pruebas. Las pruebas se realizaron en modo monousuario. Se
configur el controlador (driver) SCSI para que no utilizara tagged
command queuing, TCQ).
|

|Tamao de segmento unitario | Tamao de bloque | Lectura KB/s | Escritura K


B/s |

|
|4k
|4k
|8k
|8k
|16k
|16k
|16k
|32k
|32k

|
|
|
|
|
|
|
|
|
|

| 1k

| 19712

| 18035

| 4k

| 34048

| 27061

| 1k

| 19301

| 18091

| 4k

| 33920

| 27118

| 1k

| 19330

| 18179

| 2k

| 28161

| 23682

| 4k

| 33990

| 27229

| 1k

| 19251

| 18194

| 4k

| 34071

| 26976

A partir de esto vemos que el tamao de segmento unitario del RAID no


importa mucho. Sin embargo, el tamao de bloque del sistema de
ficheros ext2 debera ser tan grande como fuera posible, lo cual
significa 4KB (es decir, el tamao de pgina) en una IA-32 (N.T.:
arquitectura Intel de 32 bits).

6.2. RAID-0 con TCQ


Esta vez, el manejador SCSI se configur para usar TCQ, con una
longitud de cola de 8. Por lo dems, todo es lo mismo de antes.
|

|Tamao de segmento unitario | Tamao de bloque | Lectura KB/s | Escritura K


B/s |
|
|
|
|
|
|32k
| 4k
| 33617
| 27215
|

No se realizaron ms pruebas. Activar el TCQ pareci incrementar


ligeramente el rendimiento de las escrituras, pero verdaderamente no
hubo mucha diferencia en absoluto.
6.3. RAID-5
El array se configur para funcionar en el modo RAID-5 y se hicieron
pruebas similares.

|Tamao de segmento unitario | Tamao de bloque | Lectura KB/s | Escritura K


B/s |
|
|
|
|
|
|8k
| 1k
| 11090
| 6874
|
|8k
| 4k
| 13474
| 12229
|
|32k
| 1k
| 11442
| 8291
|
|32k
| 2k
| 16089
| 10926
|
|32k
| 4k
| 18724
| 12627
|

Ahora, tanto el tamao de segmento unitario como el tamao de bloque


parecen realmente significativos.
6.4. RAID-10
Un RAID-10 significa bandas duplicadas o un array RAID-1 de dos arrays
RAID-0. El tamao de segmento unitario es tanto el tamao de las
porciones del array RAID-1 como del array RAID-0. No realic pruebas
en las que esos tamaos de segmento unitario fueran diferentes, aunque
esa debera ser una configuracin perfectamente vlida.
|

|Tamao de segmento unitario | Tamao de bloque | Lectura KB/s | Escritura K


B/s |
|
|
|
|
|
|32k
| 1k
| 13753
| 11580
|
|32k
| 4k
| 23432
| 22249
|

No se realizaron ms pruebas. El tamao de fichero fue de 900MB debido


a que las cuatro particiones involucradas eran de 500 MB cada una, lo
cual no deja espacio para un fichero de 1GB en esta configuracin
(RAID-1 sobre dos arrays de 1000MB).

7. Agradecimientos
Las siguientes personas han contribuido a la creacin de este
documento:

Ingo Molnar
Jim Warren
Louis Mandelstam
Allan Noah
Yasunori Taniike
La gente de la lista de correo Linux-RAID
El que se me olvida, lo siento :)
Por favor, enve correcciones, sugerencias, etc. al autor. Es la nica
forma en que este CMO puede mejorar.
Enve correcciones, sugerencias, etc. sobre esta traduccin al espaol
a Juan Piernas Cnovas (piernas@ditec.um.es).
8. Anexo: El INSFLUG
El INSFLUG forma parte del grupo internacional Linux Documentation
Project, encargndose de las traducciones al castellano de los Howtos
(Comos), as como la produccin de documentos originales en aquellos
casos en los que no existe anlogo en ingls.
En el INSFLUG se orienta preferentemente a la traduccin de documentos
breves, como los COMOs y PUFs (Preguntas de Uso Frecuente, las FAQs.
:) ), etc.
Dirjase a la sede del INSFLUG para ms informacin al respecto.
En la sede del INSFLUG encontrar siempre las ltimas versiones de las
traducciones oficiales: www.insflug.org. Asegrese de comprobar
cul es la ltima versin disponible en el Insflug antes de bajar un
documento de un servidor rplica.
Adems, cuenta con un sistema interactivo de gestin de fe de erratas
y sugerencias en lnea, motor de bsqueda especfico, y ms servicios
que estamos trabajando incesantemente para aadir.
Se proporcionar tambin una lista de los servidores rplica (mirror)
del Insflug ms cercanos a Vd., e informacin relativa a otros
recursos en castellano.
en http://www.insflug.org/insflug/creditos.php3 cuenta con una
detallada relacin de las personas que hacen posible tanto esto como
las traducciones.
Dirjase a http://www.insflug.org/colaboracion/index.php3 si desea
unirse a nosotros.
Francisco Jos Montilla, pacopepe@insflug.org.

También podría gustarte