Poster une réponse à un sujet: [HowTo] SW Raid-1 from scratch
Attention, ce sujet est un sujet ancien (5376 jours sans réponse)
blietaer
[mode append-topic]
ce qui précède n'a pas vraiment de lien, je ne voulais pas commencer un nouveau topic juste pour ceci...
[/mode append-topic]
Alors ca, ca fait mal!
Un Dell Vostro 410, deux HD de 160Go en RAID comme selon:
# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid0 sda3[0] sdb3[1]
311516160 blocks 64k chunks
md0 : active raid1 sda1[0] sdb1[1]
88256 blocks [2/2] [UU]
unused devices: <none>
et donc:
/dev/md0 on /boot type ext3 (rw)
/dev/md1 on / type xfs (rw)
ce qui donne bien:
/dev/md0 84M 33M 47M 42% /boot
/dev/md1 297G 7.8G 290G 3% /
Je lance donc le petit seeker.c (ici), qui vaut ce qui vaut mais, hey, faut bien benchmarker, sinon pq on fait du RAID?
et là, stupéfaction:
# ./seeker /dev/md0
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/md0 [86MB], wait 30 seconds..............................
Results: 259 seeks/second, 3.85 ms random access time
contre:
# ./seeker /dev/md1
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/md1 [304215MB], wait 30 seconds..............................
Results: 68 seeks/second, 14.69 ms random access time
Euuh y a pas comme un stuuut?
Ou alors pendant la nuit ils ont échangé RAID-1 (mirroring) en RAID-0 (striping) et inversément?!?!
Ou bien je dois prendre un café?
Ou bien je dois prendre un outil de test qui marche vraiment?
Ou bien je jette le XFS pour du ext4 (pourtant XFS est connu pour s'aligner tout seul sur du RAID...au contraire de ext4)
ce qui précède n'a pas vraiment de lien, je ne voulais pas commencer un nouveau topic juste pour ceci...
[/mode append-topic]
Alors ca, ca fait mal!
Un Dell Vostro 410, deux HD de 160Go en RAID comme selon:
# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid0 sda3[0] sdb3[1]
311516160 blocks 64k chunks
md0 : active raid1 sda1[0] sdb1[1]
88256 blocks [2/2] [UU]
unused devices: <none>
et donc:
/dev/md0 on /boot type ext3 (rw)
/dev/md1 on / type xfs (rw)
ce qui donne bien:
/dev/md0 84M 33M 47M 42% /boot
/dev/md1 297G 7.8G 290G 3% /
Je lance donc le petit seeker.c (ici), qui vaut ce qui vaut mais, hey, faut bien benchmarker, sinon pq on fait du RAID?
et là, stupéfaction:
# ./seeker /dev/md0
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/md0 [86MB], wait 30 seconds..............................
Results: 259 seeks/second, 3.85 ms random access time
contre:
# ./seeker /dev/md1
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/md1 [304215MB], wait 30 seconds..............................
Results: 68 seeks/second, 14.69 ms random access time
Euuh y a pas comme un stuuut?
Ou alors pendant la nuit ils ont échangé RAID-1 (mirroring) en RAID-0 (striping) et inversément?!?!
Ou bien je dois prendre un café?
Ou bien je dois prendre un outil de test qui marche vraiment?
Ou bien je jette le XFS pour du ext4 (pourtant XFS est connu pour s'aligner tout seul sur du RAID...au contraire de ext4)
Jean-Christophe
non, ca ne fonctionnera pas.
La seule possibilité serait d'installer xp dans une VM sur ton linux sur ton raid.
La seule possibilité serait d'installer xp dans une VM sur ton linux sur ton raid.
blietaer
Tiens et est ce qu'on peut préparer tout un system SOFT RAID (1 ou 0 ou 10 ou 01) avec un live CD Linux,.,..et puis y installer WinXP? faut taper la touche F6 et lui flanquer un driver? (meme si c'est du soft Raid?)
blietaer
Tiens et dans l'abolsu, comme ça pour discuter, est-ce complètement con de faire, sur deux disque à la fois du RAID0 (deux partitions) ET du RAID1 (deux partitions) ?
Nivellement par le bas des perfs du RAID0? en permanence?
Et si je ne monte (au sens *nix) que de temps en temps le RAID1 (le temps d'un backup) ?
merci!
Nivellement par le bas des perfs du RAID0? en permanence?
Et si je ne monte (au sens *nix) que de temps en temps le RAID1 (le temps d'un backup) ?
merci!
blietaer
Tous mes soucis sont bien dûs à des remount en read-only intempestifs.
Comme précisé plus haut: il y a certainement une raison à cela...
J'imagine un ext3 corrompu.
Cela dit, et c'est pas une idée grandiose, j'avais retiré les options de remounts en RO un peu partout dans les machines virtuelles (/etc/mtab, /etc/fstab, /boot/grub/menu.lst,..)
Je pensais en être débarasseé et ce matin en voulant envoyer un mail: bardaf, le système SMTP en RO de nouveau...GRRR!
Je vous dis pas les mails qui doivent rentrer et qui ne peuvent pas être traité.
Je cherche donc des idées pour:
- checker le problème
- empêcher du RO, en tous cas tant que c'est pas réglé (quite à perdre la machine, j'ai des snapshot)
Comme précisé plus haut: il y a certainement une raison à cela...
J'imagine un ext3 corrompu.
Cela dit, et c'est pas une idée grandiose, j'avais retiré les options de remounts en RO un peu partout dans les machines virtuelles (/etc/mtab, /etc/fstab, /boot/grub/menu.lst,..)
Je pensais en être débarasseé et ce matin en voulant envoyer un mail: bardaf, le système SMTP en RO de nouveau...GRRR!
Je vous dis pas les mails qui doivent rentrer et qui ne peuvent pas être traité.
Je cherche donc des idées pour:
- checker le problème
- empêcher du RO, en tous cas tant que c'est pas réglé (quite à perdre la machine, j'ai des snapshot)
blietaer
~ # vmstat -a -S M 1
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free inact active si so bi bo in cs us sy id wa
0 36 0 223 2501 5126 0 0 3 5 2 3 0 1 95 3
0 36 0 222 2501 5126 0 0 0 3848 1794 2291 0 1 0 99
0 36 0 222 2501 5126 0 0 0 4964 1866 2610 1 1 0 98
0 37 0 221 2501 5126 0 0 0 5168 2218 3007 1 1 0 98
0 37 0 221 2501 5126 0 0 0 4 1842 2114 0 1 0 99
0 36 0 221 2501 5126 0 0 0 4348 1986 2394 1 2 0 97
1 35 0 221 2501 5126 0 0 0 1928 2116 2747 1 1 0 98
1 35 0 222 2501 5126 0 0 0 2152 2084 2364 0 1 0 98
1 36 0 222 2501 5126 0 0 0 4116 2361 3191 1 2 0 97
0 36 0 222 2501 5126 0 0 0 4 1938 2443 0 1 0 99
0 37 0 222 2501 5126 0 0 0 2924 1953 2541 1 1 0 97
0 37 0 222 2501 5126 0 0 0 4408 2001 2385 1 1 0 98
0 37 0 222 2501 5126 0 0 0 4 1625 1804 0 1 0 99
0 37 0 221 2501 5126 0 0 0 5060 2450 3703 1 2 0 97
0 36 0 222 2501 5126 0 0 0 4132 2064 3179 1 2 0 97
0 37 0 221 2501 5126 0 0 0 16 2321 3378 1 1 0 98
0 36 0 221 2501 5126 0 0 0 4076 1871 2662 1 2 0 98
La dernière colonne est très inquiétante: c'est le temps que le CPU passe à attendre de l'I/O
Une horreur à été détectée: deux machines virtuelles contenaient dans leur /etc/fstab l'option "errors=remount-ro" et...étaient précisément remountée en ro!!
Pour des serveurs mail je vous dis pas l'horreur.
Donc j'ai viré l'option et relancé en rw.
Du coup, j'imagine que le serveur tricotte surtout pour se remettre à jour de tous les mails en attente...
Mais c'est un peu comme remplacer un fusible de voiture par un papier alu: ca marche bien, mais si le fusible a pété, c'est qu'il y a une raison et maintenant c'est plus un fusible qui risque de griller, mais toute la voiture.
Bref.
Assez de métaphores, je prends ma lampe torche et descend dans les logs.
A plus tard...
blietaer
Merci je tente cela lundi.
philfr
vmstat peut monitorer les io, la mémoire, le swapping, le cpu...
Commence par lancer vmstat 1 et surveille un peu ce qui se passe.
Commence par lancer vmstat 1 et surveille un peu ce qui se passe.
blietaer
Bon...
Les 3 serveurs sont virtualisés et fonctionnels.
Cela dit, on dirait que leur temps de réponses est un peu amorti: les ssh ne réponde plus dans la seconde, il faut parfois attendre 10sec pour envoyer un mail, etc...
Pourtant point de vue RAM et Hz, les machines ont plus qu'elles n'ont besoin.
Un coup d'oeil sur le Rack me montre que...la HD-LED ne s'éteind même plus..
J'en conclu que les deux HDs en RAID1 n'arrête plus de tricoter entre les 3 machines (sans compter l'host!) et que le bottleneck est plutôt les I/O.
C'est grave docteur?
J'ai un peu peur qu'à ce rythme, un des deux disques claque...
D'abord, puis-je mesurer l'ampleur du cas?
Des commandes bien senties?
Du côté du GUI VMware?
Déjà des idées d'optimisation?
Kernel?
Drivers?
Ah oui: toutes les machiens ont bien les vmware-guest-tools up & running...
Les 3 serveurs sont virtualisés et fonctionnels.
Cela dit, on dirait que leur temps de réponses est un peu amorti: les ssh ne réponde plus dans la seconde, il faut parfois attendre 10sec pour envoyer un mail, etc...
Pourtant point de vue RAM et Hz, les machines ont plus qu'elles n'ont besoin.
Un coup d'oeil sur le Rack me montre que...la HD-LED ne s'éteind même plus..
J'en conclu que les deux HDs en RAID1 n'arrête plus de tricoter entre les 3 machines (sans compter l'host!) et que le bottleneck est plutôt les I/O.
C'est grave docteur?
J'ai un peu peur qu'à ce rythme, un des deux disques claque...
D'abord, puis-je mesurer l'ampleur du cas?
Des commandes bien senties?
Du côté du GUI VMware?
Déjà des idées d'optimisation?
Kernel?
Drivers?
Ah oui: toutes les machiens ont bien les vmware-guest-tools up & running...
philfr
Et ?