340L : Raid 5 impossible à reconstruire

jmvau54

Nouveau membre
18 Janvier 2017
7
0
0
Bonjour/Bonsoir.

J'ai un souci avec mon NAS, un 340L.
J'ai dedans 4 disques montés en raid 5.
Ca fonctionnait bien jusqu'à ce que une nuit, alors qu'il était en veille, il y a eu une coupure de courant.
Je le redémarre mais le raid est en erreur. LE bouton dans l'interface web pour reconstruire le raid est grisé.
J'ai fait un test smart, 2 disques sont ok et 2 ko.
Je me dis que je vais tout mettre sur un linux pour voir ce qu'il en est. Mais étant débutant avec mdadm, je préfère demander avant de faire des bêtises.
Pas la peine de vous dire que le disque contient des photos et vidéos des enfants...

Je suis à votre écoute pour les commandes à lancer. Ou les diagnostiques que je pourrais faire. ou un tuto à suivre.
Je peux éventuellement mettre mes disques sur un windows 7 si nécessaire.

Promis, dès que je récupère mes données, je fais une réplication sur un qnap

MErci d'avance pour votre aide.
 
Si 2 disques sont HS, c'est la raison pour laquelle il ne veut pas le reconstruire (il faut un minimum de 3 disques). Le RAID 5 ne tolère qu'un disque HS. Par contre, as-tu accès aux données ? J'imagine que non.

Tu peux effectivement tenter de les récupérer avec un PC sous Linux, mais il faudrait qu'1 des 2 disques KO puissent fournir un minimum d'information pour tenter une récupération de toutes les données. Je dois avoir une procédure quelque part... mais cela me semble très mal engager.
 
Je suis bien conscient du fait qu'il faille au moins 3 disques mais je me dis que tant que les disques démarre et qu'ils ne font pas de bruit particulier, il y a de l'espoir. Si il y a juste quelques secteurs défectueux et que je perds quelques fichiers, je ferai avec.
Ca me semble bizarre que 2 disques lachent comme ca alors qu'ils sont en veille.

En fait, en y reréfléchissant cette nuit, j'ai eu accès aux données, enfin d'une certaine manière. Dans un dossier photos, elles étaient présentes, mais leur contenu incomplet, il n'y avait qu'une partie de la photo.
 
Ce que je te recommande, c'est de faire un Live-USB d'Ubuntu (si tu ne l'as pas déjà) : procédure ici. Tu fais démarrer ton PC (avec les disques) sur la clé USB. Attention à bien connecter les 4 disques à ton ordinateur (en SATA et/ou USB alimenté). Ensuite, on passe en ligne de commande une fois Ubuntu lancé, tape :
Code:
cat /proc/partitions
Les 4 disques doivent être vu. Exemple : sdb2, sdc2, sdd2 et sde2 (attention au nommage des disques pour ce qui suit)

On installe le raid manager
Code:
sudo apt-get update sudo apt-get install mdadm

On assemble le raid
Code:
sudo mdadm --assemble /dev/md0 /dev/sdb2 /dev/sdc2 /dev/sdd2 /dev/sde2 --run
Si tu as tous les superblocs, ça devrait aller. S'il faut reconstruire car le raid est dégradé (ex : dernier disque KO)
Code:
sudo mdadm -CfR --assume-clean -l 5 -n 4 -e 0.90 -c 64 /dev/md0 /dev/sdb2 /dev/sdc2 /dev/sdd2 missing

On créé le point de montage et on le monte
Code:
mkdir /tmp/mountpoint sudo mount /dev/md0 /tmp/mountpoint -o ro

Il ne reste plus qu'à faire la sauvegarde. Bon courage et on croise les doigts... malheureusement, c'est sans garantie.
 
Ok merci pour la marche à suivre.
J'essayerai ce soir.
Ubuntu est déjà installé ainsi que mdadm.

Est ce que l'ordre des disques dans cette commande et dans la suivante est importante ?
Code:
sudo mdadm --assemble /dev/md0 /dev/sdb2 /dev/sdc2 /dev/sdd2 /dev/sde2 --run
 
Sans rien monter, j'ai ça.
Comme ils font déjà parti d'une grappe, ils sont occupés quand j'essaie l'assemblage.

Code:
jm@jm-P35C-DS3R:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md127 : inactive sdd1[3](S)
      524224 blocks
       
md1 : inactive sdd2[3](S) sdc2[2](S) sdb2[1](S) sda2[0](S)
      7803563952 blocks super 1.0
       
md0 : active raid1 sdc1[2] sdb1[1] sda1[0]
      524224 blocks [3/3] [UUU]
      
unused devices: <none>

Code:
jm@jm-P35C-DS3R:~$ sudo mdadm --examine /dev/sd[abcd]2
/dev/sda2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 3547e3d0:ef8809ed:d9457653:208c59a5
           Name : 1
  Creation Time : Sat Apr  6 09:30:03 2013
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3901781976 (1860.51 GiB 1997.71 GB)
     Array Size : 5852672640 (5581.54 GiB 5993.14 GB)
  Used Dev Size : 3901781760 (1860.51 GiB 1997.71 GB)
   Super Offset : 3901782104 sectors
   Unused Space : before=0 sectors, after=344 sectors
          State : clean
    Device UUID : 8a58a41e:1c395bb4:10092524:9fa162d4

    Update Time : Tue Jan 17 00:13:08 2017
       Checksum : 8e419ba7 - correct
         Events : 123652

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 3547e3d0:ef8809ed:d9457653:208c59a5
           Name : 1
  Creation Time : Sat Apr  6 09:30:03 2013
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3901781976 (1860.51 GiB 1997.71 GB)
     Array Size : 5852672640 (5581.54 GiB 5993.14 GB)
  Used Dev Size : 3901781760 (1860.51 GiB 1997.71 GB)
   Super Offset : 3901782104 sectors
   Unused Space : before=0 sectors, after=344 sectors
          State : clean
    Device UUID : 72568a15:e2f49536:23efdc05:92e18e98

    Update Time : Tue Jan 17 00:13:08 2017
       Checksum : ad467b5b - correct
         Events : 123652

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 3547e3d0:ef8809ed:d9457653:208c59a5
           Name : 1
  Creation Time : Sat Apr  6 09:30:03 2013
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3901781976 (1860.51 GiB 1997.71 GB)
     Array Size : 5852672640 (5581.54 GiB 5993.14 GB)
  Used Dev Size : 3901781760 (1860.51 GiB 1997.71 GB)
   Super Offset : 3901782104 sectors
   Unused Space : before=0 sectors, after=344 sectors
          State : clean
    Device UUID : 510f715e:96f19e1c:a7b023bb:a8c9112b

    Update Time : Sat Sep 24 10:01:16 2016
       Checksum : 236ad8b3 - correct
         Events : 2

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : 3547e3d0:ef8809ed:d9457653:208c59a5
           Name : 1
  Creation Time : Sat Apr  6 09:30:03 2013
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3901781976 (1860.51 GiB 1997.71 GB)
     Array Size : 5852672640 (5581.54 GiB 5993.14 GB)
  Used Dev Size : 3901781760 (1860.51 GiB 1997.71 GB)
   Super Offset : 3901782104 sectors
   Unused Space : before=0 sectors, after=344 sectors
          State : active
    Device UUID : 54d46d80:28888205:44da4ff6:4d01586d

    Update Time : Mon Jan 16 23:56:55 2017
       Checksum : ac57934c - correct
         Events : 123580

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)

Un avis ?

Merci
 
Salut,
J'ai solutionné le problème.
Je vais récapituler rapidement

sdc est out depuis un moment.

sdd comporte des erreurs

J'ai utilisé ddrescue pour copie sdd vers un autre disque en récupérant au maximum les erreurs de lecture.

J'ai du utiliser la commande suivante pour remonter le raid avec 3 disques, sde étant la copie de sdd, un montage classique ne fonctionnant pas.
Code:
sudo mdadm --create /dev/md1 --metadata=1.0 --level=5 --layout=left-symmetric --chunk=64 --assume-clean -n 4 /dev/mapper/sda2 /dev/mapper/sdb2 missing /dev/mapper/sde2