OMV6 pb de montage sur un RAID5

R76

Padawan
8 Janvier 2023
127
30
28
Normandie
Bonjour,

Habituellement lorsqu’un souci survient je me débrouille pour rétablir la situation mais là je sèche et un coup de main ne serait pas de trop.

LA CONFIG MATERIEL/OS :

Esprimo P956 I7-6700

2 SSD

3 sata de 1TO

ESXI 6.7 U2 + Pfsense sur le 1er SSD

W10 et OMV6 (à jour) sur second SSD

Les 3 sata sont déclarés chacun sur un datastore distinct afin de les « montrer » comme 3 disques à la VM OMV.

Ensuite sur l’OMV les disques sont montés en RAID5 et en ext4.

LE CONTEXTE DE LA PANNE

Vendredi fin d’am l’accès aux partages du raid5 sont inaccessibles, l’accès à l’interface Ngix pédale dans la semoule.

Un visu sur la console de l’ESXi indique que la VM est en attente de réponse car les datastores OMV1, 2 et 3 sont pleins.

Échec - Impossible d'effectuer cette opération actuellement car il y a une question en attente sur la machine virtuelle : 'msg.hbacommon.outofspace:There is no more space for virtual disk '/vmfs/volumes/63a2dc23-b8233340-21ba-001b21384264/OMV/OMV-000001.vmdk'.



Etrange car le volume disponible pour les datas est de 2 to et les données occupent moins de 700go….

J’ai cru comprendre que ce genre de souci peut provenir des snapshots. Il y en a effectivement un seul encours et selon moi il ne concernait que l’état du disque système.

Bref après suppression du snapshot et consolidation j’ai pu reprendre la main sur la vm et la relancer.

Mais au redémarrage j’ai un beau message d’erreur sur l'OMV :

Failed.jpg
Visiblement un souci de dépendance de services ???

Résultat le volume Raid ne se monte pas.


filesyst.JPG
Pour autant l’état du raid semble sain et il est bien vu comme md0 ; hors il me semble avoir compris qu’il apparaît plutot comme md127 si un disque est manquant ?

cap3.JPG


J’ai accès au système via la console ou Putty/WinSCP sauf que je ne sais pas capable de déterminer la nature du défaut de montage.

La solution de facilité serait de formater le volume et de redescendre la sauvegarde de la veille mais le travail de la journée serait perdu et surtout j’aimerais bien en savoir plus sur les erreurs de montage de volumes.

Quelqu’un a-t-il une idée où des liens à me conseiller ?
Merci ! :)
 

Pièces jointes

  • cap3.JPG
    cap3.JPG
    51 KB · Affichages: 0
Bon j’ai trouvé un échange bien intéressant entre EVOTk et Manubgeek avec quelques cdes que j’ai testés avec les résultats suivants :

ls -alh /srv/



root@gs1900:~# ls -alh /srv/

total 24K

drwxr-xr-x 6 root root 4,0K 29 déc. 18:11 .

drwxr-xr-x 19 root root 4,0K 7 janv. 19:44 ..

drwxrwxrwx 2 root root 4,0K 29 déc. 18:11 dev-disk-by-uuid-859fd2c7-9889-4eb1-be78-7cc7cc8b7387

drwxr-xr-x 2 ftp nogroup 4,0K 20 déc. 17:18 ftp

drwxr-xr-x 3 root root 4,0K 7 janv. 22:39 pillar

drwxr-xr-x 7 root root 4,0K 7 janv. 22:39 salt

root@gs1900:~#



ls -alh /srv/ dev-disk-by-uuid-859fd2c7-9889-4eb1-be78-7cc7cc8b7387/



root@gs1900:~# ls -alh /srv/dev-disk-by-uuid-859fd2c7-9889-4eb1-be78-7cc7cc8b7387/

total 8,0K

drwxrwxrwx 2 root root 4,0K 29 déc. 18:11 .

drwxr-xr-x 6 root root 4,0K 29 déc. 18:11 ..




Hors il semblerai que je suis mal barré car aucun répertoires n’apparait….
 
Salut,
Bien que je ne soit pas encore trop a l'aise avec le RAID.
Que te donne la commande :

Code:
cat /proc/mdstat/
 
Bonjour EVOTk, merci de ton passage.

root@gs1900:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdc[1] sdd[2] sda[0]
1947990016 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
bitmap: 0/8 pages [0KB], 65536KB chunk
 
merci

Que donne ceci ( afin de voir les détails du RAID ) :
Code:
mdadm --detail /dev/md0
 
Cool, j'apprends des commandes :)

root@gs1900:~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Dec 28 09:31:49 2022
Raid Level : raid5
Array Size : 1947990016 (1857.75 GiB 1994.74 GB)
Used Dev Size : 973995008 (928.87 GiB 997.37 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sun Jan 8 11:06:39 2023
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : bitmap

Name : gs1900:0 (local to host gs1900)
UUID : 29dd21e9:59cf16e5:2c4b3654:c833dfb7
Events : 1108

Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
Message automatiquement fusionné :

Ce qui me fait craindre c'est que dans l'échange avec Manu ces dossiers apparaissaient.
Et cette histoire de "dependency failed" ?
Un service qui ne se lance pas ??
 
Je ne vois rien d'anormal pour le moment

Pourrai tu donner le résultat de : ( permet de voir le détail de chaque disque du RAID )
Code:
mdadm -E /dev/sda
Code:
mdadm -E /dev/sdc
Code:
mdadm -E /dev/sdd

Tu peu utiliser la balise code pour poster le resulstat afin de concerver la mise en forme :
1673176646186.png
 
mdadm -E /dev/sda
/dev/sda:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x9
Array UUID : 29dd21e9:59cf16e5:2c4b3654:c833dfb7
Name : gs1900:0 (local to host gs1900)
Creation Time : Wed Dec 28 09:31:49 2022
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1947990016 (928.87 GiB 997.37 GB)
Array Size : 1947990016 (1857.75 GiB 1994.74 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : 97c1c0b5:eeeccea3:e8598db4:0c315db3

Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jan 8 11:06:39 2023
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
Checksum : 5e09ed41 - correct
Events : 1108

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
root@gs1900:~#

------

mdadm -E /dev/sdc
/dev/sdc:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x9
Array UUID : 29dd21e9:59cf16e5:2c4b3654:c833dfb7
Name : gs1900:0 (local to host gs1900)
Creation Time : Wed Dec 28 09:31:49 2022
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1947990016 (928.87 GiB 997.37 GB)
Array Size : 1947990016 (1857.75 GiB 1994.74 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : 244e947e:3584b403:7ecf9005:b2580006

Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jan 8 11:06:39 2023
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
Checksum : 2a69ae48 - correct
Events : 1108

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

-----

mdadm -E /dev/sdd
/dev/sdd:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x9
Array UUID : 29dd21e9:59cf16e5:2c4b3654:c833dfb7
Name : gs1900:0 (local to host gs1900)
Creation Time : Wed Dec 28 09:31:49 2022
Raid Level : raid5
Raid Devices : 3

Avail Dev Size : 1947990016 (928.87 GiB 997.37 GB)
Array Size : 1947990016 (1857.75 GiB 1994.74 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : 02d551d4:507b2435:a141f792:3d5277e5

Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jan 8 11:06:39 2023
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
Checksum : 1e7497f2 - correct
Events : 1108

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 2
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
 
Bon, je ne vois toujours rien d'anormal. je serait d'avis de lancer un re-assemblage du RAID.

Attention, contrairement a mes autres commandes qui ne font que la "visu" celle ci va faire des modifications.

Cela permet de re-assembler un RAID existant :
Code:
mdadm -AfR /dev/md1 /dev/sda /dev/sdc /dev/sdd
 
çà na pas l'air de lui plaire....

root@gs1900:~# mdadm -AfR /dev/md1 /dev/sda /dev/sdc /dev/sdd
mdadm: /dev/sda is busy - skipping
mdadm: /dev/sdc is busy - skipping
mdadm: /dev/sdd is busy - skipping
Message automatiquement fusionné :

Le md1 à la place de md0 c'est voulu ?
 
Il répond que les disque sont actuellement en utilisation.
Tu peu essayer de stopper le RAID :

Code:
mdadm -S /dev/md1

Puis, reprendre l'assemblage :
Code:
mdadm -AfR /dev/md1 /dev/sda /dev/sdc /dev/sdd
 
avec la cde de stop en MD1 il dit inconnu.
Avec MD0 il se stop bien.
J'envoi tout de même la cde d'assemblage avec MD1 ?
 
Pardon, il faut effectivement faire avec md0, donc:
Code:
mdadm -AfR /dev/md0 /dev/sda /dev/sdc /dev/sdd
 
C'est relancé :

root@gs1900:~# mdadm -AfR /dev/md0 /dev/sda /dev/sdc /dev/sdd
mdadm: /dev/md0 has been started with 3 drives.
root@gs1900:~#

mais :
1673177960762.png
Message automatiquement fusionné :

Le service smb est actif, les partages sont visibles dans le réseau mais forcément inaccessibles. Faut-il mieux coupe le service durant les essais ?
 
Ok, on va re-inspecter :
Code:
cat /proc/mdstat

Code:
mdadm -D /dev/md0

Le systeme de fichier n'est pas revenu ?
Code:
ls -alh /srv/
 
root@gs1900:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active (auto-read-only) raid5 sda[0] sdd[2] sdc[1]
1947990016 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>

-----

root@gs1900:~# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Dec 28 09:31:49 2022
Raid Level : raid5
Array Size : 1947990016 (1857.75 GiB 1994.74 GB)
Used Dev Size : 973995008 (928.87 GiB 997.37 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sun Jan 8 11:06:39 2023
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : bitmap

Name : gs1900:0 (local to host gs1900)
UUID : 29dd21e9:59cf16e5:2c4b3654:c833dfb7
Events : 1108

Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd

------

root@gs1900:~# ls -alh /srv/
total 24K
drwxr-xr-x 6 root root 4,0K 29 déc. 18:11 .
drwxr-xr-x 19 root root 4,0K 7 janv. 19:44 ..
drwxrwxrwx 2 root root 4,0K 29 déc. 18:11 dev-disk-by-uuid-859fd2c7-9889-4eb1-be78-7cc7cc8b7387
drwxr-xr-x 2 ftp nogroup 4,0K 20 déc. 17:18 ftp
drwxr-xr-x 3 root root 4,0K 7 janv. 22:39 pillar
drwxr-xr-x 7 root root 4,0K 7 janv. 22:39 salt
 
ok, peut tu me donner le resultat de blkid qui nous listera les systeme de fichier :
Code:
blkid
 
Voici la réponse de "Billy The Kid" :

root@gs1900:~# blkid
/dev/sdc: UUID="29dd21e9-59cf-16e5-2c4b-3654c833dfb7" UUID_SUB="244e947e-3584-b403-7ecf-9005b2580006" LABEL="gs1900:0" TYPE="linux_raid_member"
/dev/sdb1: UUID="eeb657a7-29d8-44d6-8767-b3ca6f95d70e" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="a1084625-01"
/dev/sdb5: UUID="865d161b-4421-45cf-bc5d-4edceabcc42c" TYPE="swap" PARTUUID="a1084625-05"
/dev/sdd: UUID="29dd21e9-59cf-16e5-2c4b-3654c833dfb7" UUID_SUB="02d551d4-507b-2435-a141-f7923d5277e5" LABEL="gs1900:0" TYPE="linux_raid_member"
/dev/sda: UUID="29dd21e9-59cf-16e5-2c4b-3654c833dfb7" UUID_SUB="97c1c0b5-eeec-cea3-e859-8db40c315db3" LABEL="gs1900:0" TYPE="linux_raid_member"
/dev/md0: UUID="859fd2c7-9889-4eb1-be78-7cc7cc8b7387" BLOCK_SIZE="4096" TYPE="ext4"