Suite au crash de mon TS-251, voir [Qnap Tuto ] ressusciter un TS-251, mais aussi TS-453, et probablement d'autres x53/x51, j'ai essayé de monter un des disque de ma grappe RAID 1 avec un Linux normal, en l'occurence une Ubuntu 20.10
ma grappe RAID1 était construite ainsi :
donc, afin de vérifier pendant que je tentais des trucs pour ressusciter le NAS, j'ai reussi à monter le disque et vérifier qu'il n'avait pas été dégradé par la panne NAS (voir premier lien)
Vous devrez vérifier que vous disposez des utilitaires mdadm, vgdisplay, lgdisplay, dumpe2fs, dmsetup. en gros la gestion LVM2 et Logical Drives, et Device Mapper.
Brancher votre disque dans votre machine sous Linux : chez moi le disque apparait en /dev/sdb
Voici quelques infos techniques relevées :
On remarque que la "grosse" partition est /dev/sdb3
Quelques infos sur le RAID 1 :
quelques infos sur le groupe de volume :
quelques infos sur le volume logique :
Là on remarque 2 volume : le volume principal, le plus gros, est donc /dev/vg1/lv1
A partir de là on entre dans le vif du sujet :
On liste les device mapper :
On y retrouve notre volume vg1-lv1, qu'il commence au secteur 77940736
un secteur faisant 512, le volume commence donc à l'offset (décalage) 512 * 77940736 = 39905656832
il ne nous reste plus qu'a monter simplement cette partition, en démarrant à cet offset précisément :
la commande mount va nous créer un loop device loop0 ici :
Et voila, pour un RAID 1 statique, il est possible de monter son disque avec les outils standards.
Note : étant oldschool, je n'aime pas les choses dynamiques ou trop complexes, malgré tous les avantages procurés, aussi je n'ai pas essayé de monter des configuration plus complexes, RAID5 ou autres, LVM plus complexes.
ma grappe RAID1 était construite ainsi :
- 2*4To Seagate Barracuda ST4000DM005
- Volume statique
- Bitmap standard
donc, afin de vérifier pendant que je tentais des trucs pour ressusciter le NAS, j'ai reussi à monter le disque et vérifier qu'il n'avait pas été dégradé par la panne NAS (voir premier lien)
Vous devrez vérifier que vous disposez des utilitaires mdadm, vgdisplay, lgdisplay, dumpe2fs, dmsetup. en gros la gestion LVM2 et Logical Drives, et Device Mapper.
Brancher votre disque dans votre machine sous Linux : chez moi le disque apparait en /dev/sdb
Voici quelques infos techniques relevées :
Code:
fdisk -l /dev/sdb
Disk /dev/sdb: 3,64 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: ST4000DM005-2DP1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 4EA4740B-6C8F-41FC-947D-F50D7CA91178
Device Start End Sectors Size Type
/dev/sdb1 40 1060289 1060250 517,7M Microsoft basic data
/dev/sdb2 1060296 2120579 1060284 517,7M Microsoft basic data
/dev/sdb3 2120584 7796248109 7794127526 3,6T Microsoft basic data
/dev/sdb4 7796248112 7797308399 1060288 517,7M Microsoft basic data
/dev/sdb5 7797308408 7814015999 16707592 8G Microsoft basic data
On remarque que la "grosse" partition est /dev/sdb3
Quelques infos sur le RAID 1 :
Code:
mdadm --examine /dev/sdb3
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 9fba5557:d4b384c4:39bac061:a796ba4e
Name : 1
Creation Time : Tue Oct 17 20:01:13 2017
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
Array Size : 3897063616 (3716.53 GiB 3990.59 GB)
Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB)
Super Offset : 7794127504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : cad781fc:399269e8:12e71009:2f9fb6ba
Update Time : Sun Dec 13 11:42:56 2020
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 49a91310 - correct
Events : 2190
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
quelques infos sur le groupe de volume :
Code:
vgdisplay
WARNING: PV /dev/md1 in VG vg1 is using an old PV header, modify the VG to update.
--- Volume group ---
VG Name vg1
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 93
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size <3,63 TiB
PE Size 4,00 MiB
Total PE 951431
Alloc PE / Size 951431 / <3,63 TiB
Free PE / Size 0 / 0
VG UUID zJ2Zwe-NwM4-y8wB-oMut-D687-6AXS-KI8XmQ
quelques infos sur le volume logique :
Code:
lvdisplay
WARNING: PV /dev/md1 in VG vg1 is using an old PV header, modify the VG to update.
--- Logical volume ---
LV Path /dev/vg1/lv544
LV Name lv544
VG Name vg1
LV UUID ezdXep-CQf0-LmSg-YieZ-t3R8-wa3a-MSjzkY
LV Write Access read/write
LV Creation host, time NAS085F59, 2017-10-17 20:01:17 +0200
LV Status available
# open 0
LV Size 37,16 GiB
Current LE 9514
Segments 1
Allocation inherit
Read ahead sectors 8192
Block device 253:3
--- Logical volume ---
LV Path /dev/vg1/lv1
LV Name lv1
VG Name vg1
LV UUID nJnYU9-Hp0v-XUK6-IPZC-cm82-wqyV-PFBnEl
LV Write Access read/write
LV Creation host, time NAS085F59, 2017-10-17 20:01:24 +0200
LV Status available
# open 0
LV Size 3,59 TiB
Current LE 941917
Segments 1
Allocation inherit
Read ahead sectors 8192
Block device 253:4
Là on remarque 2 volume : le volume principal, le plus gros, est donc /dev/vg1/lv1
A partir de là on entre dans le vif du sujet :
On liste les device mapper :
Code:
dmsetup table
vg1-lv544: 0 77938688 linear 9:1 2048
osprober-linux-sdb5: 0 16707592 linear 8:21 0
vg1-lv1: 0 7716184064 linear 9:1 77940736
osprober-linux-sdb3: 0 7794127526 linear 8:19 0
osprober-linux-sdb2: 0 1060284 linear 8:18 0
On y retrouve notre volume vg1-lv1, qu'il commence au secteur 77940736
un secteur faisant 512, le volume commence donc à l'offset (décalage) 512 * 77940736 = 39905656832
il ne nous reste plus qu'a monter simplement cette partition, en démarrant à cet offset précisément :
Code:
mount -o offset=39905656832 /dev/sdb3 /mnt/raid1
la commande mount va nous créer un loop device loop0 ici :
Code:
losetup -a
/dev/loop0: [0005]:374 (/dev/sdb3), offset 39905656832
Code:
df -h
Filesystem Size Used Avail Use% Mounted on
/dev/loop0 3,6T 2,5T 1,2T 69% /mnt/raid1
Et voila, pour un RAID 1 statique, il est possible de monter son disque avec les outils standards.


Note : étant oldschool, je n'aime pas les choses dynamiques ou trop complexes, malgré tous les avantages procurés, aussi je n'ai pas essayé de monter des configuration plus complexes, RAID5 ou autres, LVM plus complexes.