Qnap [Résolu] Bon bah ca c'est pas bien passé... :-)

kapokz

Nouveau membre
18 Juin 2017
18
0
1
je voulais changer le HDD1 qui hebergeait datavol1 car le SMart m'indique qu'il n'est pas en bonne santé
j'ai un second HDD avec un volume DATA, sur lequel j'ai beaucoup de fichier mais tout est sauvegardé.
j'ai éteint le NAS et retirer les Disque
j'ai insérer mon disque neuf en HDD1 et déclarer le volume Datavol1
j'ai recréer mes dossiers partagés. tout va bien. je redescend ma sauvegarde HDD1 en cemoment,
il faut aussi que je réinstalle mes applis.

j'ai réinsérer le HDD2 avec le volume Data, mais il monte pas tout seul.
je voudrais tenter de monter le volume pour le récupérer avec toutes les données qui sont dessus (histoires d'éviter de jouer une restauration) qui va prendre beaucoup de temps,

Savez vous comment je peux re-declarer mon HDD2 avec le nom de volume DATA pour qu'il retrouve ses petits ? la partition s'appelle :Dev1partition3

je me souviens qu'il y a quelques années, j'avais fair tune opération de réinsertion d'un disque après réinitialisation du QNAP et j'avais retrouvé mes données au recréant les dossier partagés avec les memes noms.

mais la c'est d'abord le volume que je veux remonter.

quand je mets le HDD2 en disque externe, le qnap voit bien plusieurs partition dont la plus grosse qu'il declare comme non initialisé


Auriez-vous une idée ?

merci.
 
Auriez-vous une idée ?
Cela sent le conflit de nom. Pourquoi avoir tout fait avec le HDD2 hors du NAS ?
Si le HDD1/Datavol1 a pris le meme nom systeme que ton HDD2 alors c’est impossible a remonter simplement.

Pourrait tu te connecter en admin, en ssh et indiquer le résultat des commandes suivantes :

Code:
md_checker

Code:
pvs -a

Code:
lvs -a

Code:
ls -alh /dev/mapper/

Code:
df -h
 
Bonjour Evo, merci pour votre réponse et désolé pour le délai, mais je n'étais pas sur le coups cette fin de semaine.

j'ai certainement mal compris, le fonctionnement. je pensais a tort certainement, que je ne pouvais pas retirer le HDD1 sans arrêter le NAS et retirer le HDD2. du fait, que je n'utilise pas le RAID1 , je croyais que si je Hotswappait le HDD1, j'allais mettre en vrac le NAS.

Le HDD1 et le HDD2 ne contenait pas les meme noms de volumes à la base (DataVol1 pour le HDD1 et DATA pour le HDD2)

ci-dessous , je copie/colle le résultat des commandes que vous m'avez demandé

Code:
[~] # md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID:           1bd898d1:84a388ac:de4cb0b1:6fef8ef0
Level:          raid1
Devices:        1
Name:           md1
Chunk Size:     -
md Version:     1.0
Creation Time:  Dec 16 16:06:43 2023
Status:         ONLINE (md1)
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       1        /dev/sda3   0   Active   Dec 19 11:30:19 2023        9   A
===============================================================================================


RAID metadata found!
UUID:           e605a420:cf7397fa:172db75d:78745596
Level:          raid1
Devices:        1
Name:           md2
Chunk Size:     -
md Version:     1.0
Creation Time:  Jul 3 08:15:37 2021
Status:         OFFLINE
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       2        /dev/sdc3   0   Active   Dec 16 14:45:28 2023       54   A
===============================================================================================

[~] # pvs -a
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using /dev/drbd1 not /dev/md1
  Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using /dev/drbd1 not /dev/md1
  Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
  PV         VG    Fmt  Attr PSize PFree
  /dev/drbd1 vg288 lvm2 a--  3.63t    0
  /dev/md1   vg288 lvm2 a--  3.63t    0
  /dev/md13             ---     0     0
  /dev/md256            ---     0     0
  /dev/md322            ---     0     0
  /dev/md9              ---     0     0

[~] # lvs -a
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using /dev/drbd1 not /dev/md1
  Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
  LV    VG    Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv1   vg288 -wi-ao----  3.59t                                                 
  lv544 vg288 -wi------- 37.28g   
                                            
[~] # ls -alh /dev/mapper
total 0
drwxr-xr-x  2 admin administrators      100 2023-12-16 19:28 ./
drwxr-xr-x 16 admin administrators      21K 2023-12-18 18:53 ../
brw-rw----  1 admin administrators 253,   0 2023-12-16 19:28 cachedev1
crw-------  1 admin administrators  10, 236 2023-12-16 19:27 control
brw-rw----  1 admin administrators 253,   1 2023-12-16 19:28 vg288-lv1

[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
none                    400.0M    334.7M     65.3M  84% /
devtmpfs                  3.8G      4.0K      3.8G   0% /dev
tmpfs                    64.0M    596.0K     63.4M   1% /tmp
tmpfs                     3.8G    148.0K      3.8G   0% /dev/shm
tmpfs                    16.0M         0     16.0M   0% /share
/dev/sdb5                 7.8M     36.0K      7.8M   0% /mnt/boot_config
tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    131.8M    361.7M  27% /mnt/HDA_ROOT
cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
/dev/mapper/cachedev1
                          3.6T    117.6G      3.4T   3% /share/CACHEDEV1_DATA
/dev/md13               417.0M    370.4M     46.6M  89% /mnt/ext
tmpfs                    32.0M     27.2M      4.8M  85% /samba_third_party
tmpfs                    48.0M     40.0K     48.0M   0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
/dev/sde1               982.4G    108.5G    873.9G  11% /share/external/DEV3301_1
tmpfs                     1.0M         0      1.0M   0% /share/.quftp_client
[~] #
 
Dernière édition par un modérateur:
j'ai certainement mal compris, le fonctionnement. je pensais a tort certainement, que je ne pouvais pas retirer le HDD1 sans arrêter le NAS et retirer le HDD2. du fait, que je n'utilise pas le RAID1 , je croyais que si je Hotswappait le HDD1, j'allais mettre en vrac le NAS.
la config du NAS est présente sur tout les disques, et le systeme est monté en RAM au démarrage. une fois allumé, le NAS est capable de fonctionner sans disques ( mais faut pas une coupure de courant :ROFLMAO: )

Le HDD1 et le HDD2 ne contenait pas les meme noms de volumes à la base (DataVol1 pour le HDD1 et DATA pour le HDD2)
Ici ce sont des alias, mais les volumes ont des noms "interne", ce sont ces noms qui s'ils sont identique deviennent problématique.

ici on voit un md1 et un md2, pas le meme nom, c'est plutot bon signe pour la suite.

md2 est OFFLINE, fait cela pour l'activer :

Code:
mdadm -AfR /dev/md2 /dev/sdc3

Tu peux vérifier qu'il est bien passé en ONLINE avec :
Code:
md_checker

Ensuite, essaye :
Code:
/etc/init.d/init_lvm.sh

Si cela ne monte pas le stockage, alors donne moi les résultats des commandes suivantes :

Code:
pvs -a

Code:
lvs -a

Code:
ls -alh /dev/mapper/

Code:
df -h
 
Merci pour cette réponse très rapide.
alors j'ai l'impression que la premiere commande a bien fonctionnée. tu verras qu'il marque ACTIVE

par contre, dans la console web , dans la parti disque, j'ai bien les 2 HDD maintenant en vert. mais pour l'instant je ne vois aucuns volumes. (plus rien dans le file explorer et quand je regarde les dossiers partagés que j'avais recréer pour l'occasion sur le HDD1. le bouton pour voir les propriété est grisé.

je te colle la console ci-dessous. avec le résultat des commandes.


Code:
[~] # mdadm -AfR /dev/md2 /dev/sdc3
mdadm: /dev/md2 has been started with 1 drive.

[~] # md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID:           1bd898d1:84a388ac:de4cb0b1:6fef8ef0
Level:          raid1
Devices:        1
Name:           md1
Chunk Size:     -
md Version:     1.0
Creation Time:  Dec 16 16:06:43 2023
Status:         ONLINE (md1)
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       1        /dev/sda3   0   Active   Dec 19 13:55:15 2023        9   A
===============================================================================================


RAID metadata found!
UUID:           e605a420:cf7397fa:172db75d:78745596
Level:          raid1
Devices:        1
Name:           md2
Chunk Size:     -
md Version:     1.0
Creation Time:  Jul 3 08:15:37 2021
Status:         ONLINE (md2)
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       2        /dev/sdc3   0   Active   Dec 16 14:45:28 2023       54   A
===============================================================================================

[~] # /etc/init.d/init_lvm.sh
Changing old config name...
Reinitialing...
Detect disk(8, 16)...
ignore non-root enclosure disk(8, 16).
Detect disk(253, 0)...
ignore non-root enclosure disk(253, 0).
Detect disk(8, 64)...
ignore non-root enclosure disk(8, 64).
Detect disk(8, 32)...
dev_count ++ = 0
Detect disk(8, 0)...
dev_count ++ = 1
Detect disk(8, 16)...
ignore non-root enclosure disk(8, 16).
Detect disk(253, 0)...
ignore non-root enclosure disk(253, 0).
Detect disk(8, 64)...
ignore non-root enclosure disk(8, 64).
Detect disk(8, 32)...
Detect disk(8, 0)...
sys_startup_p2:got called count = -1
Done

[~] # pvs -a
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using /dev/drbd1 not /dev/md1
  Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using existing dev /dev/drbd1
  PV         VG    Fmt  Attr PSize PFree
  /dev/drbd1 vg288 lvm2 a--  3.63t    0
  /dev/md1   vg288 lvm2 a--  3.63t    0
  /dev/md13             ---     0     0
  /dev/md2   vg288 lvm2 a--  3.63t    0
  /dev/md256            ---     0     0
  /dev/md322            ---     0     0
  /dev/md9              ---     0     0
[~] # lvs -a
  WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
  Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using existing dev /dev/drbd1
  LV    VG    Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv1   vg288 -wi-ao----  3.59t                                                 
  lv3   vg288 -wi-------  3.59t                                                 
  lv544 vg288 -wi------- 37.28g                                                 
  lv545 vg288 -wi------- 37.28g
                                                
[~] # ls -alh /dev/mapper
total 0
drwxr-xr-x  2 admin administrators      100 2023-12-16 19:28 ./
drwxr-xr-x 16 admin administrators      21K 2023-12-19 13:55 ../
brw-rw----  1 admin administrators 253,   0 2023-12-16 19:28 cachedev1
crw-------  1 admin administrators  10, 236 2023-12-16 19:27 control
brw-rw----  1 admin administrators 253,   1 2023-12-16 19:28 vg288-lv1
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
none                    400.0M    334.6M     65.4M  84% /
devtmpfs                  3.8G      4.0K      3.8G   0% /dev
tmpfs                    64.0M    680.0K     63.3M   1% /tmp
tmpfs                     3.8G    148.0K      3.8G   0% /dev/shm
tmpfs                    16.0M         0     16.0M   0% /share
/dev/sdb5                 7.8M     36.0K      7.8M   0% /mnt/boot_config
tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    131.8M    361.6M  27% /mnt/HDA_ROOT
cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
/dev/mapper/cachedev1
                          3.6T    117.6G      3.4T   3% /share/CACHEDEV1_DATA
/dev/md13               417.0M    370.4M     46.6M  89% /mnt/ext
tmpfs                    32.0M     27.2M      4.8M  85% /samba_third_party
tmpfs                    48.0M     40.0K     48.0M   0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
/dev/sde1               982.4G    108.5G    873.9G  11% /share/external/DEV3301_1
tmpfs                     1.0M         0      1.0M   0% /share/.quftp_client
[~] #
 
bonsoir,

voici le resultat :
[~] # vgdisplay
--- Volume group ---
VG Name vg288
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 72
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 3.63 TiB
PE Size 4.00 MiB
Total PE 951431
Alloc PE / Size 951431 / 3.63 TiB
Free PE / Size 0 / 0
VG UUID ZR2ijx-KJ92-TnG0-k3Se-BnpB-DJJv-36r8ox

WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using existing dev /dev/drbd1
--- Volume group ---
VG Name vg288
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 20
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 3.63 TiB
PE Size 4.00 MiB
Total PE 951431
Alloc PE / Size 951431 / 3.63 TiB
Free PE / Size 0 / 0
VG UUID L83VJe-zDNc-6XjG-wWC8-5l5N-G16A-Kao05g



quels ressources ou sources d'information me conseillerez vous pour aborder les principes de base des systems d'exploitations Linux ?

j'essaie de comprendre ce que vous cherchez. Est-ce que par hasard, c'est le VG UUID ? qui semble etre la seule chose différentes. ( a part peut etre le meta sequence...)
 
Est-ce que par hasard, c'est le VG UUID ?
Oui, on va utiliser son UUID pour le renommer, on ne peux pas l'appler via son vg ( vg288 ) car le systeme ne serait pas lequel prendre.

Donc on renomme le vg288 en doublon, pour le nommer vg289 :

Code:
vgrename L83VJe-zDNc-6XjG-wWC8-5l5N-G16A-Kao05g /dev/vg289

lv3 et lv545 sont unique, donc pour moi, pas besoin de toucher a ce niveau

Ensuite on active notre vg289 :

Code:
vgchange -ay vg289

Puis on force l'actualisation du systeme :
Code:
/etc/init.d/init_lvm.sh

Regarde si le systeme de fichier est monté :
Code:
df -h

Idem, si tu as des problèmes alors, redonne moi les retours des commandes :
Code:
pvs -a
Code:
lvs -a
Code:
ls -alh /dev/mapper/
Code:
df -h

quels ressources ou sources d'information me conseillerez vous pour aborder les principes de base des systems d'exploitations Linux ?
Alors je sais pas trop, ici on est sur des montages LVM

 
Je suis vraiment impressionné, quel talent !! Merci.

j'y suis presque, j'ai maintenant les Deux volumes déclaré (Datavol1 et DATA)

je ne sais pas si ca a tout a fait abouti, la première commande affiche des duplicate PV, mais au final il renomme en vg289

a l'usage sur le file explorer, datavol1 a réapparu et affiche les dossiers partagés récemment créer, avec toutes les données dedans. :)

le volume DATA est apparu 2-3 minutes après, mais vide,. j'hésites à recréer à via l'interface d'admin les dossiers partagés avec les meme noms qu'avant en pointant sur le volume Data. (il me semble avoir fait ca un jour après avoir réinitialiser usine un TS-109)

A moins que vous ayez encore une commande miracle ;-) dans la manche pour les retrouver :)


je colle ici le résultat des commandes au cas où:

[~] # vgrename L83VJe-zDNc-6XjG-wWC8-5l5N-G16A-Kao05g /dev/vg289
WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using existing dev /dev/drbd1
WARNING: duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV y6li19hBzUi6NARbh34YRqt9M80Lt0bn: using existing dev /dev/drbd1
Volume group "vg288" successfully renamed to "vg289"

[~] # vgchange -ay vg289
2 logical volume(s) in volume group "vg289" now active

[~] # /etc/init.d/init_lvm.sh
Changing old config name...
mv: can't rename '/etc/config/ssdcache.conf': No such file or directory
mv: can't rename '/etc/config/qlvm.conf': No such file or directory
mv: can't rename '/etc/config/qdrbd.conf': No such file or directory
Reinitialing...
Detect disk(8, 16)...
ignore non-root enclosure disk(8, 16).
Detect disk(253, 0)...
ignore non-root enclosure disk(253, 0).
Detect disk(8, 64)...
ignore non-root enclosure disk(8, 64).
Detect disk(8, 32)...
dev_count ++ = 0
Detect disk(8, 0)...
dev_count ++ = 1
Detect disk(8, 16)...
ignore non-root enclosure disk(8, 16).
Detect disk(253, 0)...
ignore non-root enclosure disk(253, 0).
Detect disk(8, 64)...
ignore non-root enclosure disk(8, 64).
Detect disk(8, 32)...
Detect disk(8, 0)...
sys_startup_p2:got called count = -1
Done

[~] # df -h
Filesystem Size Used Available Use% Mounted on
none 400.0M 334.6M 65.4M 84% /
devtmpfs 3.8G 4.0K 3.8G 0% /dev
tmpfs 64.0M 660.0K 63.4M 1% /tmp
tmpfs 3.8G 148.0K 3.8G 0% /dev/shm
tmpfs 16.0M 0 16.0M 0% /share
/dev/sdb5 7.8M 36.0K 7.8M 0% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 131.9M 361.6M 27% /mnt/HDA_ROOT
cgroup_root 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/mapper/cachedev1
3.6T 117.6G 3.4T 3% /share/CACHEDEV1_DATA
/dev/md13 417.0M 370.4M 46.6M 89% /mnt/ext
tmpfs 32.0M 27.2M 4.8M 85% /samba_third_party
tmpfs 48.0M 44.0K 48.0M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
/dev/sde1 982.4G 108.5G 873.9G 11% /share/external/DEV3301_1
tmpfs 1.0M 0 1.0M 0% /share/.quftp_client
/dev/mapper/cachedev3
3.6T 2.7T 890.6G 76% /share/CACHEDEV3_DATA

[~] # pvs -a
PV VG Fmt Attr PSize PFree
/dev/drbd1 vg289 lvm2 a-- 3.63t 0
/dev/drbd2 vg288 lvm2 a-- 3.63t 0
/dev/md1 --- 0 0
/dev/md13 --- 0 0
/dev/md2 --- 0 0
/dev/md256 --- 0 0
/dev/md322 --- 0 0
/dev/md9 --- 0 0
[~] # lvs -a
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv3 vg288 -wi-ao---- 3.59t
lv545 vg288 -wi------- 37.28g
lv1 vg289 -wi-ao---- 3.59t
lv544 vg289 -wi------- 37.28g
[~] # ls -alh /dev/mapper/
total 0
drwxr-xr-x 2 admin administrators 140 2023-12-19 21:46 ./
drwxr-xr-x 17 admin administrators 21K 2023-12-19 21:46 ../
brw-rw---- 1 admin administrators 253, 0 2023-12-16 19:28 cachedev1
brw-rw---- 1 admin administrators 253, 2 2023-12-19 21:46 cachedev3
crw------- 1 admin administrators 10, 236 2023-12-16 19:27 control
brw-rw---- 1 admin administrators 253, 4 2023-12-19 21:46 vg288-lv3
brw-rw---- 1 admin administrators 253, 1 2023-12-16 19:28 vg289-lv1
[~] # df -h
Filesystem Size Used Available Use% Mounted on
none 400.0M 334.6M 65.4M 84% /
devtmpfs 3.8G 4.0K 3.8G 0% /dev
tmpfs 64.0M 660.0K 63.4M 1% /tmp
tmpfs 3.8G 148.0K 3.8G 0% /dev/shm
tmpfs 16.0M 0 16.0M 0% /share
/dev/sdb5 7.8M 36.0K 7.8M 0% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 131.9M 361.6M 27% /mnt/HDA_ROOT
cgroup_root 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/mapper/cachedev1
3.6T 117.6G 3.4T 3% /share/CACHEDEV1_DATA
/dev/md13 417.0M 370.4M 46.6M 89% /mnt/ext
tmpfs 32.0M 27.2M 4.8M 85% /samba_third_party
tmpfs 48.0M 44.0K 48.0M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
/dev/sde1 982.4G 108.5G 873.9G 11% /share/external/DEV3301_1
tmpfs 1.0M 0 1.0M 0% /share/.quftp_client
/dev/mapper/cachedev3
3.6T 2.7T 890.6G 76% /share/CACHEDEV3_DATA
[~] #
 
OK c'est parfait on voit que ton volume est réapparu , il est monté..

Il te faut recréé manuellement les chemins vers les dossier partagé en suivant cette technique :

Regarde l'onglet "Dossier partagé non par défaut" tout en bas de la page.
 
Dernière édition:
Et bien voila qui est parfait ! dossier partagé recreer sur le volume Data. je te remercie énormément ! en espérant que mon incident et ton expérience puisse servir à d'autres sur ce forum !

Un grand, très grand Merci !

Petite question subsidiaire. J'avais sur mon ancien HDD1 un dossier partagé qui s'appelait MultiMedia. j'ai essayé de le recréer, mais ca ne fonctionne pas. c'est comme si ce n'était autorisé. Je crois me souvenir que ce nom de dossier était réservé, mais comme le système de ne me l'a pas recréer tout seul, j'en ai créer un avec un 's' à la fin. :) je me dis que ce "Share" devait lier à une appli historique de mon qnap mais je ne me souviens pas du nom... Tu aurai une idée sur le sujet ? (peut être la multimédia console, qui est devenu une appli depuis ?)
 
Super !

Effectivement, Multimedia est le nom par défaut de Multimedia Console. Les noms des dossiers partagés sont forcément uniquement ( meme s'ils sont sur des volumes différents ). Cependant, si tu as sur le disque un ancien dossier avec ce nom, rien ne t'empeche de rétablir l'acces en lui indiquant le chemin vers ce fameux dossier Multimedia, en lui indiquant un autre nom genre MultimediaDATA s'il est sur le volume DATA.
 
  • J'aime
Réactions: kapokz
Merci pour tout !

Je voulais clôturer , mais a première vue ce n'est pas possible sur ce forum.

Au plaisir !