QNAP Disques illisibles détectés

Seb91chti

Nouveau membre
10 Août 2022
23
2
3
Bonsoir,

J'ai un QNAP 453D avec 4DD de 3To dedans. Suite à promo, je vais passer les 4DD de 3To à 4DD de 4To.
J'ai commencé le changement sur 2DD de 4To qui était dans un synology. J'ai donc enlevé un DD de 3To pour mettre directement un 4To.
Le NAS a lancé une reconstruction direct sur le 1er. Tout est nickel.
J'ai fait de même avec un second DD. Le système a lancé la reconstruction, nickel.
Par contre, j'ai à date un message d'alerte qui m'indique

Le souci, c'est que je n'arrive pas à faire quoique ce soit dans le paramétrage du NAS.
Les différentes interfaces ne permettent pas de cloturer le message par acceptation ou modifications, etc...

Idem je ne vois nulle par le To qui reste sur les 2 DD.

Je vais aller jusqu'au bout en changeant les DD un par un, mais y a t'il quelques choses que j'ai loupé?

D'avance merci.
 

Pièces jointes

  • Capture d’écran 2025-05-04 212522.png
    Capture d’écran 2025-05-04 212522.png
    57.8 KB · Affichages: 7
Salut,
Si tu regarde les détails de ton pool, il est dans quel état actuellement ?
Si je comprend bien, tu avait un RAID5 sur 4x 3To ?
et tu a changer le disque 1 par un 4To sans soucis, puis le disque 2 ? A partir de la tu as eu le message ?

Il te faut regarder dans un 1er temps les détails du pol de stockage, voir si l'ensemble des 4 disques du NAS font bien partie du pool de stockage RAId5
 
Merci pour ton retour. Au 1er disque déjà j'avais le message. Mais dans la gestion du pôle tout est ok avec 4dd bien reconnu faisant toujours les 8to de données.
 
et le message est toujours présent actuellement ?
Possible de nous fournir des capture écran du pool/stockage, volume ...

ou en SSH, le résultat des commandes suivantes :

Code:
qcli_storage -d
lvs -a
pvs -a
md_checker
df -h
ls -alh /dev/mapper
 
Merci pour ton retour. Je vais tester les lignes de commande ce jour.
Je te mets les screenshots qui me semblent demandés.
Les 4DD ont été changés et l'ensemble a été reconstruit sans perte de données à priori.
Il est en resynchronisation après un eteindre réallumer.
Par contre, j'ai cherché à étendre le pool, pour l'instant pas trouver mais certainement lié au message d'erreur qui touche maintenant les 4DD

UPDATE :
Bon, je viens de trouver une vidéo pour faire les changements et le reszie :

Bonne nouvelle, je n'ai pas fait comme ça. J'ai éteind le NAS à chaque DD, enlevé l'ancien et remis le nouveau sans passer par l'interface du NAS. J'ai l'impression qu'on arrive à la même chose, néanmoins, cela semble moins propre ce que j'ai fait.
J'attends maintenant que mon NAS sorte de l'état de resynchronisation et j'essaierai d'étendre comme présenté dans la vidéo.
 
Dernière édition:
Bonsoir,
Voici le retour des commandes SSH :

[Sebastien@TS-453D ~]$ qcli_storage -d
Enclosure Port Sys_Name Type Size Alias Signature Partitions Model
NAS_HOST 1 /dev/sdc HDD:data 3.64 TB 3.5" SATA HDD 1 -- 5 WDC WD40EZRZ-00GXCB0
NAS_HOST 2 /dev/sdd HDD:data 3.64 TB 3.5" SATA HDD 2 -- 5 WDC WD40EZRZ-00GXCB0
NAS_HOST 3 /dev/sda HDD:data 3.64 TB 3.5" SATA HDD 3 -- 5 Seagate ST4000VX016-3CV104
NAS_HOST 4 /dev/sdb HDD:data 3.64 TB 3.5" SATA HDD 4 -- 5 Seagate ST4000VX016-3CV104
[Sebastien@TS-453D ~]$ lvs -a
WARNING: Running as a non-root user. Functionality may be unavailable.
WARNING: duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv1 vg1 Vwi-aot--- 10.64t tp1 100.00
lv1312 vg1 -wi-ao---- 1.11g
lv544 vg1 -wi------- 110.77g
tp1 vg1 twi-aot--- 10.64t 99.99 1.11
[tp1_tierdata_0] vg1 vwi-aov--- 4.00m
[tp1_tierdata_1] vg1 vwi-aov--- 4.00m
[tp1_tierdata_2] vg1 Twi-ao---- 10.65t
[tp1_tmeta] vg1 ewi-ao---- 64.00g
[Sebastien@TS-453D ~]$ pvs -a
WARNING: Running as a non-root user. Functionality may be unavailable.
WARNING: duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
WARNING: duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV xlZt0epAueQ2Z4ujPYEhICHLkTdJBLxF: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
PV VG Fmt Attr PSize PFree
/dev/drbd1 vg1 lvm2 a-- 10.82t 0
/dev/md1 vg1 lvm2 a-- 10.82t 0
/dev/md13 --- 0 0
/dev/md256 --- 0 0
/dev/md322 --- 0 0
/dev/md9 --- 0 0
[Sebastien@TS-453D ~]$ md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

/usr/bin/md_checker: line 25: /mnt/HDA_ROOT/md_backup_2025-05-08_19.35.32: Permission denied
Scanning system...

[Sebastien@TS-453D ~]$ df -h
Filesystem Size Used Available Use% Mounted on
none 400.0M 331.8M 68.2M 83% /
devtmpfs 5.8G 8.0K 5.8G 0% /dev
tmpfs 64.0M 956.0K 63.1M 1% /tmp
tmpfs 5.8G 172.0K 5.8G 0% /dev/shm
tmpfs 16.0M 72.0K 15.9M 0% /share
/dev/mmcblk0p5 7.7M 46.0K 7.7M 1% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 175.7M 317.7M 36% /mnt/HDA_ROOT
cgroup_root 5.8G 0 5.8G 0% /sys/fs/cgroup
/dev/mapper/vg1-lv1312
1.1G 1.4M 1.1G 0% /mnt/pool1
/dev/md13 417.0M 378.5M 38.5M 91% /mnt/ext
tmpfs 32.0M 27.2M 4.8M 85% /samba_third_party
/dev/ram2 433.9M 2.3M 431.6M 1% /mnt/update
tmpfs 64.0M 2.7M 61.3M 4% /samba
tmpfs 10.0M 0 10.0M 0% /tmp/wfm
/dev/mapper/ce_cachedev1
10.0T 4.7T 5.3T 47% /share/CE_CACHEDEV1_DATA
tmpfs 1.0M 0 1.0M 0% /share/.quftp_client
hdsfusemnt 16.0M 72.0K 15.9M 0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share
tmpfs 29.0M 18.8M 10.2M 65% /mnt/ext/opt/FileStation5
/dev/loop0 29.0M 18.8M 10.2M 65% /mnt/ext/opt/FileStation5
tmpfs 48.0M 36.0K 48.0M 0% /share/CE_CACHEDEV1_DATA/.samba/lock/msg.lock
df: /mnt/ext/opt/samba/private/msg.sock: Permission denied
hdsfusemnt 16.0M 72.0K 15.9M 0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share
hdsfusemnt 16.0M 72.0K 15.9M 0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share
[Sebastien@TS-453D ~]$ ls -alh /dev/mapper
total 0
drwxr-xr-x 2 admin administrators 260 2025-05-08 16:44 ./
drwxr-xr-x 16 admin administrators 21K 2025-05-08 16:44 ../
brw-rw---- 1 admin administrators 252, 0 2025-05-08 16:44 cachedev1
brw-rw---- 1 admin administrators 252, 9 2025-05-08 16:40 ce_cachedev1
crw------- 1 admin administrators 10, 236 2025-05-08 16:44 control
brw-rw---- 1 admin administrators 252, 7 2025-05-08 15:51 vg1-lv1
brw-rw---- 1 admin administrators 252, 8 2025-05-08 15:51 vg1-lv1312
brw-rw---- 1 admin administrators 252, 6 2025-05-08 15:51 vg1-tp1
brw-rw---- 1 admin administrators 252, 2 2025-05-08 15:51 vg1-tp1_tierdata_0
brw-rw---- 1 admin administrators 252, 3 2025-05-08 15:51 vg1-tp1_tierdata_1
brw-rw---- 1 admin administrators 252, 4 2025-05-08 15:51 vg1-tp1_tierdata_2
brw-rw---- 1 admin administrators 252, 1 2025-05-08 15:51 vg1-tp1_tmeta
brw-rw---- 1 admin administrators 252, 5 2025-05-08 15:51 vg1-tp1-tpool
 
Salut,
Tu n'a pas passé les commandes avec les droits admin. Regarde dans le tuto https://www.forum-nas.fr/threads/tuto-se-connecter-à-son-nas-qnap-par-ssh.19604/ :

Si vous vous connectez avec un utilisateur qui n'est pas l'utilisateur admin par défaut, après la connexion vous devez exécuter la commande suivante pour prendre les droits admin :

sudo -i

Note : Vous allez devoir confirmer le mot de passe de votre utilisateur.

Aussi pour rendre le message plus lisible, il est possible d'utiliser le bloc code : https://www.forum-nas.fr/threads/wi...ilisation-du-forum-des-nas.17438/#post-130118
 
Etrange, car j'ai bien mis mon compte en admin et mdp.

Je recommance en mettant plus de lisibilité :)

Code:
[Sebastien@TS-453D ~]$ qcli_storage -d
Enclosure  Port  Sys_Name          Type      Size      Alias                 Signature   Partitions  Model
NAS_HOST   1     /dev/sdc          HDD:data  3.64 TB   3.5" SATA HDD 1       --          5           WDC WD40EZRZ-00GXCB0
NAS_HOST   2     /dev/sdd          HDD:data  3.64 TB   3.5" SATA HDD 2       --          5           WDC WD40EZRZ-00GXCB0
NAS_HOST   3     /dev/sda          HDD:data  3.64 TB   3.5" SATA HDD 3       --          5           Seagate ST4000VX016-3CV104
NAS_HOST   4     /dev/sdb          HDD:data  3.64 TB   3.5" SATA HDD 4       --          5           Seagate ST4000VX016-3CV104
[Sebastien@TS-453D ~]$
 
Tu n'a pas pris les droits admin avec la commande sudo -i car on voit que tu execute avec le compte Sebastien :
Code:
[Sebastien@TS-453D ~]$

Fait un sudo -i avant de continuer les commandes
 
Ok, c'est bon c'est corrigé. Merci.

Voici donc les retours :

Code:
[admin@TS-453D ~]# qcli_storage -d
Enclosure  Port  Sys_Name          Type      Size      Alias                 Signature   Partitions  Model
NAS_HOST   1     /dev/sdc          HDD:data  3.64 TB   3.5" SATA HDD 1       QNAP FLEX   5           WDC WD40EZRZ-00GXCB0
NAS_HOST   2     /dev/sdd          HDD:data  3.64 TB   3.5" SATA HDD 2       QNAP FLEX   5           WDC WD40EZRZ-00GXCB0
NAS_HOST   3     /dev/sda          HDD:data  3.64 TB   3.5" SATA HDD 3       QNAP FLEX   5           Seagate ST4000VX016-3CV104
NAS_HOST   4     /dev/sdb          HDD:data  3.64 TB   3.5" SATA HDD 4       QNAP FLEX   5           Seagate ST4000VX016-3CV104
[admin@TS-453D ~]#


Code:
[admin@TS-453D ~]# lvs -a
  LV               VG   Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv1              vg1  Vwi-aot---  10.64t tp1         100.00
  lv1312           vg1  -wi-ao----   1.11g
  lv544            vg1  -wi------- 110.77g
  tp1              vg1  twi-aot---  10.64t             99.99  1.11
  [tp1_tierdata_0] vg1  vwi-aov---   4.00m
  [tp1_tierdata_1] vg1  vwi-aov---   4.00m
  [tp1_tierdata_2] vg1  Twi-ao----  10.65t
  [tp1_tmeta]      vg1  ewi-ao----  64.00g

Code:
[admin@TS-453D ~]# pvs -a
  PV         VG   Fmt  Attr PSize  PFree
  /dev/drbd1 vg1  lvm2 a--  10.82t    0
  /dev/md1             ---      0     0
  /dev/md13            ---      0     0
  /dev/md256           ---      0     0
  /dev/md322           ---      0     0
  /dev/md9             ---      0     0

Code:
[admin@TS-453D ~]# md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID:           2ba33d9b:81bc5a1e:5266c646:1877d3dd
Level:          raid5
Devices:        4
Name:           md1
Chunk Size:     512K
md Version:     1.0
Creation Time:  Aug 24 15:12:43 2022
Status:         ONLINE (md1) [UUUU]
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 NAS_HOST       1        /dev/sdc3   0   Active   May  9 09:06:09 2025   143388   AAAA
 NAS_HOST       2        /dev/sdd3   1   Active   May  9 09:06:09 2025   143388   AAAA
 NAS_HOST       3        /dev/sda3   2   Active   May  9 09:06:09 2025   143388   AAAA
 NAS_HOST       4        /dev/sdb3   3   Active   May  9 09:06:09 2025   143388   AAAA
===============================================================================================


Code:
[admin@TS-453D ~]# df -h
Filesystem                Size      Used Available Use% Mounted on
none                    400.0M    333.3M     66.7M  83% /
devtmpfs                  5.8G      8.0K      5.8G   0% /dev
tmpfs                    64.0M      1.1M     62.9M   2% /tmp
tmpfs                     5.8G    172.0K      5.8G   0% /dev/shm
tmpfs                    16.0M     72.0K     15.9M   0% /share
/dev/mmcblk0p5            7.7M     46.0K      7.7M   1% /mnt/boot_config
tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    175.2M    318.3M  36% /mnt/HDA_ROOT
cgroup_root               5.8G         0      5.8G   0% /sys/fs/cgroup
/dev/mapper/vg1-lv1312
                          1.1G      1.4M      1.1G   0% /mnt/pool1
/dev/md13               417.0M    378.5M     38.5M  91% /mnt/ext
tmpfs                    32.0M     27.2M      4.8M  85% /samba_third_party
/dev/ram2               433.9M      2.3M    431.6M   1% /mnt/update
tmpfs                    64.0M      2.7M     61.3M   4% /samba
tmpfs                    10.0M         0     10.0M   0% /tmp/wfm
/dev/mapper/ce_cachedev1
                         10.0T      4.7T      5.3T  47% /share/CE_CACHEDEV1_DATA
tmpfs                    29.0M     18.8M     10.2M  65% /mnt/ext/opt/FileStation5
/dev/loop0               29.0M     18.8M     10.2M  65% /mnt/ext/opt/FileStation5
hdsfusemnt               16.0M     72.0K     15.9M   0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share
hdsfusemnt               16.0M     72.0K     15.9M   0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share
tmpfs                     1.0M         0      1.0M   0% /share/.quftp_client
tmpfs                    48.0M     36.0K     48.0M   0% /share/CE_CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
hdsfusemnt               16.0M     72.0K     15.9M   0% /share/CE_CACHEDEV1_DATA/.qpkg/HD_Station/share


Code:
[admin@TS-453D ~]# ls -alh /dev/mapper
total 0
drwxr-xr-x  2 admin administrators      260 2025-05-08 16:44 ./
drwxr-xr-x 16 admin administrators      21K 2025-05-08 19:53 ../
brw-rw----  1 admin administrators 252,   0 2025-05-08 16:44 cachedev1
brw-rw----  1 admin administrators 252,   9 2025-05-08 16:40 ce_cachedev1
crw-------  1 admin administrators  10, 236 2025-05-08 19:52 control
brw-rw----  1 admin administrators 252,   7 2025-05-08 15:51 vg1-lv1
brw-rw----  1 admin administrators 252,   8 2025-05-08 15:51 vg1-lv1312
brw-rw----  1 admin administrators 252,   6 2025-05-08 15:51 vg1-tp1
brw-rw----  1 admin administrators 252,   2 2025-05-08 15:51 vg1-tp1_tierdata_0
brw-rw----  1 admin administrators 252,   3 2025-05-08 15:51 vg1-tp1_tierdata_1
brw-rw----  1 admin administrators 252,   4 2025-05-08 15:51 vg1-tp1_tierdata_2
brw-rw----  1 admin administrators 252,   1 2025-05-08 15:51 vg1-tp1_tmeta
brw-rw----  1 admin administrators 252,   5 2025-05-08 15:51 vg1-tp1-tpool
Message automatiquement fusionné :
 
Salut,
Merci :)

Malheuresement, je ne vois rien de spécial là. Tout semble en ordre, la cause de ton message doit etre plus profonde. A voir avec le support technique QNAP je pense que c'est mieux. Il va probablement te demander une prise en main, et voir avec le R&D.
 
Merci pour ton retour.
J'ai un peu lu dans la matrice même si je ne suis pas expert et rien vu de terrible hier. J'ai ouvert un ticket chez QNAP hier. Il est pris en charge depuis ce matin. Je mettrais les retours dès que je les aurais si cela peut aider quelqu'un.
En tous les cas ce message Disques Illisibles rencontre peu de trouvaille sur internet.
 
  • J'aime
Réactions: EVO
Merci pour ton retour.
J'ai un peu lu dans la matrice même si je ne suis pas expert et rien vu de terrible hier. J'ai ouvert un ticket chez QNAP hier. Il est pris en charge depuis ce matin. Je mettrais les retours dès que je les aurais si cela peut aider quelqu'un.
En tous les cas ce message Disques Illisibles rencontre peu de trouvaille sur internet.
Message automatiquement fusionné :

1er retour QNAP : il ne voit rien de spécial. Certainement un fichier corrompu lors des transferts d'information.
Néanmoins, je partage deux remarques :
J'ai rajouté une barrette Crucial et il considère que cela pourrait provoquer des erreurs.
Et avoir deux sources de DD (WD et Seagate) n'est pas non plus conseillé.

En retour j'ai fait remarqué qu'il me semblait plutot bien d'avoir plusieurs sources de DD évitant de retrouver les pannes en séries.