QNAP J'ai perdu mes données.

yanmag

Padawan
11 Février 2015
98
4
8
:cry:
Bonjour,
J'ai un TS-264. J'avais 2 HDD qui commencé à fatiguer.
J'en qi remplacer un fin d'année dernière. Aucun soucis.
Hier je met le nouveau à la place de l'ancien qui restait avant quèil ne lache aussi.
Et la ben c'est vide je n'ai plus aucune données; et des messages d'erreur; hélas je suis une bille dans ce domaine. Peut'on m'aider?
Image1.png
Image2.png
J'ai du faire uen connerie. J'ai encore l'ancien DD que je viens de changer

J'ai remis l'ancien HDD et euh je n'ai plus rien non plus....
 
Dernière édition:
Si je veux me connecter par QfinderPro j'ai ca
Sans titre.png
Avec Putty j'ai ca Sans titre 2.png
Vraiment désolé d'etre si mauvais en IT.

J'ai essayé avec les anciens DD, ca clignote rouge partout
 
C'est bon le terminal via putty, regarde le tuto, tu dois faire Q puis Entrer, enfin Y puis Entrer et putty va te donner la main pour les commandes
 
Dernière édition:
  • J'aime
Réactions: yanmag
Merci, voici les info

[~] # qcli_storage -d
Enclosure Port Sys_Name Type Size Alias Signature Partitions Model
NAS_HOST 3 /dev/sdb HDD:data 7.28 TB 3.5" SATA HDD 1 QNAP FLEX 5 WDC WD80EFPX-68C4ZN0
NAS_HOST 4 /dev/sda HDD:free 3.64 TB 3.5" SATA HDD 2 QNAP FLEX 5 WDC WD40EFRX-68WT0N0

[~] # md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID: 851c2f3e:9c6362b8:b1b47b8e:6f62a6df
Level: raid1
Devices: 2
Name: md1
Chunk Size: -
md Version: 1.0
Creation Time: Sep 3 18:19:09 2016
Status: ONLINE (md1) [_U]
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
===============================================================================================
NAS_HOST 3 /dev/sdb3 0 Rebuild Apr 3 20:46:16 2025 427940 AA
NAS_HOST 4 /dev/sda3 1 Active Apr 3 20:46:16 2025 427940 AA
===============================================================================================

[~] # [~] # md_checker

Scanning system...


RAID metadata found!
-sh: [~]: command not found
UUID: 851c2f3e:9c6362b8:b1b47b8e:6f62a6df
Level: raid1
Devices: 2
[~] #
[~] # Welcome to MD superblock checker (v2.0) - have a nice day~
-sh: syntax error near unexpected token `('
[~] #
NAS_HOST 4 /dev/sda3 1 Active Apr 3 20:46:16 2025 427940 AA
[~] # Scanning system...
-sh: Scanning: command not found
[~] #
[~] #
[~] # RAID metadata found!
-sh: RAID: command not found
[~] # UUID: 851c2f3e:9c6362b8:b1b47b8e:6f62a6df
-sh: UUID:: command not found
[~] # Level: raid1
-sh: Level:: command not found
[~] # Devices: 2
-sh: Devices:: command not found
[~] # Name: md1
-sh: Name:: command not found
[~] # Chunk Size: -
-sh: Chunk: command not found
[~] # md Version: 1.0
-sh: md: command not found
[~] # Creation Time: Sep 3 18:19:09 2016
-sh: Creation: command not found
[~] # Status: ONLINE (md1) [_U]
-sh: syntax error near unexpected token `('
[~] # ===============================================================================================
-sh: ===============================================================================================: command not found
[~] # Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
> ===============================================================================================
-sh: Enclosure: command not found
-sh: Port: command not found
-sh: Block: command not found
-sh: ===============================================================================================: command not found
[~] # NAS_HOST 3 /dev/sdb3 0 Rebuild Apr 3 20:46:16 2025 427940 AA
-sh: NAS_HOST: command not found
[~] # NAS_HOST 4 /dev/sda3 1 Active Apr 3 20:46:16 2025 427940 AA
-sh: NAS_HOST: command not found
[~] # ===============================================================================================
-sh: ===============================================================================================: command not found

[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid1 sda3[2] sdb3[3]
3897063616 blocks super 1.0 [2/1] [_U]
[=====>...............] recovery = 26.1% (1017742336/3897063616) finish=359.2min speed=133598K/sec

md322 : active raid1 sda5[1] sdb5[0]
6702656 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sda2[1] sdb2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[24] sdb4[25]
458880 blocks super 1.0 [24/2] [UU______________________]
bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sda1[1] sdb1[24]
530048 blocks super 1.0 [24/2] [UU______________________]
bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

[~] # lvs -a
WARNING: duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv1 vg1 Vwi-aot--- 3.35t tp1 100.00
lv544 vg1 -wi------- 37.16g
tp1 vg1 twi-aot--- 3.53t 94.83 0.39
[tp1_tierdata_0] vg1 vwi-aov--- 4.00m
[tp1_tierdata_1] vg1 vwi-aov--- 4.00m
[tp1_tierdata_2] vg1 Twi-ao---- 3.53t
[tp1_tmeta] vg1 ewi-ao---- 64.00g
[~] # pvs -a
WARNING: duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
WARNING: duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dPzLGNA0h5krvFtplEqJGDIUP9uzn25I: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
PV VG Fmt Attr PSize PFree
/dev/drbd1 vg1 lvm2 a-- 3.63t 0
/dev/md1 vg1 lvm2 a-- 3.63t 0
/dev/md13 --- 0 0
/dev/md256 --- 0 0
/dev/md322 --- 0 0
/dev/md9 --- 0 0
 
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid1 sda3[2] sdb3[3]
3897063616 blocks super 1.0 [2/1] [_U]
[=====>...............] recovery = 26.1% (1017742336/3897063616) finish=359.2min speed=133598K/sec
Salut,
On voit ici que ton RAID est en reconstruction.

Il est entrain de reconstruire le RAID sur le disque 1 ( 8To ) depuis le disque 2 ( 4To ), c'est bien le disque 1 que tu viens de changer ?

Si oui, alors c'est bon signe même si Il y a du avoir un probleme vu que tu semble avoir perdu l'acces aux données.

Dans un 1er temps, il faut le laisser finir de reconstruire ( finish=359.2min ), ce qui donne 6h soit vers 3/4h du matin. Laisse le NAS allumé, et n'y touche pas pendant cette nuit.

Demain, refait les commandes suivante pour voir ce que cela dit :

Code:
qcli_storage -d

md_checker

cat /proc/mdstat

lvs -a

pvs -a

df -h


Ps : N'hésite pas a utiliser les bloc code pour une meilleure lisibilité https://www.forum-nas.fr/threads/wi...ilisation-du-forum-des-nas.17438/#post-130118
 
Dernière édition:
  • J'aime
Réactions: yanmag
Bonjour,
Avant de partir au boulo j'ai vite regardé, et... ben les données sont la.
Donc cela signifie que tout est sur le DD de 4Go, mais rien sur le celui de 8Go que j'avais deja installé j'imagine.
En virant celui de 4 Go pour mettre celui de 8 Go ben il n'y avait plus rien, j'avais 2 DD de 8Go vierge.
Le RAID1 n'est probablement pas activé c'est ca?
 
Salut,
Je comprends donc que ce matin, c'est un retour a la normal. Donc le RAID a fini de reconstruire.

Cependant, j'ai pas bien compris ce que tu as fait avec les disques :D Mais au vu des dernieres commandes ton RAID1 est bien fonctionnel.
 
  • J'aime
Réactions: yanmag
Alors j'avais 2 DD de 4 Go. Un a laché.
J'ai commandé un de 8Go, je l'ai mis à la place.
La j'ai commandé un deuxieme DD de 8 Go pour remplacer celui de 4Go.
J'ai remplacé le vieux de 4Go par celui de 8 Go pensant, a tord, que le premier de 8Go avait les données et aller se dupliquer en RAID 1 sur le deuxieme de 8Go.
Et a priori c'est pas le cas.
Et la je comprend plus.
 
Au niveau du NAS j'ai une erreur, la diode du DD2 est rouge. Je ne comprend pas trop ce que cela signifie. Je peux comme mem elancer la manip?1743777644898.png
1743777823059.png
 
Ton RAID n'est pas en forme, on voit aussi dans ta capture que le nettoyage du RAID n'est pas actif, c'est probablement cela qui a fait que ton RAID est si problématique a reconstruire, il doit etre en partie corrompu https://www.forum-nas.fr/threads/mé...encieuse-du-raid-sur-nas-qnap-avec-qts.20180/

Bon maintenant, je te conseille pas d'activer le nettoyage pour le moment.

Aussi, tres franchement je pense qu'il est important de t'assurer d'avoir une sauvegarde de tes données importante avant de continuer.

Pourrai tu redonner le résultat de :
Code:
cat /proc/mdstat
 
J'obtient cela

Code:
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi                   path]
md1 : active raid1 sda3[3](S) sdb3[2]
      3897063616 blocks super 1.0 [2/1] [_U]

md322 : active raid1 sdb5[1] sda5[0]
      6702656 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sdb2[1] sda2[0]
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sda4[25] sdb4[24]
      458880 blocks super 1.0 [24/2] [UU______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sda1[24] sdb1[1]
      530048 blocks super 1.0 [24/2] [UU______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>
 
Ok, donc on voit que le RAID semble bon sur sdb3 ( disque 1 ), mais pas bon sur sda3 ( disque 2 )
Ce qui est cohérent avec l'interface Web.

Sans éteindre le NAS, sort le disque 2 du NAS, et assure toi de laisser se passer au moins 2/3 min que le NAS a bien vu est pris en compte l'extraction du disque.
Puis place le nouveau disque 2 de 8To

Ensuite, attend 5min et donne moi le résultat des commandes suivante :

Code:
qcli_storage -d

md_checker

cat /proc/mdstat

lvs -a

pvs -a

df -h
 
Bonjour, voici le resultat. J'ai copié les données que je veux garder sur un autre DD au cas ou.

Code:
[~] # qcli_storage -d
Enclosure  Port  Sys_Name          Type      Size      Alias                 Signature   Partitions  Model
NAS_HOST   3     /dev/sda          HDD:data  7.28 TB   3.5" SATA HDD 1       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0
NAS_HOST   4     /dev/sdc          HDD:free  7.28 TB   3.5" SATA HDD 2       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0
[~] # md-checker
-sh: md-checker: command not found
[~] # md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID:           851c2f3e:9c6362b8:b1b47b8e:6f62a6df
Level:          raid1
Devices:        2
Name:           md1
Chunk Size:     -
md Version:     1.0
Creation Time:  Sep 3 18:19:09 2016
Status:         OFFLINE
===============================================================================================
 Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
===============================================================================================
 ----------------------------------  0  Missing   -------------------------------------------
 ----------------------------------  1  Missing   -------------------------------------------
===============================================================================================

[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdc5[2] sda5[0]
      6702656 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sdc2[2] sda2[0]
      530112 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sdc4[24] sda4[25]
      458880 blocks super 1.0 [24/2] [UU______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sdc1[25] sda1[24]
      530048 blocks super 1.0 [24/2] [UU______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>
[~] # lvs -a
  WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
  LV               VG   Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv1              vg1  Vwi-aot-p-  3.35t tp1         100.00                   
  lv544            vg1  -wi-----p- 37.16g                                       
  tp1              vg1  twi---t-p-  3.53t                                       
  [tp1_tierdata_0] vg1  vwi---v---  4.00m                                       
  [tp1_tierdata_1] vg1  vwi---v---  4.00m                                       
  [tp1_tierdata_2] vg1  Twi-----p-  3.53t                                       
  [tp1_tmeta]      vg1  ewi-----p- 64.00g                                       
[~] # pvs -a
  WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
  WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
  PV             VG   Fmt  Attr PSize PFree
  /dev/md13                ---     0     0
  /dev/md256               ---     0     0
  /dev/md322               ---     0     0
  /dev/md9                 ---     0     0
  unknown device vg1  lvm2 a-m  3.63t    0
[~] # df -h
Filesystem                Size      Used Available Use% Mounted on
none                    400.0M    349.0M     51.0M  87% /
devtmpfs                  3.7G      8.0K      3.7G   0% /dev
tmpfs                    64.0M      1.1M     62.9M   2% /tmp
tmpfs                     3.8G    176.0K      3.8G   0% /dev/shm
tmpfs                    16.0M     80.0K     15.9M   0% /share
/dev/mmcblk0p5            7.7M     46.0K      7.7M   1% /mnt/boot_config
tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    188.8M    304.6M  38% /mnt/HDA_ROOT
cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
/dev/md13               416.7M    379.3M     37.4M  91% /mnt/ext
tmpfs                    32.0M     27.2M      4.8M  85% /samba_third_party
tmpfs                    10.0M         0     10.0M   0% /tmp/wfm
tmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir
tmpfs                    64.0M      3.1M     60.9M   5% /samba
tmpfs                    48.0M     44.0K     48.0M   0% /samba/.samba/lock/msg.lock
tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
tmpfs                     4.0K         0      4.0K   0% /tmp/default_dav_root
[~] # [~] # qcli_storage -d
NAS_HOST   3     /dev/sda          HDD:data  7.28 TB   3.5" SATA HDD 1       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0
NAS_HOST   4     /dev/sdc          HDD:free  7.28 TB   3.5" SATA HDD 2       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0

[~] # md_checker
-sh: [~]: command not found

Welcome to MD superblock checker (v2.0) - have a nice day~
[~] # Enclosure  Port  Sys_Name          Type      Size      Alias                 Signature   Partitions  Model
-sh: Enclosure: command not found
[~] # NAS_HOST   3     /dev/sda          HDD:data  7.28 TB   3.5" SATA HDD 1       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0

> NAS_HOST   4     /dev/sdc          HDD:free  7.28 TB   3.5" SATA HDD 2       QNAP FLEX   5           WDC WD80EFPX-68C4ZN0
  [tp1_tierdata_1] vg1  vwi---v---  4.00m
  [tp1_tierdata_2] vg1  Twi-----p-  3.53t
  [tp1_tmeta]      vg1  ewi-----p- 64.00g
[~] # pvs -a
  WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
-sh: NAS_HOST: command not found
  WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
  PV             VG   Fmt  Attr PSize PFree
  /dev/md13                ---     0     0
[~] # [~] # md-checker
  /dev/md322               ---     0     0
  /dev/md9                 ---     0     0
  unknown device vg1  lvm2 a-m  3.63t    0
[~] # df -h
-sh: [~]: command not found
Filesystem                Size      Used Available Use% Mounted on
none                    400.0M    349.0M     51.0M  87% /
[~] # -sh: md-checker: command not found
/dev/mmcblk0p5            7.7M     46.0K      7.7M   1% /mnt/boot_config
tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    188.8M    304.6M  38% /mnt/HDA_ROOT
-sh: -sh:: command not found
cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
/dev/md13               416.7M    379.3M     37.4M  91% /mnt/ext
[~] # [~] # md_checker
tmpfs                    10.0M         0     10.0M   0% /tmp/wfm
tmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir
tmpfs                    64.0M      3.1M     60.9M   5% /samba
tmpfs                    48.0M     44.0K     48.0M   0% /samba/.samba/lock/msg.lock
tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
tmpfs                     4.0K         0      4.0K   0% /tmp/default_dav_root
-sh: [~]: command not found
[~] #
[~] #
[~] # Welcome to MD superblock checker (v2.0) - have a nice day~
-sh: syntax error near unexpected token `('
[~] #
[~] # Scanning system...
-sh: Scanning: command not found
[~] #
[~] #
[~] # RAID metadata found!
-sh: RAID: command not found
[~] # UUID:           851c2f3e:9c6362b8:b1b47b8e:6f62a6df
-sh: UUID:: command not found
[~] # Level:          raid1
-sh: Level:: command not found
[~] # Devices:        2
-sh: Devices:: command not found
[~] # Name:           md1
-sh: Name:: command not found
[~] # Chunk Size:     -
-sh: Chunk: command not found
[~] # md Version:     1.0
-sh: md: command not found
[~] # Creation Time:  Sep 3 18:19:09 2016
-sh: Creation: command not found
[~] # Status:         OFFLINE
-sh: Status:: command not found
[~] # ===============================================================================================
-sh: ===============================================================================================: command not found
[~] #  Enclosure | Port | Block Dev Name | # | Status |   Last Update Time   | Events | Array State
> ===============================================================================================
-sh: Enclosure: command not found
-sh: Port: command not found
-sh: ===============================================================================================: command not found
-sh: Block: command not found
[~] #  ----------------------------------  0  Missing   -------------------------------------------
-sh: ----------------------------------: command not found
[~] #  ----------------------------------  1  Missing   -------------------------------------------
-sh: ----------------------------------: command not found
[~] # ===============================================================================================
-sh: ===============================================================================================: command not found
[~] #
[~] # [~] # cat /proc/mdstat
-sh: [~]: command not found
[~] # Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
-sh: Personalities: command not found
[~] # md322 : active raid1 sdc5[2] sda5[0]
-sh: md322: command not found
[~] #       6702656 blocks super 1.0 [2/2] [UU]
-sh: 6702656: command not found
[~] #       bitmap: 0/1 pages [0KB], 65536KB chunk
-sh: bitmap:: command not found
[~] #
[~] # md256 : active raid1 sdc2[2] sda2[0]
-sh: md256: command not found
[~] #       530112 blocks super 1.0 [2/2] [UU]
-sh: 530112: command not found
[~] #       bitmap: 0/1 pages [0KB], 65536KB chunk
-sh: bitmap:: command not found
[~] #
[~] # md13 : active raid1 sdc4[24] sda4[25]
-sh: md13: command not found
[~] #       458880 blocks super 1.0 [24/2] [UU______________________]
-sh: 458880: command not found
[~] #       bitmap: 1/1 pages [4KB], 65536KB chunk
-sh: bitmap:: command not found
[~] #
[~] # md9 : active raid1 sdc1[25] sda1[24]
-sh: md9: command not found
[~] #       530048 blocks super 1.0 [24/2] [UU______________________]
-sh: 530048: command not found
[~] #       bitmap: 1/1 pages [4KB], 65536KB chunk
-sh: bitmap:: command not found
[~] #
[~] # unused devices: <none>
-sh: syntax error near unexpected token `newline'
[~] # [~] # lvs -a
-sh: [~]: command not found
[~] #   WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
-sh: WARNING:: command not found
[~] #   LV               VG   Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
-sh: LV: command not found
[~] #   lv1              vg1  Vwi-aot-p-  3.35t tp1         100.00             
-sh: lv1: command not found
[~] #   lv544            vg1  -wi-----p- 37.16g                                 
-sh: lv544: command not found
[~] #   tp1              vg1  twi---t-p-  3.53t                                 
-sh: tp1: command not found
[~] #   [tp1_tierdata_0] vg1  vwi---v---  4.00m                                 
-sh: [tp1_tierdata_0]: command not found
[~] #   [tp1_tierdata_1] vg1  vwi---v---  4.00m                                 
-sh: [tp1_tierdata_1]: command not found
[~] #   [tp1_tierdata_2] vg1  Twi-----p-  3.53t                                 
-sh: [tp1_tierdata_2]: command not found
[~] #   [tp1_tmeta]      vg1  ewi-----p- 64.00g                                 
-sh: [tp1_tmeta]: command not found
[~] # [~] # pvs -a
-sh: [~]: command not found
[~] #   WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
-sh: WARNING:: command not found
[~] #   WARNING: Device for PV dPzLGN-A0h5-krvF-tplE-qJGD-IUP9-uzn25I not found or rejected by a filter.
-sh: WARNING:: command not found
[~] #   PV             VG   Fmt  Attr PSize PFree
-sh: PV: command not found
[~] #   /dev/md13                ---     0     0
-sh: /dev/md13: Permission denied
[~] #   /dev/md256               ---     0     0
-sh: /dev/md256: Permission denied
[~] #   /dev/md322               ---     0     0
-sh: /dev/md322: Permission denied
[~] #   /dev/md9                 ---     0     0
-sh: /dev/md9: Permission denied
[~] #   unknown device vg1  lvm2 a-m  3.63t    0
-sh: unknown: command not found
[~] # [~] # df -h
-sh: [~]: command not found
[~] # Filesystem                Size      Used Available Use% Mounted on
-sh: Filesystem: command not found
[~] # none                    400.0M    349.0M     51.0M  87% /
-sh: none: command not found
[~] # devtmpfs                  3.7G      8.0K      3.7G   0% /dev
-sh: devtmpfs: command not found
[~] # tmpfs                    64.0M      1.1M     62.9M   2% /tmp
-sh: tmpfs: command not found
[~] # tmpfs                     3.8G    176.0K      3.8G   0% /dev/shm
-sh: tmpfs: command not found
[~] # tmpfs                    16.0M     80.0K     15.9M   0% /share
-sh: tmpfs: command not found
[~] # /dev/mmcblk0p5            7.7M     46.0K      7.7M   1% /mnt/boot_config
-sh: /dev/mmcblk0p5: Permission denied
[~] # tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
-sh: tmpfs: command not found
[~] # /dev/md9                493.5M    188.8M    304.6M  38% /mnt/HDA_ROOT
-sh: /dev/md9: Permission denied
[~] # cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
-sh: cgroup_root: command not found
[~] # /dev/md13               416.7M    379.3M     37.4M  91% /mnt/ext
-sh: /dev/md13: Permission denied
[~] # tmpfs                    32.0M     27.2M      4.8M  85% /samba_third_party
-sh: tmpfs: command not found
[~] # tmpfs                    10.0M         0     10.0M   0% /tmp/wfm
-sh: tmpfs: command not found
[~] # tmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir
-sh: tmpfs: command not found
[~] # tmpfs                    64.0M      3.1M     60.9M   5% /samba
-sh: tmpfs: command not found
[~] # tmpfs                    48.0M     44.0K     48.0M   0% /samba/.samba/lock/msg.lock
-sh: tmpfs: command not found
[~] # tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
-sh: tmpfs: command not found
[~] # tmpfs                     4.0K         0      4.0K   0% /tmp/default_dav_root
-sh: tmpfs: command not found
[~] # [~] #
-sh: [~]: command not found
[~] #
 
Salut,
Ton système raid est fortement corrompu. Si c'est possible pour toi je te conseille de repartir sur une installation toute propre.

Sinon fait un ticket au support QNAP pour une tentative de réparation.
 
  • J'aime
Réactions: yanmag
J'ai récupéré mes données je veux bien repartir sur un truc propre. Quel est le mode op? restaurer au paramètres d'usine?

Merci
 
Dernière édition: