Bonjour,
Mon TVS-h674 est neuf.
J'ai alloué l'intégralité du stockage physique dans un pool.
J'ai créé un répertoire partagé, en provisionnement en dur, sur l'intégralité du pool.
Les premières sauvegardes Veeam se sont exécutées avec succès, puis plus rien.
Le NAS ne fonctionne plus correctement.
Ce qui marche:
- ping
- accès SSH
- une partie de l'administration web fonctionne
Ce qui ne marche pas:
- diode status rouge fixe
- accès SMB (nom de réseau introuvable, depuis le serveur veeam ou d'autres stations)
- une partie de l'administration web ne fonctionne pas (ex: QuLog affiche "téléchargement des données")
J'ai cru comprendre que le système crée une partition système sur le première pool. Comme j'ai alloué tout cet espace, je me demande si le NAS n'est pas dans les choux à cause de cela.
Je ne sais pas si cet état est normal ou pas.
Merci pour votre aide
Mon TVS-h674 est neuf.
J'ai alloué l'intégralité du stockage physique dans un pool.
J'ai créé un répertoire partagé, en provisionnement en dur, sur l'intégralité du pool.
Les premières sauvegardes Veeam se sont exécutées avec succès, puis plus rien.
Le NAS ne fonctionne plus correctement.
Ce qui marche:
- ping
- accès SSH
- une partie de l'administration web fonctionne
Ce qui ne marche pas:
- diode status rouge fixe
- accès SMB (nom de réseau introuvable, depuis le serveur veeam ou d'autres stations)
- une partie de l'administration web ne fonctionne pas (ex: QuLog affiche "téléchargement des données")
J'ai cru comprendre que le système crée une partition système sur le première pool. Comme j'ai alloué tout cet espace, je me demande si le NAS n'est pas dans les choux à cause de cela.
[veeam@VEEAMNAS4 ~]$ df
Filesystem Size Used Available Use% Mounted on
none 432.0M 339.7M 92.3M 79% /
devtmpfs 15.5G 4.0K 15.5G 0% /dev
tmpfs 64.0M 516.0K 63.5M 1% /tmp
tmpfs 15.6G 136.0K 15.6G 0% /dev/shm
tmpfs 16.0M 0 16.0M 0% /share
/dev/sde5 7.7M 46.0K 7.7M 1% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 136.8M 356.6M 28% /mnt/HDA_ROOT
zpool1 176.0K 176.0K 0 100% /zpool1
zpool2 2.0T 168.0K 2.0T 0% /zpool2
zpool1/zfs1 1.0G 1013.5M 10.5M 99% /share/ZFS1_DATA
zpool1/zfs2 388.0K 388.0K 0 100% /share/ZFS2_DATA
zpool1/zfs18 26.0T 959.6G 25.1T 4% /share/ZFS18_DATA
zpool2/zfs19 26.0T 398.1G 25.6T 1% /share/ZFS19_DATA
zpool1/zfs20 2.0T 91.1G 1.9T 5% /share/ZFS20_DATA
zpool1/zfs530 73.5M 73.5M 0 100% /share/ZFS530_DATA
zpool2/zfs531 2.0T 172.0K 2.0T 0% /share/ZFS531_DATA
cgroup_root 15.6G 0 15.6G 0% /sys/fs/cgroup
/dev/md13 417.0M 378.5M 38.5M 91% /mnt/ext
tmpfs 32.0M 27.2M 4.8M 85% /samba_third_party
tmpfs 48.0M 980.0K 47.0M 2% /share/ZFS1_DATA/.samba/lock/msg.lock
Je ne sais pas si cet état est normal ou pas.
Merci pour votre aide