OMV6 [OMV6] Plus accès à l'interface web

fatalix41

Apprenti
24 Juin 2020
48
6
8
Salut à tous et bonne année.

Suite à mes cadeaux de fin d'année, j'ai changer l'alim de mon NAS DIY par une moins puissante et j'en ai profité pour rajouter un disque de 4To non formaté qui provient de mon Syno DS920 (disque remplacé, lui, par un 14 To, merci papa noël), le but étant d'aggrandir un de mes deux volumes présent sur le NAS. L'install se fait sans soucis et je redémarre le NAS.

Problème, je me retrouve incapable de me logguer sur mon NAS, que ce soit en passant par l'adresse ip locale ou en passant par mon accès extérieur. J'ai systématiquement "502 - bad gateway" quelque soit le navigateur utilisé. L'interface apparait bien mais quand j'essaie de me logger avec un compte utilisateur (qui a les droits admin), j'ai ce message qui apparait. J'y avait pourtant accès avant hier. J'ai également essayé depuis mon smartphone, même message. J'ai essayé de virer les cookies, et d'y accéder via différents navigateurs et c'est la même chose (première fois que je démarrais edge sur ce PC d'ailleurs :) ).

Je précise que le compte "admin" classique a été désactivé pour ne laisser que ce profil utilisateur/admin.

J'ai accès à tous mes dockers, et mes volumes partagés se montent bien et j'y ait toujours accès depuis mon PC fixe (je peux lire/écrire/effacer dessus sans soucis).

J'ai essayé de débrancher le disque nouvellement monté mais rien à faire, toujours cette même erreur...
:(


J'ai bien accès au NAS en SSH aussi bien en root qu'avec mon compte. Avec la commande "omv-firstaid", j'ai essayé de reconfigurer le port pour accéder à l'interface, ça ne change rien, j'ai aussi essayé l'option "clear web control panel cache", j'ai une erreur 127, et enfin de débannir les users mais ça me dit qu'aucun utilisateur n'est banni.

J'ai également lancé les commandes "apt -update" et apt-upgrade" pour mettre à jour OMV mais le problème persiste.

Une idée de ce qui peut merdoyer ou de ce que je peux faire???
 
Je viens de tous les arrêter avec portainer avant de redémarrer le NAS. Mes conteneurs ont redémarrés directement sauf portainer qui est maintenant inaccessible.
 
Je ne les avaient pas arrêtés via SSH mais via portainer (et comme dans les stacks, j'avais précisé redémarrage "always"... ben ils ont redémarrés :) )

En effet, portainer a redémarré, je n'utilise pas beaucoup le SSH donc je connais peu les lignes de commandes nécessaires.

Bon je les aient tous stoppés après avoir précisé "unless stopped" et même souci.
 
j'avais précisé redémarrage automatique
Pour être bien sur que le soucis ne viens pas d'un conteneur, il faudrai les arreter et etre sur qu'il ne redémarre pas au re-démlarrage puis redémarrer le NAS.

Sinon au niveau reseau, avez vous vérifiez la bonne configuration ? Pas eu de changement récent par exemple un changement de box, ... ?

Ce sont des commandes OMV5 a voir si elle sont encore valable, avez vous essayé ceci :

omv-salt deploy run nginx

omv-salt deploy run phpfpm

Pensez bien a chaqu'un de vos test, a ouvrir une nouvelle navigation privé ;)
 
J'ai modifié ma réponse entre temps mais les conteneurs ont bien été arrêtés et en redémarrant aucun changement.

Non, aucun changement au niveau réseau depuis des mois, mes NAS sont mis en IP locale fixe via l'interface de la livebox4. Le pire, c'est que l'interface web apparait bien (y compris en navigateur mode privé mais impossible de s'y connecter, c'est rageant)

Pour les commandes, la première s’exécute normalement, aucun problème mais toujours l'erreur 502 après test, la seconde me renvoie 2 erreurs que je te copie:

ID: restart_phpfpm_service
Function: service.running
Name: php7.4-fpm
Result: False
Comment: Job for php7.4-fpm.service failed because the control process exited with error code.
See "systemctl status php7.4-fpm.service" and "journalctl -xe" for details.
Started: 20:23:42.485949
Duration: 109.87 ms
Changes:
----------
ID: monitor_phpfpm_service
Function: module.run
Result: False
Comment: One or more requisite failed: omv.deploy.phpfpm.default.restart_phpfpm_service
Started: 20:23:42.596973
Duration: 0.003 ms
Changes:


Aucun changement après test.
 
Pour la première ca donne ça

Loaded: loaded (/lib/systemd/system/php7.4-fpm.service; enabled; vendor preset: enabled)
Active: failed (Result: exit-code) since Mon 2022-01-03 20:34:57 CET; 54s ago
Docs: man:php-fpm7.4(8)
Process: 10011 ExecStart=/usr/sbin/php-fpm7.4 --nodaemonize --fpm-config /etc/php/7.4/fpm/php-fpm.conf (code=exited, status=78)
Process: 10012 ExecStopPost=/usr/lib/php/php-fpm-socket-helper remove /run/php/php-fpm.sock /etc/php/7.4/fpm/pool.d/www.conf 74 (code=exited, status=0/SUCCESS)
Main PID: 10011 (code=exited, status=78)
CPU: 37ms

janv. 03 20:34:56 NAS804 systemd[1]: Starting The PHP 7.4 FastCGI Process Manager...
janv. 03 20:34:57 NAS804 php-fpm7.4[10011]: [03-Jan-2022 20:34:57] ERROR: unable to bind listening socket for address '/run/php/php7.4-fpm-openmediavault-webgui.sock': No such file >
janv. 03 20:34:57 NAS804 php-fpm7.4[10011]: [03-Jan-2022 20:34:57] ERROR: FPM initialization failed
janv. 03 20:34:57 NAS804 systemd[1]: php7.4-fpm.service: Main process exited, code=exited, status=78/CONFIG
janv. 03 20:34:57 NAS804 systemd[1]: php7.4-fpm.service: Failed with result 'exit-code'.
janv. 03 20:34:57 NAS804 systemd[1]: Failed to start The PHP 7.4 FastCGI Process Manager.
 
Et la seconde donne ça

janv. 03 20:35:57 NAS804 systemd[1]: php7.4-fpm.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit php7.4-fpm.service has entered the 'failed' state with result 'exit-code'.
janv. 03 20:35:57 NAS804 systemd[1]: Failed to start The PHP 7.4 FastCGI Process Manager.
░░ Subject: L'unité (unit) php7.4-fpm.service a échoué
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ L'unité (unit) php7.4-fpm.service a échoué, avec le résultat failed.
janv. 03 20:36:27 NAS804 monit[1671]: 'php-fpm' failed to start (exit status 1) -- '/bin/systemctl start php7.4-fpm': Job for php7.4-fpm.service failed because the control process e>
See "systemctl status php7.4-fpm.service" and "journalctl -xe" for details.
janv. 03 20:36:57 NAS804 monit[1671]: 'php-fpm' process is not running
janv. 03 20:36:57 NAS804 monit[1671]: 'php-fpm' trying to restart
janv. 03 20:36:57 NAS804 monit[1671]: 'php-fpm' start: '/bin/systemctl start php7.4-fpm'
janv. 03 20:36:57 NAS804 systemd[1]: Starting The PHP 7.4 FastCGI Process Manager...
░░ Subject: L'unité (unit) php7.4-fpm.service a commencé à démarrer
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ L'unité (unit) php7.4-fpm.service a commencé à démarrer.
janv. 03 20:36:57 NAS804 php-fpm7.4[10400]: [03-Jan-2022 20:36:57] ERROR: unable to bind listening socket for address '/run/php/php7.4-fpm-openmediavault-webgui.sock': No such file >
janv. 03 20:36:57 NAS804 php-fpm7.4[10400]: [03-Jan-2022 20:36:57] ERROR: FPM initialization failed
janv. 03 20:36:57 NAS804 systemd[1]: php7.4-fpm.service: Main process exited, code=exited, status=78/CONFIG
░░ Subject: Unit process exited
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ An ExecStart= process belonging to unit php7.4-fpm.service has exited.
░░
░░ The process' exit code is 'exited' and its exit status is 78.
janv. 03 20:36:57 NAS804 systemd[1]: php7.4-fpm.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit php7.4-fpm.service has entered the 'failed' state with result 'exit-code'.
janv. 03 20:36:57 NAS804 systemd[1]: Failed to start The PHP 7.4 FastCGI Process Manager.
░░ Subject: L'unité (unit) php7.4-fpm.service a échoué
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ L'unité (unit) php7.4-fpm.service a échoué, avec le résultat failed.
janv. 03 20:37:27 NAS804 monit[1671]: 'php-fpm' failed to start (exit status 1) -- '/bin/systemctl start php7.4-fpm': Job for php7.4-fpm.service failed because the control process e>
See "systemctl status php7.4-fpm.service" and "journalctl -xe" for details.
lines 2315-2361/2361 (END)
 
Ton systeme ne serait pas installer sur une carte mémoire ?

As tu essayé ceci afin de reconfigurer nginx :
sudo omv-salt stage run deploy
 
Non, installé sur un SSD NMVE de 256 GO. Par contre, j'avais remarqué qu'un de mes dockers bouffait anormalement de la place (il écrivait des fichiers logs en continu, ca me bouffait une place de boeuf (pas loin de 30GO), je les aient supprimés via filebrowser mais je ne sais pas si OMV a un système de corbeille qu'il faut vider manuellement sur le disque système.

Pour la commande j'ai une seule erreur
ID: set_timezone
Function: timezone.system
Result: False
Comment: Unable to compare desired timezone 'set_timezone' to system timezone: Can't find a local timezone "set_timezone"
Started: 20:46:59.587123
Duration: 0.494 ms
Changes:



Et le résumé:

Summary for debian
--------------
Succeeded: 244 (changed=119)
Failed: 3
--------------
Total states run: 247
Total run time: 47.523 s

Summary for debian
------------
Succeeded: 1 (changed=2)
Failed: 1
------------
Total states run: 2
Total run time: 50.605 s

Toujours aucun changement... Je sens que je suis bon pour une réinstall complète
 
Dernière édition:
Non, installé sur un SSD NMVE de 256 GO. Par contre, j'avais remarqué qu'un de mes dockers bouffait anormalement de la place (il écrivait des fichiers logs en continu, ca me bouffait une place de boeuf (pas loin de 30GO), je les aient supprimés via filebrowser mais je ne sais pas si OMV a un système de corbeille qu'il faut vider manuellement sur le disque système.
Avec la commande suivante tu peut visualiser l'expace libre :

df -H

Toujours aucun changement... Je sens que je suis bon pour une réinstall complète

Je t'avoue que je seche aussi, il serai surement interessant de faire une demande sur le forum anglophone de OMV afin de voir se que cela dit ! https://forum.openmediavault.org/index.php?board/25-general/
 
Bon il me reste 220 Go de dispo, donc ce n'est pas ça non plus. :cautious:

Merci à toi EVOTk mais je vais pas m'embêter plus que ça, la plupart de mes conteneurs sont en stack donc installable facilement, les données sur mes volumes sont des sauvegardes de mon DS920, donc je vais juste sauvegarder les configs et faire une clean install.
 
C'est sûr, j'y ait déjà passé l'après-midi d'hier entre le montage et les tests, je vais pas perdre plus de temps que je n'ai déjà perdu :)
 
Bon je dois bien avoir un souci matériel quelconque, impossible de réinstaller OMV, ca bloque systématiquement à l'étape de la configuration réseau, après l'attribution ipv6, j'ai un écran bleu et ca ne bouge plus. :mad:

J'ai refait ma clé d'installation, redémarré la livebox, , changer de câble réseau, j'ai essayé de me connecter en filaire et en wifi, rien n'y fait....
 
J'arrive même pas à cette étape, ca bloque avant, à l'inscription sur le réseau... La je suis en train de me faire une clé USB unraid pour voir si j'arrive à installer un autre système.