Asustor Package Duplicati

Il faudrait aussi tester le fait de forcer le répertoire temporaire pour le travail de sauvegarde concerné. Pour cela, il faut ajouter une option avancée "tempdir" avec la valeur "/usr/local/AppCentral/duplicati/tmp/"

Je viens de pousser la version 1.1.2 chez Asustor, elle devrait être dispo dans quelques jours.
 
cyril@pawelko.net a dit:
Il faudrait aussi tester le fait de forcer le répertoire temporaire pour le travail de sauvegarde concerné. Pour cela, il faut ajouter une option avancée "tempdir" avec la valeur "/usr/local/AppCentral/duplicati/tmp/"

Je viens de pousser la version 1.1.2 chez Asustor, elle devrait être dispo dans quelques jours.

J'ai déja effectué cette manip et je suis passé sur la dernière version de Canary avec succès mais ça ne change rien

Toujours le même problème au bout d'un moment le Nas plante et ne repond plus

Obligé de faire un hard reset puis d'aller dans AppCentral, désactiver Duplicati et réactiver Duplicati pour passer outre le message d'erreur d'authentification OAuth.

Pourtant le Nas a 3GB de ram et il n'y a rien d'autre qui tourne ni aucun accès extérieur

Si tu as du nouveau ou une idée n'hésite pas
 
cyril@pawelko.net a dit:
Il faudrait aussi tester le fait de forcer le répertoire temporaire pour le travail de sauvegarde concerné. Pour cela, il faut ajouter une option avancée "tempdir" avec la valeur "/usr/local/AppCentral/duplicati/tmp/"

Je viens de pousser la version 1.1.2 chez Asustor, elle devrait être dispo dans quelques jours.

Bon j'ai bien fait cette manip mais pourtant maintenant j'ai le message d'erreur suivant:

Insertion failed because the database is full
database or disk is full

:eek: Help!
 
Bonjour Hawaga,

As-tu beaucoup de fichiers ?
Il semble que Duplicati utilise tout de même /tmp (qui en RAM) pour les données temporaires SQLite.

Je viens de pousser la version 1.1.3 qui force la création de ces bases temporaires sur disque plutôt qu'en RAM.
 
cyril@pawelko.net a dit:
Bonjour Hawaga,

As-tu beaucoup de fichiers ?

Qu'est ce que tu appelles beaucoup? Le Backup que j'essaie de faire est constitué de 289 fichiers.

cyril@pawelko.net a dit:
Je viens de pousser la version 1.1.3 qui force la création de ces bases temporaires sur disque plutôt qu'en RAM.

Je ne vois pas encore la 1.1.3 sur AppCentral. Je l'installerai et réessaierai le cas échéant.
 
Hawaga a dit:
Je ne vois pas encore la 1.1.3 sur AppCentral. Je l'installerai et réessaierai le cas échéant.
Soumise il y a 9 jours. Un peu de patience.
Sinon Cyril peut très bien la poster également ici ;)
 
En effet c'est dispo.
Bizarre, le changelog n'est pas complet.
Hawaga, peux-tu restester avec cette version ?
 
cyril@pawelko.net a dit:
En effet c'est dispo.
Bizarre, le changelog n'est pas complet.
Hawaga, peux-tu restester avec cette version ?

envoie moi par MP le changelog que tu as transmis pour que je demande un rectif
 
cyril@pawelko.net a dit:
En effet c'est dispo.
Bizarre, le changelog n'est pas complet.
Hawaga, peux-tu restester avec cette version ?

Salut Cyril (bonne année!)

J'ai effacé mon backup, effacé la tâche, désinstallé Duplicati, réinstallé le dernier package Duplicati (1.1.3), recréé une nouvelle tâche.

Et au bout de quelques minutes, Duplicati plante. J'ai un petit message: "la connexion au serveur a été perdue, tentative de reconnexion" avec un décompte puis une tentative de connexion qui tourne en boucle. Capturedupli.JPG

Si je ferme l'onglet Duplicati et tente de le rouvrir, impossible: j'ai un ERR_CONNECTION_TIMED_OUT dans le navigateur et je dois retourner dans ADM, désactiver Duplicati dans AppCentral et le réactiver pour pouvoir le relancer.

Et ensuite rebelote, même problème. Jusqu'à ce que ce soit à nouveau carrément le Nas qui plante et ne répond plus.
Je confirme que j'ai bien la dernière version d'ADM, la dernière version de Mono, la dernière version du package duplicati..

Ca tourne en rond... Help :(
 
Bonjour Hawaga,

Je ne vais pas pouvoir t'aider plus , il s'agit manifestement d'un défaut de duplicati sur ton système.
Je t'invite à te rapprocher de l'équipe de Duplicati pour remonter l'erreur rencontrée.

Cyril.
 
J'ai parcouru la discussion mais je n'ai pas réussi à déterminer si Duplicati fonctionne bien avec Hubic sur un NAS. Quelqu'un aurait-il un retour à ce sujet ?

edit : je suis en train de tester l'appli sur PC, la synchro Hubic ne fonctionne pas pour le moment. Mon path sur le serveur est "/Test" je teste la connexion, c'est ok, mais la synchro plante. Quand je veux editer le backup, je vois que le path est devenu "Test" et avec ca le test de connexion ne fonctionne pas....
 
morphet a dit:
J'ai parcouru la discussion mais je n'ai pas réussi à déterminer si Duplicati fonctionne bien avec Hubic sur un NAS. Quelqu'un aurait-il un retour à ce sujet ?

edit : je suis en train de tester l'appli sur PC, la synchro Hubic ne fonctionne pas pour le moment. Mon path sur le serveur est "/Test" je teste la connexion, c'est ok, mais la synchro plante. Quand je veux editer le backup, je vois que le path est devenu "Test" et avec ca le test de connexion ne fonctionne pas....

Chez moi ça fonctionne sans soucis depuis plusieurs semaines. Backup d'environ 10Go sur Hubic gratuit.
Si tu lis le thread tu verras que ça m'a demandé une période de réglages mais après ça c'est bon.
 
Je te remercies pour ta réponse. J'ai également réussi, par contre quelque chose me refroidi un peu. On utilise la version expérimentale de Duplicati car la version 2 n'est pas encore finale. Toutefois les créateur disent bien de ne pas utiliser cette version pour de vraies sauvegardes : elle ne doit être utilisée que pour s'amuser et voir s'il y a des problèmes. Je ne suis donc pas sûr que ce soit la meilleure méthode de backup pour le moment.

J'ai demandé à Asustor d'ajouter HubiC et d'autres serveurs dans leur option de backup intégrée qui semble sponsorisée par S3.... On verra bien.
 
cyril@pawelko.net a dit:
Bonjour Hawaga,

Je ne vais pas pouvoir t'aider plus , il s'agit manifestement d'un défaut de duplicati sur ton système.
Je t'invite à te rapprocher de l'équipe de Duplicati pour remonter l'erreur rencontrée.

Cyril.


Bon, je reviens aux nouvelles: depuis que je suis passé à la version 2.0.1.56 de Canary, ca semble stable. En tous cas ça tourne depuis plusieurs jours sans planter et plusieurs backups de quelques centaines de GB sont allés au bout.

Je viens de lancer un méchant backup de 12.5 TB, ca devrait prendre plusieurs jours voire semaines, on va voir ce que ça donne!

morphet a dit:
Je te remercies pour ta réponse. J'ai également réussi, par contre quelque chose me refroidi un peu. On utilise la version expérimentale de Duplicati car la version 2 n'est pas encore finale. Toutefois les créateur disent bien de ne pas utiliser cette version pour de vraies sauvegardes : elle ne doit être utilisée que pour s'amuser et voir s'il y a des problèmes. Je ne suis donc pas sûr que ce soit la meilleure méthode de backup pour le moment.

Si les backups vont au bout et sont vérifiés avec succès.. on devrait être tranquilles au moins concernant ceux-ci non?
 
Petit retour après quelques mois d'utilisation. Bonne application de sauvegarde qui s'améliore bien avec les nouvelles versions (en comparaison avec la version immédiatement disponible à l'installation et qui nécessite une mise à jour). J'avais été étonné de la compression sur certaines sauvegarde (cas d'une sauvegarde de 125Go avec une source de 460Go). Après un essai de restauration, le doute est parti. :geek:

Application stable et permettant d'envoyer vers pas mal de destination.

Le défaut c'est la non mise à jour du package dans l'App Central de temps en temps (surtout avec un aussi grand changement entre la version en place et la version mise à jour). Sachant que la mise à jour est assez fastidieuse à effectuer dans le sens où elle a du mal à se faire.
 
Winpoks a dit:
Le défaut c'est la non mise à jour du package dans l'App Central de temps en temps
pas de souci mais nous ne pouvons pas valider une app si elle nous est proposée dans le coin développeurs...
 
Bonjour à tous,

Heureux de voir que certains trouvent leur bonheur avec Duplicati.
C'est également mon cas, et l'objectif de la création de ce package était d'en faire profiter les autres.

Quelques réponses aux remarques ci-dessus :
J'ai également réussi, par contre quelque chose me refroidi un peu. On utilise la version expérimentale de Duplicati car la version 2 n'est pas encore finale. Toutefois les créateur disent bien de ne pas utiliser cette version pour de vraies sauvegardes : elle ne doit être utilisée que pour s'amuser et voir s'il y a des problèmes. Je ne suis donc pas sûr que ce soit la meilleure méthode de backup pour le moment.
C'est vrai que c'est encore considéré comme une version beta, bien qu'elle fonctionne plutôt bien, malgré quelques bugs parfois gênants.
Cela ne me gênait pas tant qu'elle était classée dans la section "Applications beta" de l'App Central, mais je découvre que ce n'est plus le cas.
Je mettrais un avertissement dans la description de la prochaine version.
Le défaut c'est la non mise à jour du package dans l'App Central de temps en temps (surtout avec un aussi grand changement entre la version en place et la version mise à jour).
En effet, il faudrait pour cela que je publie des mises à jour plus souvent, mais ça prend tout de même du temps, et les mises à jour sont assez fréquentes. J'ai soumis toutes les infos aux développeurs Asustor pour qu'ils puissent construire le package Asustor, mais sans réaction de leur part.
Sachant que la mise à jour est assez fastidieuse à effectuer dans le sens où elle a du mal à se faire.
J'ai constaté ça, il faut parfois désactiver/réactiver l'application avant que la mise à jour fonctionne.

J'avais été étonné de la compression sur certaines sauvegarde (cas d'une sauvegarde de 125Go avec une source de 460Go).
Oui, et il fait même de la déduplication, ce qui peut expliquer ces chiffres.

Si les backups vont au bout et sont vérifiés avec succès.. on devrait être tranquilles au moins concernant ceux-ci non?
C'est une règle de base : Il faut toujours toujours vérifier ses sauvegardes, en réalisant des restaurations de façon régulière (tous les 6 mois par exemple). Pour cela je vous conseille d'installer Duplicati sur un ordinateur, de lancer une restauration conséquente (plusieurs Go), et de valider le contenu des fichiers restaurés.

Je tenterais donc un nouveau package un des ces jours.

Je suis également preneur des retours positifs (avec les volumes et le service de stockage utilisé), ça servira à la communauté.
 
Avec la déduplication ça explique encore plus le gain. Vu que ça concerne la sauvegarde d'une personne assez bordélique dans l'organisation et le rangement de ses fichiers. :geek:

Pour la mise à jour, vous m'aviez fourni l'explication par mail mais début aout, suite à une mise à jour de ADM la mise à jour ne voulait plus se faire du tout même après plusieurs dizaine de tentatives. Je n'ai réussi qu'en supprimant totalement duplicati du nas (y compris les fichiers de configuration restant manuellement) et ensuite ça a fonctionné. Comme un boulet je n'avais pas sauvegardé les fichiers de configuration des sauvegardes. Je recommence de zéro en conservant les anciennes un certain temps car je sais qu'on peut les restaurer.
D'ailleurs à ce titre lorsqu'on perd la configuration des sauvegardes comme je l'ai fait. Existe-t-il un moyen de les rétablir via les sauvegardes archivés ? (j'ai effectué des sauvegardes pour ça maintenant)


Sinon je l'ai d'abords utilisé avec Amazon Cloud Drive. Soucis avec lorsque la taille des archives à téléverser dépassait quelques centaines de Mo (200 ou 250Mo). Mais c'était avec la version Duplicati de base avant que je réussisse à faire la mise à jour la première fois (j'avais d'ailleurs envoyé un mail à ce sujet juste avant, et les explications m'avaient permit de la faire). Du coup la remarque de la taille n'est peut être pas pertinente pour ACD. L'envoi était plus rapide que Google Drive (30Mo/s au lieu de 8-10Mo/s).
Avec les changements sur ACD aux US et ne voulant pas faire de transfère par la suite je suis passé sur Google Drive (avec un duplicati à jour). le transfert des archives est un peu plus lent (mais ça n'est en soit peut être pas important) mais je peux faire des transferts de plus grande taille. Du coup ça va finalement plus vite.

D'ailleurs, Duplicati travaille comment. Il construit l'archive puis envoi l'archive. Mais est-ce qu'il commence à construire une autre archive pendant l'envoi ou alors attend-t-il que l'envoi de l'archive précédente soit finie ?
 
cyril@pawelko.net a dit:
J'ai soumis toutes les infos aux développeurs Asustor pour qu'ils puissent construire le package Asustor, mais sans réaction de leur part.
Nous nous focalisons sur les applications ASUSTOR et bien sûr notre firmware (développement de la 3.1 déjà bien avancé)
Nous laissons les 3rd party apps aux intégrateurs talentueux comme un certain Cyril ;)