Vos solutions de backup

Pour ce qui est de vérifier l’intégrité des sauvegarde, encore un point de plus pour HyperBackup de Synology qui permet de lancer ça de manière récurrente très facilement.

2 « J'aime »

En parlant de ça, y a-t-il un moyen d’automatiser un minimum cette vérification ?

Par exemple, restorer automatiquement quelques fichiers connus et vérifier leur hash.

Pour pouvoir maîtriser ça (entre autres), et puisque le client de backup est souvent un point faible des solutions évoquées, je me demande si passer à SyncbackPro (j’utilise déjà la version SE) ne serait pas une bonne idée.

Sur le papier il a tout ce qu’il faut:

  • Support des principaux fournisseurs de stockage en ligne
  • Vérification des fichiers uploadés (il faut que je regarde comment c’est fait exactement)
  • Versionning

Alors ça implique de payer l’outil (et ses mises à jour) en plus du stockage, mais au moins si je dois rechanger de cloud, je garderai le client et mes réglages.

Quelqu’un ici utilise déjà la version Pro et/ou la sauvegarde sur cloud ?

Le prix est pas fumé non plus hein.

Voir mon poste juste au dessus. Sur HyperBackup de Synology tu peux planifier de manière récurrente une vérification de l’index et en option de la « restaurabilité » des fichiers.

Pour les sauvegardes hebdomadaires, en ligne (NAS en raid mirror toujours up), c’est un script rsync et un cron avec du btrfs pour faire un snapshot. Je conserve un an d’historique Au bout d’un an, je considère que je peux effacer le snapshot. Pour retrouver un fichier, suffit de regarder les snapshots par date ou de faire une grosse commande find dans le dossier des snapshots.
Pour les mensuelles hors ligne (disque dur hors site), faute de budget mon process est pas encore tout à fait au point, j’en parlerai pas plus.

J’utilise du btrfs pour mes backups donc pour vérifier les backups, c’est un btrfs scrub. Ca permet de valider que les données sont identiques à ce qu’elles étaient lors de leur écriture, pour éviter le bitrot. Vu que je suis en raid mirroring, ça corrige automatiquement le bloc défectueux.
Et pour vérifier que la transmission des fichiers sauvegardés vers la destination est ok, j’utilise le flag --checksum de rsync.

C’est bizarre leur truc parce qu’ils parlent de « Hashing compare method » (dispo dans toutes les versions), et c’est comme ça qu’il faut faire, mais ensuite ils parlent de « File Integrity Checking » mais ils détaillent pas la différence avec le hash.

J’avais déjà utilisé ce soft, totalement oublié d’y jetter un oeil de nouveau lors de mon récent tour d’horizon. Dommage qu’il ne supporte pas Linux aussi par contre :confused:

Vu qu’on est un peu en mode 3615 mylife, j’ai un peu écumé les internets pour essayer de trouver une solution satisfaisante pour backuper mon Synology quelque part et en ce moment, j’essaye de le backuper avec HyperBackup dans wasabi qui a des tarifs plus agressifs que ceux de S3, même si c’est possiblement plus cher sur certains trucs (genre les 90 minimum de stockage pour un item). Il y a un trial de 30 jours pour tester le service.

Je vais voir si l’expérience donne quelque chose de raisonnable en terme de prix… A priori, pour 3To, c’est moins de 15 dollars par mois. En sortie, c’est plus cher par contre (genre 100 balles pour sortir 3To). Je dois encore enquêter sur la façon dont marche HyperBackup pour la restauration, avant d’avoir à sortir 100 balles à chaque fois que je veux récupérer une photo de vacances que j’ai effacé par mégarde…

Jette un oeil aux tarifs de BackBlaze B2 alors: https://www.backblaze.com/b2/cloud-storage-pricing.html

J’ai creusé un peu plus, notamment en lisant quelques threads sur leur forum.

Pour la sauvegarde dans le cloud, SynbackPro maintient une base de donnée côté client pour savoir quels fichiers ont changé depuis la dernière sauvegarde. Les API fournies par les différentes solutions de stockage ne sont apparemment pas suffisantes pour leur permettre de faire du “diff distant”.

Du coup j’ai du mal à voir comment ils peuvent faire un vrai “integrity check” sur du cloud (en fait je pense qu’ils ne peuvent pas).
Il faudrait aller poster la question directement sur leur forum…

Sinon, dans les solutions pas trop chères, j’ai testé vite fait Cloud Archive d’OVH ce week-end. C’est clairement pas à la portée de tout le monde parce qu’on sent fortement l’OpenStack qu’il y a derrière, il y a des prérequis assez costauds mais ça a l’air intéressant. L’interfaçage avec restic n’est pas très simple.

Sinon, un sujet connexe : vous faites comment, les gens, pour sauvegarder le contenu de vos serveurs non auto-hébergés, VPS, serveurs loués ou mutualisés ? Après avoir lu un truc sur Coding Horror, j’suis en plein questionnement sur le sujet.

Pour le Cloud d’OVH, @Cafeine avait écrit un truc pas très élogieux sur HubiC: https://www.geekzone.fr/2016/09/02/hubic-le-cloud-a-fuir/

Il serait intéressant de voir si leur Cloud fonctionne mieux. J’imagine que HubiC l’utilise mais c’est peut-être HubiC le goulet d’étranglement donc essayer de le “bypasser” est clairement un truc à tenter je pense.

J’ai testé et haï HubiC et ça n’a clairement aucun rapport, du point de vue de l’utilisateur final. HubiC c’est un sous-dropbox grand public alors que Cloud Archive c’est une solution de stockage à froid plutôt pro et rappatriable sous quelques heures.

J’utilise SyncbackSE pour ça (en plus de gérer mes backups locaux avec).
Il se connecte en FTP et aspire le contenu du serveur distant sur ma machine locale. Les fichiers récupérés sont ensuite backupés avec le reste de mon contenu local (photos etc.).

Vu le bazar actuel sur les solutions de backup, il y aurait un dossier à faire (@Cafeine). :wink:
Bon ça prendrait 6 mois de taf, et au vu de la vitesse d’évolution des services, le début du dossier serait probablement obsolète avant que l’écriture en soit terminée. Mais ce serait intéressant.

Pour Hubic, je ne peux pas m’empêcher de me poser la question de son utilisation malgré les retours négatifs.
Je n’ai besoin que de faire du backup pur (pas d’accès aux fichiers hors catastrophe avec destruction de ma maison), et j’ai un upload misérable (100 ko/s). Et il semble que dans ce genre de cas, Hubic puisse quand même avoir un intérêt (d’autant que ce sera gratuit, OVH est mon FAI).
Reste le problème de la confiance en l’opérateur (apparemment le service client est inexistant)…

Les services cloud d’OVH ont un vrai support, clairement. Même en ayant quelques pauvres trucs hébergés chez eux pour genre 250€ par an, j’ai eu un support plutôt réactif jusqu’à maintenant.

Je suis client OVH pour l’ADSL et de l’hébergement mutualisé, et effectivement plutôt satisfait du service client.

Maintenant pour Hubic apparemment ce n’est pas la même histoire:

Je ne vais pas chercher plus loin.

Bon finalement apres toute cette discussion, je suis en train de tester backblaze avec le client duplicity sur mon nas home-made debian.

Je viens d’envoyer quelques fichiers / dossiers, et je vois qu’ils sont bien dans le bucket.

Je vais du coup preparer un script plus complet pour backup les trucs vraiment importants et lancer ca cette nuit, on verra bien.

J’ai fait mes premiers tests avec duplicity. Je ne connais pas rclone. duplicity n’a pas l’air d’avoir cette option --fast-list.

Il y a malgré tout un client qui est mieux que l’autre, ou c’est kif kif?

EDIT : je vois que duplicacy a l’air d’être pas mal mis en avant quand on lit a droite a gauche.
EDIT 2 : BorgBackup maintenant… https://0a.fi/backups/rclone-backblaze-b2-0-005gb-storage/ Damned :slight_smile:

Perso j’ai craqué et j’ai migré sur Crashplan Business. Avec leur 75% de réduc la première année qui suit mon contrat actuel je suis tranquille à pas cher jusqu’à mi-2019.
D’ici là le paysage du backup aura peut-être encore changé.

1 « J'aime »