Vos solutions de backup

je pense m’en occuper vraiment demain ou vendredi matin (mon WE) car hier j’étais en chat avec le support depuis le taffe et l’assistant(e) voulait me faire switch le compte alors que j’ai des backup en route.

Demain matin je regarde ou j’en suis dans l’uupload, je stop et je les contact et je ferai un post ici évidement

Je vais tester d’ici ça peu de temps OVH Cloud Archive, couplé avec un chiffrement des données uploadées avec Cryptomator. Le tarif est très intéressant pour un backup par rsync hors-site mais en ligne. Ça serait un bon complément à mon disque dur chiffré laissé au taf qui sert de copie hors-ligne et hors-site, en attendant d’avoir le budget pour plusieurs disques.

Je regardais aussi vu qu’il y a le client dans le NAS, ça serait idéal.

Sur ces solutions (amazon S3, ou glacier etc…) en payant à l’usage, j’ai l’impression que pour 2To ça me coutera au moins le double que l’abo crashplan

Je te confirme, 2To tu es à 10$ / mois sur B2.

Les RAID proprietaires c’est chiant en effet, mais c’est pratique pour upgrader la taille de tes disques de maniere graduelle sans avoir a raquer $1000 d’un coup. Mais pareil que toi: j’ai aussi un backup en local dans la maison. En fonction du prix et de l’offre que je trouve, je vais voir si je backup les 1.5To importants, ou les 4To, mais tant qu’a faire autant d’abord viser haut… surtout que la plupart des offres ont les prix qui grimpent apres 1To de toutes facons donc ca change pas grand chose pour moi.

Notez que ca ne gere pas les NAS officiellement – c’est comme CrashPlan, il faut bidouiller.

Lol, putain, ca me rappelle les merdes de compte Xbox Live qui etaient limites a un seul pays sans possibilite de migration quand tu demenages… vu que @GloP est a chaque fois dans le coin quand ca arrive, je me demande si c’est pas lui qui fait expres :rofl:

Oui c’est ca que je regardais. Leur offre pro est geree par B2 derriere, et les Synology gerent ca avec leurs apps de backup.

Je m’etais demande si j’allais faire ca, mais finalement j’ai pas fait: je reorganise souvent mes fichiers, et j’ai pas envie de recuperer un backup dans 3 ans qui a douze mille fichiers en 5 exemplaires… sans compter les repos SVN/Hg/Git que j’ai et qui seraient potentiellement corrompus s’ils ont des trucs qui trainent et qui ne devraient pas etre la (apres, bon, la plupart de ces repos sont aussi sur BitBucket ou GitHub donc je pourrais les recuperer ailleurs, mais ca ferait chier de gerer plusieurs sources de restauration, et certains repos sont uniquement chez moi).

Sur le syno tu as la possibilité de modifier ce réglage par dossier synchronisé (le dossier « racine »). Donc par exemple pour tes docs ne pas supprimer le remote, mais pour ton dossier dev le faire. Je l’ai fait pour exactement les mêmes raisons que toi sur mon dossier où je stocke du code.

Azure vient d’annoncer une nouvelle offre Archive Storage au tarif de 0,0016 € / Go / mois (1,6 € / To / Mois).

C’est en preview, uniquement dispo sur les datacenter US pour l’instant. Mais ça peut être une bonne alternative. En tout cas je vais surveiller ça.

1 « J'aime »

J’en ai parlé hier rapido dans le Discord mais j’ai passé la journée à tester Restic comme logiciel de backup. Il peut cibler, entre autre, AWS S3 (ou tout service compatible avec l’API), BackBlaze B2, un disque local ou du SFTP (et un ou deux autres trucs). C’est uber nerd par contre parce que c’est CLI only (mais multi OS car écrit en Go).

Ca m’a tellement plus que j’ai écris un article (en Anglais) sur le sujet pour ceux qui voudraient en savoir plus: https://synsynack.wordpress.com/2017/08/24/restic-is-probably-the-best-backup-solution-for-nerds/

1 « J'aime »

Merci pour l’article mais je t’avoue que mis à part le coté ligne de commande j’ai pas bien vu en quoi l’outil était le meilleur pour les “nerds”. De plus le stockage par hachage de fichiers ça me fait un peu peur (ils recommandent d’ailleurs de faire régulièrement des checks).

Je pense que le côté CLI c’est totalement nerd oui. Peut-être qu’en tant que nerd tu te rend pas compte à quel point c’est rébarbatif pour le commun des mortels :slight_smile:

Pour le split + hash des fichiers c’est ce que font les solutions pro (genre Centralized Cloud / Online / Managed Backup Software) à $200 balles par poste. Ca permet notamment de n’uploader que le diff entre chaque backup incrémental, tout en vérifiant l’intégrité, tout en gardant tout chiffré, je pense que c’est la meilleure façon de faire. Comment faire autrement ?

Bon Jean Pierre @Cafeine m’a fait peur dans le dernier podcast je vais donc me pencher sur mes solutions de backup. Pour faire simple j’ai :

  • Un nas 4 baies avec deux DD 1to en raid1 (pas même marque of course). Je crois que les DD ont AU MOINS 7 ans. Un autre DD sert de « dépôt » pour tous nos films de vacances qu’on regarde et ne garde pas.
  • Il n’y a aucune automatisation de nos PC (deux fixes) vers le nas des dossiers qu’on voudrait vraiment garder. Autant dire que le dernier backup remonte a hem quelques temps.
  • J’ai un macbook pro pour le taf. Je n’ai aucune save, en fait j’ai jamais utilisé time machine.
  • On a chacun un iphone. Aucun d’entre eux n’est save au-delà de l’offre de base de icloud. Là par contre je save souvent les photos et les trie sur mon PC. Mais comme je backup pas le PC…
  • ÉVIDEMMENT AUCUN BACKUP DANS LE CLOUD :stuck_out_tongue_closed_eyes:

Par quoi je devrais commencer ? :persevere:

Pour les backups en local entre machines (client Windows vers ce que tu veux), je te recommande SyncbackSE. C’est complet, éprouvé, plein d’options…
Des années que pleins de gens ici l’utilisent, je n’en ai pas entendu beaucoup râler.

Pour la partie en ligne par contre, tu pourras voir en remontant le thread sur ces derniers jours que la réponse est beacuoup moins simple… :expressionless:

1 « J'aime »

Bon, test de BackBlaze B2 a partir d’un de nos serveur de test (tant qu’a faire) + rclone. Ben ca marche plutôt par mal en fait, mais petite surprise en voyant le nombre de transaction Class C monter assez vite. Je n’avais pas pris ça en compte dans ma petite simulation de prix (et la page de pricing de ces éléments n’est évidement pas mise en avant, ni n’as de grandes explications).

En gros, il a besoin d’un call de type “listing” (b2_list_file_names) par tranche de 1000 fichiers. Et quand on a des centaines de milliers de fichiers a backup, finalement, ça monte vite.
Il va falloir que je creuse tout ça, surtout afin d’être certain si c’est quelque chose qui va se produire une fois (backup initial) ou quotidiennement (lors de la syncro). Ca peut vite faire monter le prix final.

A tester : --fast-list, qui pourrait réduire le nombre de transactions.

Question stupide avec Amazon Drive (valable pour d’autre service de cloud j’imagine), si je configure un backup de mon NAS dont les vidéos de vacances de mon cousin américain avec un chiffrement (Celui que propose HyperBackup de Synology par exemple), techniquement Amazon peut pas savoir ce que je stocke chez eux et pas de problèmes avec la hadopi (entre autre) ?

Exact. C’est même pour ça qu’il est préférable de chiffrer les données avant même qu’elles soient transférées. Idéalement avec une clef de chiffrement que l’on fourni soit même, et avec un algorithme éprouvé (AES256 c’est bien).

Les prix du service C2 de Synology viennent de tomber, c’est pas totalement délirant comme offre et assez claire http://www.macg.co/logiciels/2017/08/synology-c2-backup-lancement-le-18-septembre-partir-de-999-euan-99520

Intéressant oui. Ça a le mérite de fixer le prix du To sauvegardé sur une solution supporté de backup (et pas de cloud drive) sur Syno, à la différence des autres où tu paies les transactions. Why not.

Ils en ont rien a branler chez Amazon de ce que tu stockes chez eux…

3 « J'aime »

clairement, a moins d’une requête des autorités amazon ne regarde pas tes films de vacance pas plus que les miens ou ceux des millions de clients

En plus à part des trucs vraiment super rare, j’ai du mal à comprendre l’intérêt de sauvegarder des “films de vacances”

2 « J'aime »