Vos solutions de backup

#428

Bon, 5 jours plus tard, mon offre d’essai n’est toujours pas dispo, et je n’ai pas de nouvelle du support après 2 jours.

Au niveau image, ça me refroidit directement, et j’arrête là les frais.

Je repart donc sur l’idée de Glacier.

0 Likes

#429

Tiens au fait, il y a encore des gens chez Crashplan ?

Par flemme je comptais rester chez eux pendant la période de transition du plan “Home” vers le plan “Pro” (puisqu’ils offraient un rabais conséquent).
Le période en question est terminée, je suis encore chez eux, mais ils continuent de me facturer 2,50$ par mois (donc toujours un gros rabais).
Du coup je ne bouge pas et je n’ose pas leur demander si c’est normal. :ninja:

0 Likes

#430

J’ai eu mon année à 2,50$, je suis repassé à 10$ et finalement je suis resté, parce que mon upload initial a été fait sur la fibre, maintenant j’ai un adsl moisi, c’est impossible que je renvoie tout ça sur cette connexion…

0 Likes

#431

Tu as quel volume de donnée ?
Je me demande si ils ne me laissent pas le discount du fait de mon faible volume (< 200 Go) même si ça me paraît peu probable.

0 Likes

#432

J’ai presque 400Go

0 Likes

#433

Serre les fesses :sweat_smile:
Moi j’ai entamé mon année pro avec discount seulement cet automne, j’ai encore le temps de voir venir.
Mais clairement si je choisi autre chose ça va me faire chier de réup 700Go :disappointed_relieved:

0 Likes

#434

Avec un tel volume de données effectivement le risque est de devenir un client captif…

0 Likes

#435

Hello,

je me penchais sur les NAS Synologie. Par ordre de perf, on a DS218Play < DS218 < DS218+ ?

Vous conseillez lequel pour faire :

  1. Du backup de données (photos & co qui sont dans mon PC)
  2. Du stockage de video pour du partage PLEX sur ma fire stick (en remplacement du système actuel qui est d’allumer mon PC pour que le serveur soit up).
0 Likes

#436

218+ si tu ne veux pas avoir de souci de transcode avec plex.

0 Likes

#437

Ha oui merci j’avais déjà vu passer ce doc ! Par contre du coup pour décoder du 1080, faut passer par le décodage Hardware et du coup acheter un plex pass ?
Et les 2Go de RAM installé, ça suffit pour mon utilisation ?

0 Likes

#438

je pense que 2go c’est ok, par contre le transcoding, ca va dépendre de tes fichiers et ton player.

1 Like

#439

Je dis peut être une connerie, mais pour le coup ça vaudrait pas le coup de prendre une VDI chez OVH ou je ne sais qui. De DL tout votre backup dessus et de réup avec la machine distante?

0 Likes

#440

Bon après divers tests, et compte tenu de la rareté de l’offre, je crois que je vais faire simple avec Backblaze qui écrase un peu la concurrence en terme de rapport qualité/prix …

Je fait pas mal de photo, et ça pèse vite le Raw/Dng même après avoir fait le tri, plus les sauvegardes des vidéos et photo des autres membres de la famille qui font pas de Backup …

Je part sur une stratégie suivante avec 2 disques HGST 8TO (ou 10TO?) garantie 5 ans, donc ~500/600 eu :

  • un dans le PC principal que je vais backup via Backblaze (5$/mois) + smugsmug pour une version degradé jpeg
  • dans mon Nas syno, j’ai déjà : 1TO pour le système + 3TO sauvegarde (photo et système, déjà plein … ) + 4TO en HD externe (truc pas importants : séries, films, bordel temporaire, etc.). Je vais remplacer le 3TO par un 10TO pour mirror le 10TO sur le pc local.

Une autre solution serait de mettre les deux 10 T0 dans le nas, mais d’une part :

  • le RAID c’est nul à l’échelle de 2 disques, je préfère faire un mirroring du disque avec l’outil de backup syno. Comme ça même en cas de corruption, je peux récup d’ancienne version des données si je me débrouille bien (à condition que je sois pas à 10To de sauvegarde tout de suite afin de laisser de la place pour le versionnement des fichier …)
  • faut que çà soit le NAS qui s’occupe d’envoyer tout çà sur B2 backblaze ou C2 de syno, or pour 1TO d’upload initial et 10gb mois on est déjà à 63dollar/an … De plus on peux aujourd’hui basculer de la données particulier vers B2 : https://www.backblaze.com/blog/save-data-directly-to-cloud-storage/ … du coup je ne vois plus l’intérêt de cette solution.

Z’en pensez quoi, vous avez un truc de ce style en place vous ?
Comme ça je suis dans la strat 3-2-1 : 2 copies locales, 1 copie cloud…

0 Likes

#441

Je fait un peu de veille sur le fil de https://www.reddit.com/r/DataHoarder/

Je connaissais pas ces deux solutions alors je partage :

0 Likes

#442

Bon perso c’est une configuration en zfs sous ubuntu avec un demon qui push les snapshots sur ftp ovh.


Si ca tente du monde je dois pouvoir filer mon script en golang qui fait ca.

edit :

package main

import (
	"fmt"
	"os"
	"os/exec"
	"strconv"
	"time"
)

func main() {
	for {
		now := time.Now()
		if (now.Hour() == 23 && now.Minute() == 46) {
			year, month, day := time.Now().Date()
			monthI := int(month)
			zfspool := "backup/postgres"
			date := strconv.Itoa(year) + "_" + strconv.Itoa(monthI) + "_" + strconv.Itoa(day)+"_"+strconv.Itoa(now.Hour())+"_"+strconv.Itoa(now.Minute())
			nameSnapshot := zfspool + "@backup_" + date
			args := []string{"snapshot", nameSnapshot}
			cmd := exec.Command("zfs", args...)
			err := cmd.Run()
			if err != nil {
				os.Stderr.WriteString(err.Error())
			}
			nameBackup := "backup_" + date + ".gz"
			outfile, _ := os.OpenFile(nameBackup, os.O_RDWR|os.O_CREATE, 0755)

			// your zfs command
			fmt.Println(zfspool + "@backup" + date)
			zfs := exec.Command("zfs", "send", zfspool+"@backup_"+date)

			gzip := exec.Command("gzip", "-cf") // gzip to stdout (-cf)
			gzip.Stdin, _ = zfs.StdoutPipe()    // zfs stdout to gzip stdin
			gzip.Stdout = outfile               // write output of gzip to outfile
			gzip.Start()                        // gzip start waiting for input
			zfs.Run()                           // zfs start command
			gzip.Wait()                         // gzip wait for pipe to close
			outfile.Close()

			args = []string{"-u", "ford", "-p", "prefect", "heartofgold", "/", nameBackup}
			cmd = exec.Command("ncftpput", args...)
			err = cmd.Run()
			if err != nil {
				os.Stderr.WriteString(err.Error())
			}
			time.Sleep(50 * time.Second)
		}
	}
}

La je bidouille un micro service qui fait un list sur le ftp de ovh pour avoir sur un dashboard les derniers snapshots.

1 Like

#443

Merci pour ton script, ca pourait me servir dans un futur peoche.

0 Likes

#444

Bon voilà pour ma config pour les 5 prochaines années (mini) côté Backup (Photo, Vidéo famille, Travaux pro) :

  • 2 x 12 TO dans ma tour pc desktop, un Exodus Seagate (ST12000NM0007) et un WD Ultrastar HC520 (WD 0F30146)
  • Une tentative de stratégie 3-2-1 sans NAS : j’ai abandonnée l’idée d’une sauvegarde complète sur le NAS (un ds213) qui reste @home donc soumis au même risque que ma tour (incendie, vol, etc.) :
    • le WD est backup en partie sur le Seagate avec syncdataback pro (un bon soft pas si cher, a quand une news sur gz :wink: ),
    • un backup distant du plus important au taff sur un de mes anciens DD 3To.
    • backblaze en support le jour lointain ou j’aurais la fibre …

J’ai commandé chez Reichelt, je connaissais pas, c’est un gros revendeur allemand qui vend beaucoup de truc différents. Le packaging était un peu léger (mieux qu’un célèbre GAFA, mais quand même en dessous des marques en ligne classique) du coup j’ai testé les disques avec badblock pendant quelques jours histoire de détecter une éventuelle mort prématurée.

C’est pas parfait mais bon …

0 Likes