Bon, 5 jours plus tard, mon offre d’essai n’est toujours pas dispo, et je n’ai pas de nouvelle du support après 2 jours.
Au niveau image, ça me refroidit directement, et j’arrête là les frais.
Je repart donc sur l’idée de Glacier.
Bon, 5 jours plus tard, mon offre d’essai n’est toujours pas dispo, et je n’ai pas de nouvelle du support après 2 jours.
Au niveau image, ça me refroidit directement, et j’arrête là les frais.
Je repart donc sur l’idée de Glacier.
Tiens au fait, il y a encore des gens chez Crashplan ?
Par flemme je comptais rester chez eux pendant la période de transition du plan “Home” vers le plan “Pro” (puisqu’ils offraient un rabais conséquent).
Le période en question est terminée, je suis encore chez eux, mais ils continuent de me facturer 2,50$ par mois (donc toujours un gros rabais).
Du coup je ne bouge pas et je n’ose pas leur demander si c’est normal.
J’ai eu mon année à 2,50$, je suis repassé à 10$ et finalement je suis resté, parce que mon upload initial a été fait sur la fibre, maintenant j’ai un adsl moisi, c’est impossible que je renvoie tout ça sur cette connexion…
Tu as quel volume de donnée ?
Je me demande si ils ne me laissent pas le discount du fait de mon faible volume (< 200 Go) même si ça me paraît peu probable.
Serre les fesses
Moi j’ai entamé mon année pro avec discount seulement cet automne, j’ai encore le temps de voir venir.
Mais clairement si je choisi autre chose ça va me faire chier de réup 700Go
Avec un tel volume de données effectivement le risque est de devenir un client captif…
Hello,
je me penchais sur les NAS Synologie. Par ordre de perf, on a DS218Play < DS218 < DS218+ ?
Vous conseillez lequel pour faire :
Ha oui merci j’avais déjà vu passer ce doc ! Par contre du coup pour décoder du 1080, faut passer par le décodage Hardware et du coup acheter un plex pass ?
Et les 2Go de RAM installé, ça suffit pour mon utilisation ?
je pense que 2go c’est ok, par contre le transcoding, ca va dépendre de tes fichiers et ton player.
Je dis peut être une connerie, mais pour le coup ça vaudrait pas le coup de prendre une VDI chez OVH ou je ne sais qui. De DL tout votre backup dessus et de réup avec la machine distante?
Bon après divers tests, et compte tenu de la rareté de l’offre, je crois que je vais faire simple avec Backblaze qui écrase un peu la concurrence en terme de rapport qualité/prix …
Je fait pas mal de photo, et ça pèse vite le Raw/Dng même après avoir fait le tri, plus les sauvegardes des vidéos et photo des autres membres de la famille qui font pas de Backup …
Je part sur une stratégie suivante avec 2 disques HGST 8TO (ou 10TO?) garantie 5 ans, donc ~500/600 eu :
Une autre solution serait de mettre les deux 10 T0 dans le nas, mais d’une part :
Z’en pensez quoi, vous avez un truc de ce style en place vous ?
Comme ça je suis dans la strat 3-2-1 : 2 copies locales, 1 copie cloud…
Je fait un peu de veille sur le fil de https://www.reddit.com/r/DataHoarder/
Je connaissais pas ces deux solutions alors je partage :
Bon perso c’est une configuration en zfs sous ubuntu avec un demon qui push les snapshots sur ftp ovh.
Si ca tente du monde je dois pouvoir filer mon script en golang qui fait ca.
edit :
package main
import (
"fmt"
"os"
"os/exec"
"strconv"
"time"
)
func main() {
for {
now := time.Now()
if (now.Hour() == 23 && now.Minute() == 46) {
year, month, day := time.Now().Date()
monthI := int(month)
zfspool := "backup/postgres"
date := strconv.Itoa(year) + "_" + strconv.Itoa(monthI) + "_" + strconv.Itoa(day)+"_"+strconv.Itoa(now.Hour())+"_"+strconv.Itoa(now.Minute())
nameSnapshot := zfspool + "@backup_" + date
args := []string{"snapshot", nameSnapshot}
cmd := exec.Command("zfs", args...)
err := cmd.Run()
if err != nil {
os.Stderr.WriteString(err.Error())
}
nameBackup := "backup_" + date + ".gz"
outfile, _ := os.OpenFile(nameBackup, os.O_RDWR|os.O_CREATE, 0755)
// your zfs command
fmt.Println(zfspool + "@backup" + date)
zfs := exec.Command("zfs", "send", zfspool+"@backup_"+date)
gzip := exec.Command("gzip", "-cf") // gzip to stdout (-cf)
gzip.Stdin, _ = zfs.StdoutPipe() // zfs stdout to gzip stdin
gzip.Stdout = outfile // write output of gzip to outfile
gzip.Start() // gzip start waiting for input
zfs.Run() // zfs start command
gzip.Wait() // gzip wait for pipe to close
outfile.Close()
args = []string{"-u", "ford", "-p", "prefect", "heartofgold", "/", nameBackup}
cmd = exec.Command("ncftpput", args...)
err = cmd.Run()
if err != nil {
os.Stderr.WriteString(err.Error())
}
time.Sleep(50 * time.Second)
}
}
}
La je bidouille un micro service qui fait un list sur le ftp de ovh pour avoir sur un dashboard les derniers snapshots.