Hébergement à la maison ou server@home ou home lab

vu l’bordel dans le garage ca ne vas pas etre possible :smiley:

Si ça me prend 1 a 3h par trimestre, c’est bien le maximum. Une fois la configuration faite, j’ai jamais eu besoin d’y passer énormément de temps. Je suis intrigué par ce qui te prend autant de temps. Faut faire la différence aussi entre un taf ou les services sont utilisés par 5000 personnes et un @home utilisé par 5 personnes.

Typiquement, si y a une coupure de courant chez toi, bin c’est pas grave, les serveurs redémarreront au rétablissement… Si j’ai plus de courant chez moi, c’est pas les serveurs qui vont me préoccuper mais plus le congélo et frigo :sweat_smile:

3 « J'aime »

C’est par ce que t’as pas les standards imposes aux pros et le volume qui va avec. Forcement avec ce genre de contrainte on peut faire tourner « a la maison », mais faut comparer ce qui est comparable a un moment. C’est comme de dire je fais tourner un prestashop en php et je m’en fout si j’ai un uptime qui commence par 8, alors amazon.com, facile… oui. Mais non.

c’est bien ce que je dis :wink: pour du @home, on a pas les même objectifs qu’un industriel.

Sauf quand il s’agit de pas perdre tous ses papiers importants et les photos des gamins sur les 20 dernières années :slight_smile: a ce niveau la j’ai des besoins industriel par ce que « ca marche sauf quand ca marche plus » c’est pas un SLA que je peux me permettre souvent, et surtout pour un niveau d’incident catastrophique qui peut détruire mes data. Tu perds pas mes data, jamais, sous aucun prétexte, tout ce qui est en dessous c’est pas acceptable personnellement. Pour un serveur mail a la con oui ok on est d’accord.

sans compter ta femme qui te dit " QUOI ! ON A PERDU NOS DONNEES QUE J’AI SCANNE PENDANT UNE SOIREE ENTIERE "

la pire chose qui puisse arriver quoi

4 « J'aime »

Tu as un centre de stockage ou data center dans ce garage ?

Je suis passée du réseau au système. Mais j’adore encore faire mumuse au taf avec evec de l’OSPF, du fail over et load balancing.

Moi juste un vieux Fujitsu primergy TX200 s6 avec 24 coeurs et 96 de ram. Ca fait tourné de l’Hyperv, parfois du vsphere ou dernièrement Nutanix. Et quand je suis en mode labo, c’est un WIndows 2016 Datacenter avec mon VMware workstation pour virtualiser le lab et ne pas trop avoir de machine d’allumée. C’est plus le bruit que EDF :wink:

On reste loin de certains fou que l’on peut trouver sur le net avec des baie 42U.

Clins d’oeuil pour ceux qui suive la série Silicon Valey

https://imgur.com/gallery/jiFsn5I
https://imgur.com/a/ODYhnDl

https://imgur.com/search?q=homelab

2 « J'aime »

Oui, on est 100% d’accord, nos photos par exemple sont sur iCloud en plus du cloud perso car c’est inimaginable de les perdre.

Le reste des data est « redondées » à la maison et sur 3 autres serveurs qui sont au taff, chez mes parents et chez mes grands parents. Mais soyons honnête, si je les perds, c’est chiant mais c’est pas grave.

Les backups sont envoyé sur le cloud du boulot qui est de qualité « industrielle » et sont testés tout les 6 mois environ.

Que mon serveur domotique ou que quelques API crash, par contre, on s’en tape :wink:

Dans un autre domaine que l’infra, je travaille en ce moment à un petit projet Open Source perso qui s’inscrit un peu dans cette approche « auto-hébergement », mais à l’échelle des outils de développement. C’est trop loin d’être prêt pour donner un lien ou quoi que ce soit, mais l’idée c’est que j’aimerais fournir une suite d’outils de développement prêt-à-l’usage, en mode clic-bouton, pour les gens qui veulent prototyper ou démarrer très vite un projet en équipe, mais sans la contrainte de travailler dans le Cloud.

A la base j’avais deux contraintes : 1/ pas d’accès au Cloud (voire même à Internet), et 2/ une simplicité totale de mise en œuvre (pas besoin de demander quoi que ce soit à un service tiers en entreprise, en dehors des droits d’admin de la machine). J’avais deux populations visées : d’une part les équipes dans les banques qui ont besoin de démarrer un prototype ou un projet très vite alors que l’outillage dépend de plein d’autres équipes pas très réactives ; et d’autre part les formateurs aux outils (pour avoir un environnement facile à créer et détruire qui n’impacte personne).

C’est en faisant ce genre de choses pendant des années que je me suis rendu compte à quel point faire les choses soi-même de nos jours implique une foule de connaissances et de compétences. Ça devient impossible de faire quelque chose de propre à la fois sur le bas-niveau (système, DNS, NTP, SNMP, NFS…), mais aussi sur le runtime (Java, Python, NodeJS), et sur l’administration (alerting, monitoring, puits de logs), et sur l’architecture réseau/sécurité (reverse proxy, certificats, chiffrement…), et sur les API, et sur l’applicatif back (base de données + RGPD dernièrement…) et enfin sur les IHM (même être à jour sur du simple HTML/CSS + bootstrap c’est déjà un taf).

Note : j’ai conscience que ce que je viens de décrire c’est un mini-Cloud en fait.

Perso j’arrive encore à savoir faire à peu près les choses correctement à tous les étages, et même un peu d’automatisation (ne serait-ce que pour avoir des bouts de code réutilisables et ne pas tout réapprendre à chaque fois…), mais on n’est pas nombreux à avoir cette polyvalence. La majorité des informaticiens sont plus spécialisés que ça (et du coup évidemment, meilleurs que moi domaine par domaine).

Plus ça va, plus je vois le Cloud comme ça : des milliers de compétences à portée de clic. Quelque chose qui n’est plus réellement possible pour un être humain seul.

3 « J'aime »

Ou meme pour une structure petite ou grosse dont l’IT n’est pas le centre de competence.