L'inéluctable fuite en avant du matériel et des logiciels informatique

Je resitue le post: @GloP parlait d’un serveur exchange (donc mail, calendrier, partage de fichier, etc…).

Loin de moi de vouloir juger, mais on constate cette tendance à l’embonpoint, que ce soit la RAM, la puissance CPU, les GPUs, et dans tous les domaines de l’informatique. Et autant dans certain domaines, je comprends pourquoi ceci arrive: par exemple, dans les jeux vidéos, les assets graphiques, sonores sont de plus en plus importants; il y a directement une corrélation entre la qualité graphique et la taille et la consommation d’un jeu.

Mais pour un OS, ou un logiciel de bureautique? Foncièrement, il n’y a pas grand chose comme différences fonctionnelles entre un Windows 95 et Windows 10; certes c’est plus user friendly et il y a certainement plus de fonctionnalités; mais honnêtement qui utilise un logiciel à 100% ?

Et en même temps, à coté, on fait tourner des Raspi avec une UI sur un CPU qui tient plus de la calculatrice que d’un processeur moderne. Alors, ou passe toute cette puissance sur les OS / logiciels mainstream?

Je ne juge pas, j’essaie juste de comprendre…

Elle passe nul part vu que 90% du temps elle n’est pas utilisée :expressionless:
Si tu regarde un moniteur d’activité sur un ordinateur récent tu verras 15-20% du CPU utilisé et pareil pour la RAM.

Maintenant les prérequis des serveurs windows sont, de mon point de vue, totalement abusés. C’est une des choses fondamentales que je reproche à Microsoft, l’optimisation de ces soft.

En même temps si ta conso CPU est plus grande que ça en idle c’est qu’il y a un problème quelque part.

Dans mon ancien taf j’ai mis en place la plateforme Lync et c’est vrai que les prerequis MS étaient complètements abusé du genre 32 gigots pour un Front end (sachant que je bossais dans une boite de 1200 personnes et que pour MS un front c’est 6000 users) resultat la team qui gerait la partie virtualisation hurlait a la mort a cause de toutes ces ressources gachées sur leur hotes ESX :smiley: avec l’usage, on avait baissé ce chiffre de manière drastique… Comme quoi…
On dirait que les precos c’est plus du « on voit large comme ca pas de surprise » sauf qu’en entreprise le moindre giga sur un disque c’est de la thune qui va peser dans le budget.

Faut voir que les caches et tout son dimensiones pour des serveurs modernes. Donc oui ca va demander de la place. Apres le reste y a un peu l’epidemie de features. Toi tu utilises 10 features sur 100, mais le mec d’a cote qui en utilise 10 aussi, c’est 10 mais pas les meme. Alors t’as pas mal de trucs dont toi tu as pas besoin. Et l’espace disque tout le monde s’en branle. Memoire/CPU c’est optimise pour une certaine charge et c’est configure en fonction aussi. Faut pas croire qu’ils s’en cognent des perfs, c’est pas vrai, surtout sur un truc comme exchange/windows.

Et bon un serveur c’est pas pareil, c’est une machine dédiée c’est pas la workstation ou la machine de gamer, ca sert a faire un truc particulier et le cout du serveur est pas un facteur a part exception (et surtout un coup fixe, amorti, etc, donc l’énorme majorité des boites voient pas ca comme un soucis). “Ouai mais ils ont qu’a faire tout configurable aux petits oignons et on passera une semaine a configurer ca parfait en fonction de la machine et de l’optimisation et tout” ouai… sauf que une semaine de taff d’un mec IT qualifie pour configurer tout le bordel ca vaut juste plus cher que de payer pour quelques gigos de ram en plus. Les mecs qui coutent des centaines d’euros de l’heure chaque mois qui ralent sur 2000 euros de cout une fois tous les deux ans (ou trois, whatever la periode d’amortissment est), ou alors meme sur 100 de plus pour une machine virtuelle par mois, c’est l’exemple type de l’économie mal placée…

J’y connais rien, mais si on met ça bout à bout, est-ce que ces genres de pratiques ne seraient pas des serial-killers d’ours polaires ?

Oui a mort, c’est pour ca que centraliser pour optimiser et partager les resources au lieu d’avoir des serveurs qui sont utilises a 5% dans un datacenter mal optimise car trop petit, c’est mal. Y a des etudes sur l’utilisation moyenne des serveurs dans les boites vs dans le cloud et le cloud permet une bien meilleure des resources. J’ai les chiffres mais je sais pas si ils sont public. Partager une machine enorme avec d’autres clients et un avantage economique clair a chercher a tout optimiser a fond dans un gros datacenter c’est forcement plus ecolo que faire sa propre machine ou y a pas de but . Y a encore des progres a faire mais c’est un facteur important, surtout niveau electricite et refroidissement, ca a un impact non négligeable. Si t’es intéressé y a des blogs de James Hamilton qui couvre le sujet avec plus de details.

Pour commencer par exemple: http://perspectives.mvdirona.com/2015/06/data-center-power-water-consumption/

Et au passage James Hamilton est un putain de genie et si vous lisez pas son blog vous ratez qqch :slight_smile:

Pour les serveurs je peux pas parler car j’y connais rien, mais pour tous ce qui est desktop oui y’a un problème. Rien que l’OS c’est révélateur. Y’a 15 ans on faisait tourner un OS graphique sur moins de 64Mo de mémoire (genre le système, FF avec 3 onglets, et Winamp qui joue de la musique). Aujourd’hui FF au lancement c’est facilement le quadruple de mémoire.

Une des raisons, c’est la loi de Moore. Les perfs des processeurs (et du reste en même temps) avançaient aussi vite que les nouveautés/gourmandises des logiciels. Donc pas la peine de s’embêter à optimiser quand le hardware s’en charge tout seul (tous les 18 mois la fréquence/nombre de transistors du CPU doublent). Pareil pour la taille en mémoire, là où il fallait faire tout petit pour rentrer dans 64Mo de RAM, désormais tout le monde a facilement 2Go, donc pourquoi s’embêter. (sur HackerNews j’avais vu quelqu’un dire qu’une interface graphique qui bouffe 2Go de mémoire ça le choquait pas).

Sinon linux + tilling manager et c’est toujours léger !

ouais enfin relance voir un OS graphique d’y un 15 ans, tu vas voir la gueule que ca a…
Je sais pas quel age tu as, mais moi j’étais déjà ingénieur en informatique il y a 15 ans, et clairement nos bécanes non juste plus rien à voir. Les interfaces, la praticité, les possibilités, la complexité a juste rien à voir.
Alors oui, c’est peut etre pas optimisé à mort, mais je pense pas non plus que ce soit gaché.

Et puis y’a 15 ans, j’entendais déjà ca : « y’a 15 ans, on faisait tourné des trucs dans 64ko, la je suis à l’etroit dans 64Mo, c’est 1000x plus, pourtant on fait pas mille fois plus de truc. »

Discours de vieux cons un peu :slight_smile:

4 « J'aime »

Je suis plutôt jeune mais j’ai eu la chance de “jouer” avec des PCs assez tôt (et j’en ai encore un ou deux de l’époque qui tournent pas trop mal). Oui c’est sur que la complexité a augmenté, et que même certains aspects sont plus rapides (je boot bien plus vite aujourd’hui qu’il y a 10 ans c’est sur), mais je constate aussi que y’a certains logiciels qui s’autorisent des largesses alors que y’a pas de raisons (celui que je développe le premier, parfois la conso CPU monte à 15% sans qu’on sache pourquoi, c’est toujours pas résolu, mais comme c’est pas trop gênant, c’est pas en haut de la bug list). Le fait d’être sur des machines avec de grosses capacités n’incite pas à l’économie, ni à une optimisation très poussée. C’est un bien comme un mal: ça veut dire que les développeurs ont plus de temps pour créer de nouvelles features plutôt que d’optimiser des chargements en mémoire (par exemple comment charger un niveau de 10MB dans une RAM de 2MB). Faut juste pas tomber dans des travers du style “tout le monde a 8Go de RAM, c’est pas grave si mon tic-tact-toe en prend 2”.

Enfin, si on regarde bien, depuis windows 7 (voire vista), l’OS ne gonfle plus, voire dégonfle à chaque version. Le pc nécessaire à le faire tourner a toujours la même puissance.
J’ai un PC que j’avais acheté en 2016, il tourne toujours comme un charme. Il pêche juste sur les jeux ou les traitements de photo.
Niveau serveur, les exigences n’ont pas non plus beaucoup évolués. Juste il y a 10 ans, 2 To de disque et 128 Go de mémoire ça valait une blinde, donc on regardait plus la config mini que recommandée et on faisait du tuning à mort pour que ça passe (et parfois, ça cassait).

Aujourd’hui la puissance/l’espace disque n’est plus un problème. Le nouveau défi, c’est la conso de tout ce bazar. Car à la maison, ce n’est pas trop grave, mais dans un datacenter, c’est criitque.

2016? Et y en a qui parlent d’obsolescence programmée ? Pffffff! :wink:

2 « J'aime »

Apres aussi sinon on peut parler des logiciels de bureautiques qui font toujours la meme chose et qui bouffent une puissance monstre …

Word notamment …

La seule future interessante que j’ai vu c’est sous excel depasser les 100 000 lignes mais glop a l’epoque avait eu riason en disant qu’on devait utiliser une bd dans ce cas la (apres le fichier etait un extract de db au format excel).

Les logiciels bureautiques MS qui sont devenus la norme je suis toujours halluciné de la puissance que ca prends alors que la majorité des gens n’en utilisent souvent meme pas 10%.

Apres c’est une telle rente ces logiciels que l’optimisaiton ne doivent pas etre a l’ordre du jour.

Bon par contre aussi le probleme vient de la maniere dont on est partis sur internet …

Internet est l’utilisation principale des gens et quand on voit que l’on a choisit javascript par défaut pour le web, on le paie tres cher …

Microsoft Windows, Microsoft Exchange, Microsoft Word… Tiens ils ont pas comme un truc en commun ?

Ils ont en commun que c’est les seuls exemples que vous prenez :stuck_out_tongue:

Ils ont aussi en commun que c’est surement les logiciels les plus utilisés au monde.

1 « J'aime »

Pour la RAM : quid du passage en 64bits pour l’intégralité des softs serveurs ?

Quand je vois les recommandations pour les sites asp.net azure de rester sur du 32bits si l’on souhaite augmenter la densité de sites hébergés par serveur et éviter le gaspillage, ça me semble une bonne explication pour justifier une partie des différences constatées en terme de poids entre les anciens softs et les nouveaux.

Et que comme c’est parmi les plus utilisés au monde, les fonctionnalités se sont empilées parce que comme disait @GloP, René utilise que 5-6 fonctions, mais pas les même que Michel.
Et personne n’a envie, lorsqu’il achète son logiciel, de se taper une page de 600 lignes juste pour les différentes options, juste pour économiser une petite fraction du prix (sans compter que le mec qui va devoir étudier les options nécessaires va couter plus cher que ce qu’on va économiser).

Donc oui, c’est la fuite en avant, mais c’est parce qu’on progresse et qu’on rajoute des trucs. Et ça m’inquiète d’autant moins qu’en parallèle, il y a le mouvement autour des raspberry pi et autres petites UC.

On va forcément franchir un palier quand l’informatique « light » aura assez de puissance pour tout faire en bureautique.
D’ailleurs, microsoft a un projet qui permet d’utiliser simplement son windows phone comme une unité centrale.

Pour l’instant, côté serveur, les principales pistes explorées restent « optimiser le ration watts/perfs » (et c’est cool, avant on en avait rien à faire), et « mutualier les serveurs », rendu d’autant plus facile par la virtualisation.

1 « J'aime »

Il faut voir aussi la grosse amélioration de la conso des 10X0 qui, j’espère, amorcera une tendance durable dans les cartes graphiques.