Le Topic du SCSI pour les débutants

D’un autre côté, l’argument “les gens savent pas forcément” j’ai tendance à pas prendre ça pour un contre argument : les gens peuvent aussi se documenter sans que ça leur tombe tout cuit dans le bec.

Puis comme disait Twain : There are three kinds of lies: lies, damned lies, and benchmarks.

On cumule le hors sujet, je ne m’acharne pas sur de la défense, mais j’aime juste pas qu’on prenne les gens par la main d’un bout à l’autre, apres on se retrouve avec nos … chers “geeks”

Vectra > tu pense vendre ça dans quels délais ? plutôt 1 semaine ? un mois ? deux ?

[quote=« vectra, post:12, topic: 47465 »]C’est pas du tout construit pareil, et les specs sont radicalement différentes.
Je fais référence au MTBF et à la garantie de 5 ans.

Par contre, ca m’intéresserait de connaître, par curiosité, le modèle des disques qui sont morts. Pour le peu que j’aie pu voir, il semble que Maxtor fasse des siennes en scsi aussi, et que Seagate mette tout le monde d’accord, une fois de plus.

Sinon, je veux pas faire mon chieur, mais 3 disques qui clamsent en même temps dans une array RAID, c’est pas statistiquement impossible? Il y a forcément du y avoir un problème d’alimentation, non? Ou les numéros de série étaient contigüs??

J’appelle pas ca des chiffres, mais dans mon labo, on n’a pas lâché de disque SCSI depuis un bail, alors que rien que moi, dans l’invervalle, avec des SATA, eh ben merci :confused: C’est un peu le bruit de couloir que j’entends à répétition, et ca fait son petit effet de tomber sur une série maudite en SATA, dans laquelle les disques tombent comme des mouches…[/quote]

J’essaierais de te trouver la marque… la baie est chez le client maintenant donc c’est moin pratique.

Enfin les statistiques sont faussées dans le sens où vu que c’est une série qui se suit (comme tu le soupçonnais), tu as toute s les chances de multiplier les pannes… Et justement quand tu fais monter une baie raid, tu a intérêt à faire gaffe de ce coté…

Petite précision les disques qui ont clamsés à la suite étaient sur 3 bécanes différentes (dont 1 dans la baie raid)

On va bien voir ce que donne les SATA… Moi de toute façon je suis béni des Dieux, jamais eu un DD qui m’a laché (et ce depuis 15 ans)… (Je touche du bois avec tous mes doigts… y compris les pieds :slight_smile: )

Dans les faits, j’aurais certainement un premier kit seul d’ici une semaine.
Adaptec 29160N à 8€ qui arrive
cable? j’en attends d’ici là.
adaptateur SCA? pas encore commandé, délais longs, pas nécessairement indispensable. Si tu te prends un disque SCA 80pins au lieu d’un 68pins, demande l’adaptateur: il y a des chances qu’il te le rajoute pour pas grand-chose.

selon ce qui arrive, ca devrait être en dessous de 15€ out, soit pas loin de 15€ in si j’ai une enveloppe à bulles assez grosse.

Modalités:
[s]
Ben, un peu comme vous voulez. A la base, je propose des kits qui tiennent ensemble, prêts à brancher sur un port PCI et prêts à connecter à votre disque U320 (voire U160) sans perte de débit.

Les prix: ce que ca m’a coûté. Je vous laisserai les URLs des articles (transactions ebay surtout) pour que vous puissez constater ce que ca me coûte effectivement. Y’aura p’têt discussion si la transaction ebay/hfr concerne un lot hétérogène, mais bon…

Si vous voulez un morceau de kit, et chercher une pièce particulière vous-mêmes, aucun souci. Genre, un contrôleur RAID, ou un contrôleur full U320, bien que son bénéfice soit minime (protocoles U160/320 compatibles).

Pour les disques: la logique veut que vous les commandiez et que vous vous les fassiez livrer chez vous, ne serait-ce que pour ne pas casquer deux fois le port. Je peux zieuter si le disque est du bon modèle, si vous voulez.

En cas extrême, je peux l’acheter sur ebay pour vous: j’ai un bon compte, ca facilite les choses. Je l’achète avec votre adresse de livraison, et vous payez le vendeur par paypal (assurance). Sauf si le vendeur est “chelou”, dans lequel cas, je ne m’engage pas.[/s]


“Organisation” de la CGP

[s]
Ben, déclarez votre intérêt pour un kit sans disque (avec modifications si nécessaires), je vous mets en file d’attente, et je tâche dès que possible de vous l’envoyer. Si vous vous déclarez, engagez-vous à me payer le kit sitôt que je l’envoie pour un montant maximal de 15out, sachant qu’on devrait arriver à moins (out) dans le cas standard.

Voilà qui devrait suffire pour 5 bonhommes on va dire. Au-delà, il me faudra des assistants, mais dans l’état actuel, c’est pas encore la peine.[/s]

Quelques perfs chez les SCSI:

WIP

[ul]
[li]Voici la courbe typique d’un disque 15k U320 de 146Go:[/li]
Ce n’est pas mon Seagate, mais de tête, ca donne pile la même chose.

[li]Voici la courbe de mon Fujitsu-Moduslink 10k 146Go, très abondant en occase:[/li]


Sur tous les chiffres, ca semble vraiment être un cousin du raptor 150…

[li]Et pour doucher l’enthousiasme des fans du Raptor qui se la pètent avec l’arrivée prochaine des vélociraptors 300 à 300€, on ne va pas parler de son concurrent direct Seagate Savvio qui chauffe nettement moins, mais plutôt de cette merveille:[/li]http://www.seagate.com/ww/v/index.jsp?vgne…mp;locale=en-US
Bon, forcément, 600€ neuf, ca douille un peu.
[/ul]

Quelques perfs chez les SATA/IDE:

[ul]*Un disque 320Go Seagate 7200.10 pas trop obsolète, ni trop gros: specs

*Un Seagate 500Go 7200.11 32Mo de cache, tout récent donc.

C’est déjà nettement mieux question débits théoriques, mais le temps d’accès ne progresse pas. Les modèles plus anciens, même de 500Go, n’atteignent pas ces débits. Bon, j’arrête avec ce genre de tests, vu que les 7200.10 plus gros sont moins performants, et que les 7200.11 semblent pareils à celui-là.

*Un RAID 0 de 3 disques Mtron IDE de 16Go, à seulement 300€ l’unité

Ca casse tout, mais ca fait cher le disque de 46Gigas.
[/ul]

J’ai un disque Seagate de 80go avec la même courbe que le premier, sur lequel est installé le windows de ma configuration de test. Eh ben ca rame effroyablement par rapport à mon ordinateur quand j’avais le raptor 36, le même système et le même processeur. Le chargement de windows, pourtant défragmenté et fraichement installé, est réellement lent et pénible en comparaison.

Pourquoi cette différence alors que la courbe est meilleure que celle d’un raptor 36 en début de disque? Le temps d’accès: 8.4ms pour le raptor, 13.6ms pour le Seagate.

Photos de matériel SCSI typique:

[ul]
[li]Voici déjà un cable SCSI classique[/li]http://www.dealextreme.com/details.dx/sku.9820
Pas pratique à l’intérieur d’une tour. Par contre, on peut en trouver assez facilement en occasion pour pas cher. Et, au pire, on peut en couper une partie pour éviter de faire un gros pâté inutile dans la tour.

[li]Voici le même en nappe ronde, bien plus flexible et pratique[/li]http://cgi.ebay.de/Kabel-U320-SCSI-HP-P-N-…VQQcmdZViewItem
bien plus rare aussi, et plus chère surtout. J’en ai deux, et j’ai eu du mal à les dégotter apacher.

Mais ca se trouve, surtout si on achète un lot à l’étranger… Genre ici: http://cgi.ebay.com/Round-Ultra-SCSI-3-160…VQQcmdZViewItem
Etant donnés les éventuels frais de port, autant grouper les commandes, non? Surtout qu’on peut alors demander des tites ristournes :slight_smile:

[li]Voici ce qu’on appelle un adaptateur SCA (disques hot-swap de grandes armoires RAID) vers 68pins classique:[/li]http://www.dealextreme.com/details.dx/sku.10105
C’est le dealer le moins cher, port gratuit. Mais livraison genre 2 à 3 semaines…

[li]voici un exemple de disque neuf SCA 300go 10k U320, du genre que je recommande et que j’aimerais avoir[/li]http://cgi.ebay.fr/ws/eBayISAPI.dll?ViewIt…=tab%3DWatching
On trouve nettement moins cher en 146, voire 72 ceci dit. Surtout s’ils ont un peu servi
[/ul]

Pour ceux qui s’effraieraient de voir la longueur du topic, dites-vous que ca fait plus d’un an que je me renseigne sur le sujet. C’est finalement assez agréable de poser et d’organiser ses notes sur « papier », surtout que ce thème est assez peu abordé aillieurs à mon humble avis.

beaucoup d’updates en tous genres, mais encore assez draft: pas mal de sections à refaire dans l’immédiat.

Mon premier kit « cafzone » ne sera pas dispo avant la semaine prochaine, faute de cables disponibles. J’ai passé des commandes, mais j’attends encore…
J’ai juste de quoi terminer deux kits familiaux :slight_smile:

Je viens de recevoir 4 des 6 cables commandés pour une misère (0.24€ in pièce) chez actualis, donc c’est good: en plus, ils sont U320 et terminés.
J’ai aussi eu confirmation de l’envoi d’un contrôleur SCSI, donc le premier kit sera dispo dès lundi (le temps de le recevoir et de le tester

Kits à vendre:

ce n’est pas le principe de la “CGP”, mais ca peut toujours servir à lancer le truc.


Kit Alpha1:

Adaptec 29160N U160 sur PCI classique: 7.20€
Cable auto-terminé U320 amphénol pour deux disques: 0.24€
(optionnel et en attente: adaptateur pour SCA80: 3.38$)
expédition en enveloppe bulles renforcée: dans les 2.50€ j’imagine, ou 5.30 en colissimo pépère.

total: proche des 10€
dispo: immédiate
garantie: vectra (reprise, mais peut pas offrir les frais de port).
factures: euh, difficile. Vous aurez le n°ebay de la carte ou la référence dealextreme du convertisseur pour vérifier que je ne vous gruge pas 2 centimes.

Pour avoir eu des experiences serveur :
Les disques SCSI, ca crame aussi. Et c’est d’ailleurs vachement plus sensible que les disques sata (surtout à la température), et vu les vitesses auquelles ca tourne, c’est pas étonnant.

L’interface SCSI en elle même n’a plus aucun interet, si ce n’est que dans la plupart des cas le sata est massivement géré par le CPU (d’ou utilisations de ressources suplémentaires), et le fait que dans des array raid, le controleur gere directement l’array sans passer par le CPU, mais on vois de plus en plus de controleurs sata completement indépendants (3ware, par exemple).

Pour ce qui est des disques, s’il sont garantis plus longtemps, c’est uniquement une question marquetting. Globalement, la conception est la même. (il n’est pas rare de voire un disque ide/sata durer 5 ans, et au pire, bah ca fait un cout plus élevé sur le RMA, cout largement compensé par la marge faite sur les disques SCSI).

Dans tout les cas, un disque dur reste une piece mécanique de très haute précision, vouée à lacher un jour ou l’autre. C’est d’ailleurs a ca que servent RAID 1 et 5 … et les sauvegardes.

Utiliser un array RAID0 pour des données non restaurables (aka non OS ou applis) reste une folie, en SCSI tout comme en sata. L’avantage du sata est que ce sont des disques de grandes séries, ce qui permet de réduire largement les couts.

Même pour les geeks, je ne pense clairement pas que celà soit la solution, coté économique comme pratique.
Pour le desktop, un array raid0 ou Raid1 pour OS et applis. Les données au chaud sur un NAS (home made ou non). Le NAS en question en RAID1, RAID5 (ou RAIDZ), ou autre solution propriétaire avec redondance de données (WHS, RAIDX …)

Ce n’est pas pour rien que de plus en plus de constructeurs de serveurs choisissent le sata.

Pour ce qui est du SSD, y’a un tout autre problème pour ce genre de matos. C’est magique, c’est rapide, mais c’est malheuresement limité en nombre d’écritures. Bref, même dans le monde des serveurs, c’est tout aussi limité aux OS et applis. Surtout pas fait pour les bases de données.

[quote=« Tzim, post:30, topic: 47465 »]Même pour les geeks, je ne pense clairement pas que celà soit la solution, coté économique comme pratique.
Pour le desktop, un array raid0 ou Raid1 pour OS et applis. Les données au chaud sur un NAS (home made ou non). Le NAS en question en RAID1, RAID5 (ou RAIDZ), ou autre solution propriétaire avec redondance de données (WHS, RAIDX …)[/quote]

En même temps, cette solution est à la fois coûteuse et compliquée à mettre en oeuvre, en plus d’impliquer un paquet de disques. Par rapport à un disque à fiabilité améliorée doublé d’un gros disque dur pas cher sur lesquelles des sauvegardes sont écrites régulièrement, je trouve ca plus complexe et plus lourd.
D’autant plus que le RAID0 sur un contrôleur stock, c’est souvent une illusion de performance(cf tests).

Je conçois qu’on puisse avoir besoin d’un NAS, mais ce n’est pas mon cas personnellement. Il n’y a pas un goulet d’étranglement avec la connectique du NAS?

C’est un bon argument. Ceci dit, dans quels contextes? La prod de disques SCSI est loin, loin d’être en berne. Et quoi qu’on fasse, il n’y a aucun moyen d’améliorer le temps d’accès d’un disque 7200tpm.

Je ne suis pas d’accord: le contrôleur interne répartit de lui-même les écritures sur toute la plage du disque, ce qui donne une durée de vie théorique de plus de 15 ans. Ceci pour éviter qu’une plage mémoire pète parce qu’on écrit trop souvent dessus. (*)
Je te fais confiance en ce qui concerne les BBD :slight_smile:
La techno SSD me semble encore assez infantile, mais je ne suis pas sûr qu’on puisse encore dire cela dans trois ans. Quand on voit les milliards (!) investis par Seagate en R&D, et Intel se pencher sur la question, on peut raisonnablement penser que ca risque de percer.

(*) sauf que pour le montage rigolo dont je parlais avec des cartouches Compact Flash sur un contrôleur RAID IDE, ca ne s’applique certainement pas :confused:

Quelqu’un qui tient à son disque s’efforce de le maintenir sous les 40°c: c’est valable en SCSI comme en SATA. Il me semble que les t°c max en SCSI sont plus élevées, mais je trouve que c’est un jeu idiot que de vérifier. Ca n’est vraiment pas compliqué de calmer un disque, c’est donc une idiotie totale que de le laisser chauffer. Sous linux, hddtemp + cron et c’est marre…

Il y a des disques SATA qui montent tout seuls à plus de 50°c: un raptor chauffe déjà pas mal, mais pas autant. J’arrive facilement à maintenir à 40°c un disque 15k dans un petit boitier externe: ca ne doit donc pas être bien dûr de calmer un raptor/scsi 10k dans un boitier tour bien ventilé.

Pour la fiabilité comparée, je peux pas répondre, à part que je vois exactement l’inverse, et que les professionnels à qui j’ai pu parler confirment. Mais sans chiffres (statistiques valables), ca reste de toute manière subjectif.

Ca me semble déjà pas mal, surtout en RAID. Je sais bien qu’il existe de bons contrôleurs RAID SATA (avec parfois les mêmes composants que leurs homologues SCSI), mais bonjour les prix. 200€, c’est ca? Au moins, en SCSI, on a l’embarras du choix apacher en occase…

Mais tout à fait. Sauf qu’il faut pouvoir se fier au contrôleur RAID, ce qui est parfois un peu suicidaire… (resets intempestifs de raid sur certains de chipsets de CM, raid 5 improvisé)
La sauvegarde incrémentale sur un second disque (voire externe) des données personnelles, c’est déjà pas mal du tout comme solution desktop.

Je continue encore de penser que les disques sont plus fiables, ne serait-ce que parce que les clients ne tolèreraient pas une perte de données pour le prix qu’ils mettent et que le RAID n’est pas forcément généralisé en workstation. Mon impression est que ce sont surtout les disques SATA qui sont bâclés pour pouvoir gratter la concurrence de quelques euros sur un PC auchan: s’il n’y avait pas eu autant de séries noires en IDE/SATA récemment, je n’en serais probablement pas là. Je suis désolé d’être catégorique, mais je trouve inadmissible et inexcusable de sortir des séries avec des taux de mort subite pouvant dépasser les 20%.

Enfoncons le clou :
NAS Home made :

  • une carte mere a pas cher avec 4 ports sata : 45 euros
  • un CPU a pas cher (chez AMD) : 60 roros
  • 512 Mo de RAM, largement suffisant : 12 roros
  • 4x250 Go en disques durs : 200 roros max.
  • tu ajoute une centaine d’euros de tour, alim… et autres accessoires (que tout geek peux récupérer de vieilles configs …)
  • FreeBSD : zero euros.
  • Configuration : 2 petites heures pour qqun qui connais pas.

Résultat : 300 Mo/s en lecture, environ 100 Mo/s en ecriture. Avec aucun soucis pour changer de disque en cas de crash, ni même de carte mêre si jamais elle crame. Je prends 3 des 4 disques dans n’importe quel PC, je récupère mes données quoi qu’il arrive.

Les temps d’acces en random ne sont pas exceptionnels, mais c’est pas moins rapide qu’un disque seul.
Pour ce qui est du goulet d’étranglement, ouais, en général, c’est l’application qui dois traiter les données derrière, ou le disque de destination…

Je suis toute ouïe, mais hélas très peu compétent en réseau.
Tu veux faire un serveur de fichiers en utilisant le contrôleur RAID5 d’une carte-mère?

Mais, en LAN tranquille, ca peut carburer à combien, un lecteur réseau?
Je comprends bien que ta solution devrait pouvoir satisfaire plusieurs clients à la fois, mais je n’ai aucune idée des taux réels de transfert client/serveur.

Mais je suis content d’apprendre :slight_smile:

[quote=“vectra, post:33, topic: 47465”]Je suis toute ouïe, mais hélas très peu compétent en réseau.
Tu veux faire un serveur de fichiers en utilisant le contrôleur RAID5 d’une carte-mère?

Mais, en LAN tranquille, ca peut carburer à combien, un lecteur réseau?
Je comprends bien que ta solution devrait pouvoir satisfaire plusieurs clients à la fois, mais je n’ai aucune idée des taux réels de transfert client/serveur.

Mais je suis content d’apprendre :)[/quote]

Non, j’ai fait un serveur de fichier, en utilisant le controleur SATA de la carte mêre (pas de raid materiel) et en utilisant ZFS (avec un pool de 4 disques en RAIDZ). A moins d’utiliser du materiel hors de prix (avec NVRAM et cie), le raid hard, c’est le mal pour tout plein de raisons.
En LAN Gigabit (avec jumboframes), on atteint gentiement les 100 Mo/s, voire plus, mais c’est largement au dessus de ce que les applis peuvent avaler. Coté temps d’accès, c’est tout aussi rapide qu’en local.

Bon je trouve que tzim a a peu pres tout dit, je suis assez d’accord avec lui, meme si la solution du SCSI est sympa:
_Si on aime bidouiller un peu et se prendre la tete avec les terminaisons
_Si on a le temps de fouiller ebay pour avoir un ou 2 disque scsi de reserve au cas ou ca pete (parce que des disques SCSI pas cher, ca existe certes, mais faut tomber au bon moment)

Dans ces deux cas la, on peut tomber sur du matos moins cher que du sata en global, reste que sur les CM moderne, t’as pas beaucoup de slot pci donc (genre sur ma P5B, j’ai deja un controlleur IDE PATA en plus et une carte son, j’suis nique)

A part ca:
_Le gain de perfs brut (bench) n’est pas si flagrant que ca en theorie puisque les disques scsi en 10Ktours) utilise la meme mecanique que les ide/sata, on change juste la platine (a verifier, j’avais lu ca je sais plus ou) → le scsi est plus agreable simplement parce que tout est gere par la carte, alors qu’en ide pata/sata, une partie du traitement est fait par le cpu.

SAUF QUE! C_Wiz avait signale ca je sais plus ou (dans un des thread sur le SCSI dans ce forum) qu’avec les cpu double/quad core, le probleme de l’ide etait quasi resorbe par la presence de plusieurs coeurs sur la machine.

Bref, pour moi, c’est rigolo quand t’as envie de fouiller le web a la recherche de la perle rare en SCSI (a pas cher) mais c’est beaucoup de temps perdu pour un gain de plus en plus relatif.

Meme si on est d’accord qu’un 7200 va se faire manger face a un 15K… :slight_smile:

LoneWolf
Le SCSI c’est bien, mais en fait j’ai deja donne :crying:

[quote=« Tzim, post:34, topic: 47465 »]Non, j’ai fait un serveur de fichier, en utilisant le controleur SATA de la carte mêre (pas de raid materiel) et en utilisant ZFS (avec un pool de 4 disques en RAIDZ). A moins d’utiliser du materiel hors de prix (avec NVRAM et cie), le raid hard, c’est le mal pour tout plein de raisons.
En LAN Gigabit (avec jumboframes), on atteint gentiement les 100 Mo/s, voire plus, mais c’est largement au dessus de ce que les applis peuvent avaler. Coté temps d’accès, c’est tout aussi rapide qu’en local.[/quote]

ZFS, le truc de Sun? Qu’un Google SOC devait porter sur Linux?

« le raid hard, c’est le mal pour tout plein de raisons »: tu me l’avais dit, et je l’ai lu un peu partout entretemps. Donc OK, je comprends mieux :slight_smile:
J’ai trouvé ca apacher cependant: http://www.adaptec.com/fr-FR/support/raid/…raid/ASR-2120S/
Je le testerai dans pas trop longtemps avec 2x10k 146go…

100Mo/s en débit soutenu, sans matériel spécifique? (j’ai un contrôleur Gigabit sur ma CM, un Marvell, et j’imagine pouvoir en dégotter un pour port PCI à destination d’une CM socket A). Si ca ne rajoute aucune latence, c’est effectivement plus que suffisant. Les courbes de hdtach ne sont jamais atteintes en utilisation réelle de toute manière…

Sinon, c’est enthousiasmant comme solution. Je ne pense pas lâcher les SCSI maintenant que je suis allergique à la latence, mais j’avoue que ca résoud plein de problèmes. Mon disque 15k est exilé dans un boitier sous mon lit, au bout d’un cable SCSI, et nourri par une alim secteur noname, avec une ventilation correcte mais un peu bricolos.
En cas de surchauffe, je peux faire éteindre l’ordinateur, mais pas le disque (bien qu’il devrait refroidir si on lui fout la paix)

Avec ta solution, je pourrais monter apacher un petit ordi dans un petit boitier pas trop cher (barebone?), doté d’une vraie ventilation et d’un semblant d’isolation acoustique. Et le faire éteindre immédiatement en cas de chauffe. Et le nourrir par une alim sûre, avec des protections qui marchent, au lieu d’une Advance en miniature. Sans compter que je peux l’éloigner nettement plus avec un cable RJ45 un peu plus discret.

Je maintiens que c’est un poil complexe, mais je suis bien emballé. Ceci dit, j’ai moyen le temps d’aller jusque là encore, d’autant plus que je suis une grave bille en réseau.

D’autant plus que je suis en train de me souviendre qu’on peut toper des serveurs obsolets pour encore moins cher. On y trouve des alims redondantes, des contrôleurs SCSI parfois, et surtout ces fameux ports PCI-X et PCI-64 sur lesquels on peut brancher des contrôleurs SCSI professionnels de la dernière guerre vendus à que d’alle (genre HP netraid avec ram et batterie).

huhuhuhuhuh :slight_smile:

Je pensais à des trucs comme ca, sauf qu’il manque le gigabit et que je risque d’avoir du mal avec un processeur MIPS:
http://cgi.ebay.fr/SGI-octane-silicon-grap…id=p3286.c0.m14

A croire l’ étude de Google, jusqu’à 45C, la fiabilité reste excellente. Ce qui importe pour les disques, c’est pas spécialement la température elle même (dans une limite raisonnable), c’est la variation de température. En clair : vaut mieux un disque qui soit à 45C tout le temps, qu’un disque dont la température varie régulièrement (dilation thermique toussa). Chez nous, on perdait presque systématiquement des disques (SCSI) suite à des soucis de clim (hausse de la température) suivi d’une remise en marche de la clim (baisse rapide de la température).

Bon à savoir…

En ce qui me concerne, la température de mon disque varie dans un mouchoir de poche: 40-41 avec des pointes à 42.
Ceci dit, quand je vois les cages à racks SCSI, je trouve que c’est vraiment limite fumiste comme ventilation, non?

Du genre: “z’êtes en RAID5, vous avez des softs de diagnostic (HP), donc c’est notre intérêt de faire vieillir vos disques pour vous en revendre régulièrement”

Sinon, ce serveur là est en vente à 400€ sur Nantes, et c’est pas du caca on dirait. C’est cependant au-dessus de mon budget: je m’intéresserais plutôt à un serveur en blade pas trop cher, genre dans les 100€. De toute manière, c’est pas pour demain, donc on verra plus tard.

Ceci dit, si des gens peuvent m’éclairer sur les conditions nécessaires pour atteindre du 100(125)Mo/s en Gigabit ethernet, notamment sur l’architecture typique d’un réseau local avec un modem-routeur 2 ports et deux machines à alimenter… Ca me donnera du grain à moudre dans l’intervalle.

Au fait, un contrôleur SCSI sur un bus PCI limité à 133 Mo/s pour tous les trucs branchés dessus, ça fait pas goulet d’étranglement ?