La 30eme édition du top 500 des supercalculateurs les plus costauds de la planète est arrivé il y a quelques jours
7 des 10 premières places sont trustées par les américains.
On constate pour la première fois la présence des indiens dans le top 10
On peut remarquer également l’absence des français (19eme : Commissariat a l’Energie Atomique (CEA) France)
Wahou on a 2 Bull dans les 30 premières place… et, euh, ce sont les seuls
Sinon, impressionnante ces machines quand même. Je trouve ça ahurissant qu’on puisse en arriver à une telle puissance. J’aimerais quand même bien voir tourner un jeu super gourmand dessus, en 40 000 x 30 000 avec toutes les options à fond :crying:
Non, ce qui est vraiment hallucinant, c’est que si on prend les perfs d’il y a 10 ans: http://www.top500.org/lists/1997/11
Et qu’on prend le numero 1, 1.3 TFlop/s avec 9152 CPUs pour le comparer avec la puissance d’un quad core Intel a 81gigaflops, il faudrait que 16 pour obtenir la meme puissance, carrement accessible a la limite dans sa chambre sur un budget accessible seulement 10 ans apres.
C’est d’autant plus marrant que, si je comprends bien, finalement ces super calculateurs sont en fait plein de mini ordinateurs mis parallèe (et bien sur très très fortement optimisés). Bizarre donc qu’ils n’acceptent pas les cluster d’ordi.
La question que je me pose, c’est de savoir quand les clusters à base de x86 seront détronés par des clusters de GPU (si ce n’est pas déjà le cas, je n’ai pas regardé l’ensemble du classement).
En effet, pour certains calculs, les GPU sont beaucoup plus efficace que les CPU car ils disposent de beaucoup plus d’unités d’execution (une grosse partie des CPUs étant réservée aux unités de contrôle).
Les API genre CUDA ont-elles un avenir du côté des supercalculateurs, comme cet article le laisse penser ?