Améliore ton physique

Il semble de plus en plus vraisemblable que le nouvel Eldorado des fabricants pour nous faire acheter des cartes hors de prix sur nos ordinateurs soient les cartes accélératrices physiques. Toutefois, les fabricants de cartes graphiques, notamment Nvidia ne voit pas d’un si bon œil que des petits nouveaux comme Ageia leur piquent des parts de marchés sur ce futur secteur.

C’est pourquoi Nvidia a résolu le problème d’une manière plutôt étonnante en lançant le SLI Physics. Pourquoi ajouter une carte supplémentaire alors que l’on peut tout simplement demander à la carte graphique de faire le boulot à la place du CPU ?

L’idée est que les cartes haut de gammes sont aujourd’hui limitées par la puissance du processeur (CPU limited) et se tournent les pouces en attendant que le processeur ait fini son job. Il est donc possible de décharger le processeur en chargeant le GPU du calcul de la physique des applications. D’ailleurs le système est semble-t-il surtout prévu pour fonctionner sur une architecture du type SLI, d’où son nom.

Une technologie pour le moins intéressante mais qui pose tout de même un problème de compatibilité avec les jeux. En effet, aujourd’hui il n’existe pas réellement de normalisation sur les moteurs physiques, comme c’est le cas pour la 3D avec DirectX ou OpenGL. Il existe donc plusieurs moteurs différents comme Havok ou Physx (anciennement Novodex). Plusieurs studios développent même des moteurs physiques de leur cru pour un jeu précis et bien entendu tous ces moteurs sont totalement incompatibles entre eux.

La technologie de Nvidia utilise pour le moment le moteur Havok uniquement. Nous risquons donc de nous retrouver dans la même situation qu’au début des cartes accélératrices 3D avec différentes versions des jeux pour chaque technologie accélératrice physique.

Source : NVIDIA SLI Physics Technology Report!

Donc pour encore deux ans ça va être la merde et puis après il y aura bien un standard…

C’est un peu con cette puissance qui se tourne les pouces. Vu le prix d’un SLI…

En tout cas c’est un premier pas vers la raison…

Rectifié moi si je me trompe mais toutes ces histoires de “CPU Limited” c’est pas sencé passer à la trappe avec l’arrivée des CPU double coeur ? Et que au contraire, une fois les jeux optimisé pour, ce serait plutot le CPU qui va se tourner les pouces.

Et enfin, même si cela devenait un jour indispensable d’avoir un processeur dédié pour la physique, je préfererais quand même acheté une carte PCI dédié certainement moins chère que deux carte graphique haut de gamme.

Ca ressemble à un gros coup de pub de Nvidia, qui de toute facon, à de grandes chances de tomber à l’eau. Chacun sont métié et les moutons seront bien gardé.

Crois moi, ce n’est pas encore pour demain que les jeux seront optimisés pour le double coeur…

je suis pas (encore) un spécialiste en la matière, mais je ne vois pas ce qui est super difficile a gerer pr optimiser le jeu en dble coeur…

C’est moins simple que d’écrire tous les mots dans un post, mais certains n’y arrivent deja pas…

Pour faire simple, c’est comme si tu as 2 employés que tu demandes de faire 2 choses différentes avec un même dossier à traiter.
Mais voilà, il faut que le travail soit synchronisé, alors tous les 5 min, les 2 employés se demandent où en est l’autre dans le traitement du dossier et puis, l’un a pris un papier dans le dossier pour l’analyser et que pas chance, l’autre en avait besoin pour faire ses tâches. Ou alors, l’un a des tâches très facile à faire et doit attendre son collègue pour synchroniser parce qu’il a pas le droit de s’avancer, etc …
Bref, pour optimiser dans un jeu, il y a toujours du cas par cas, comment faire travailler 2 coeurs de façon optimal, qui va communiquer avec le GPU, carte son, qui gère l’IA, la physique, etc …

En gros, c’est compliqué mais ça vaut le coup à mon avis.

pour en revenir à la news, sur le fond c’est quand même intéressant de pouvoir programmer une carte graphique pour faire tourner un moteur physique; ç’est aussi possible pour programmer des effets audio.

en fait, l’intégration des calculateurs physiques dans les cartes graphiques est parfaitement logique: il y a de nombreuses données géométriques qui sont nécessaires aux deux, et ça serait idiot de les dupliquer dans deux cartes différentes, tout en saturant le goulot d’étranglement qu’est le bus pci.

Bon, c’est sûr que sur le papier, l’idée est fort alléchante. Par contre Nvidia n’aura pas un bon profil avec les géants du processeur. Surtout si les jeux du futur vont être optimisés pour tourner sur les bêtes de courses de Intel et AMD à double coeur.

Je ne crois pas que c’est une bonne idée… D’abord, parce qu’Ageia est déjà lancer dans ce domaine et ils sont beaucoup plus experimenté que Nvidia. Ensuite, les programmeurs ne vont pas se fendre le *** a splitter les instructions pour fonctionner sur la/les carte(s) graphique d’Nvidia (pour ceux qui n’ont pas les moyens pour le SLI) ET sur les double coeur…

Et puis, les carte graphique de nos jours sont faites pour faire tourner des graphismes toujours plus réaliste, et non plus pour soulager le processeur. Il est loin le temps où avoir une carte graphique servait à avoir un ordi plus rapide parce qu’elle remplaçait le proc dans le calcul des graphisme. Et si on regarde les dernières « avancées », ATI mènes la dance, Nvidia suis derrière. Donc plutôt que d’étendre leur panels de produits, ils devraient se concentrer sur des nouvelles idées pour optimiser leur puissance.

Parce que, avouons-le, ils sont resté sur leur laurier, et a présent ils sorte plutôt un update de leur carte graphique chaque « X » mois, comme si ils sortait un nouveau driver, plutôt que de faire de véritable avancé comme ATI.

En se moment, Nvidia produit déjà des chipset et des cartes graphiques, et maintenant ils veulent se lancer dans le monde obscur de la physique?? Laisser-tomber les gars, vous allez vous faire du mal (comprendre, perdre la face / de l’argent) pour rien. Ageia s’en charge déjà…

Ça sent le stunt publicitaire foireux…

Edit: orthographe. :confused:

Je crois que nous allons voir l’histoire de 3DFX se répéter.

D’abord nous aurons des cartes physiques séparées, qui seront un produit de luxe. Les constructeurs de cartes graphiques vont intégrer des calculateurs physiques moins bien dans leurs cartes, puis ils finiront par dépasser et / ou racheter aegia, pour la raison que j’ai cité plus haut. Le traitement physique et graphique dans la même carte, c’est juste PLUS performant.

De plus, je crois qu’une partie des calculs n’est pas très différente d’un domaine à l’autre.

Nvidia confidential - do not distribute. Mouaaarf

Pour l’instant, il me semble qu’on ne voit toujours pas ces fameuses cartes accélératrices de moteur physique. Alors dire que Ageia est déjà lancé et a déjà de l’expérience dans le domaine, ça me parait d’autant plus anticipé que ces cartes étaient annoncées pour la fin de l’année dernière. Et quelque chose me dit que financièrement, nVIDIA a un peu plus de moyens que Ageia.

Allez, pour rigoler un peu je partage avec vous mon inbox :

  • AGEIA PhysX SDK for PLAYSTATION®3, Optimized for Cell Processor, to be Available on March 31st
  • NCsoft and Cryptic Studios to Support AGEIA PhysX Processor in Award-Winning City of Villains
  • AGEIA PhysX SDK v2.4 Delivers Dynamic Cross-Platform Physics Game Action for PCs and Game Consoles

(le tout arrivé today bien entendu, quel beau métier d’être PR…)

Ageia vend du middleware physique à pleins de gens depuis un bon bout de temps (le SDK Novodex).

Autant pour moi alors.

Tiens à ce propos, il s’est passé quoi exactement avec Novodex? Ils ont juste changés de noms ou ils se sont faits racheter?

Parce qu’il n’y a pas si longtemps Novodex était le nom à la fois du moteur physique et de la boîte qui le développait (Novodex AG, entreprise Suisse) et maintenant c’est devenu Ageia et Physx respectivement la boîte et le moteur 3D. Et plus aucune indication de la provenance de l’entreprise.

Edit : Bon, au vu de la page de contacts d’Ageia, ça sent le rachat à plein nez… Les bureaux corporate à Mountain View en Californie et les locaux de Novodex Physx en partie en Suisse, en partie en Suède et en partie à Beijing.

Pas d’accord avec toi, je développe

[quote=« SK!LLZ, post:10, topic: 28092 »]Je ne crois pas que c’est une bonne idée… D’abord, parce qu’Ageia est déjà lancer dans ce domaine et ils sont beaucoup plus experimenté que Nvidia.

Attendons un bon comparatif avant de juger

Et si on regarde les dernières « avancées », ATI mènes la dance, Nvidia suis derrière. Donc plutôt que d’étendre leur panels de produits, ils devraient se concentrer sur des nouvelles idées pour optimiser leur puissance.
Parce que, avouons-le, ils sont resté sur leur laurier, et a présent ils sorte plutôt un update de leur carte graphique chaque « X » mois, comme si ils sortait un nouveau driver, plutôt que de faire de véritable avancé comme ATI.

Tu parles en termes de cartes déjà dispo sur la marché, n’oublions pas que NVidia est déjà bien lancé dans la préparation de son G80. Oui c’est vrai les cartes actuelles sont des évolutions d’évolutions de cartes plus anciennes, mais ATI a fait exactement pareil avant de sortir ses X1x00 hein :stuck_out_tongue:

En se moment, Nvidia produit déjà des chipset et des cartes graphiques, et maintenant ils veulent se lancer dans le monde obscur de la physique?? Laisser-tomber les gars, vous allez vous faire du mal (comprendre, perdre la face / de l’argent) pour rien. Ageia s’en charge déjà…

Et pourquoi pas? NVidia a justement montré avec ses excellents chipsets qu’ils pouvaient faire plus que des cartes graphiques, s’ils peuvent faire aussi bien avec la physique je ne demande qu’à voir. Au moins ça nous donnera des sujets de discussions sur le forum :stuck_out_tongue:

Ça sent le stunt publicitaire foireux…

peut-être ^^[/quote]

Rah, j’avais pas forcément envie de rentrer dans le débat, z’etes lourds a vouloir avoir une discussion :stuck_out_tongue:

Bon, allons y quand même :

Allez, wake up les gars. GPU ? Havok ? Ca ne vous rapelle rien ?

http://www.hardware.fr/news/7862/havok-fx-…ue-via-gpu.html

28 octobre 2005.

Et on lit quoi sur le site d’Havok FX ? (http://www.havok.com/content/view/187/77/)

[quote]What Hardware Will Havok FX Run On?

Havok FX is designed to support all Shader Model 3.0 graphics cards, though we would recommend higher end models for best performance. We have good relationships with both major vendors and have their hardware in-house. We have working prototypes running on NVIDIA’s GeForce®7 Series GPU amplified with NVIDIA SLI technology.[/quote]
Havok FX marche donc sur toutes les cartes SM 3.0.

[quote]Will Havok FX Support Dual-GPU Configurations?

Yes. The trend by GPU and Board manufacturers to enable dual-GPU, aka SLI, configurations in PCs opens the door to more flexible and adaptive use of consumer-purchased hardware. PC Gamers should have the opportunity to double-up graphics cards, allowing available GPU cycles to be applied to rendering, effects physics, or any combination of them both. Using more standard hardware like the GPU, allows consumers to leverage their hardware investment across a broader range of games– whether it be with a single or dual GPU.[/quote]

Alors c’est quoi cette « annonce » de nV ? Du vent pour faire du buzz autour du SLI, rien de plus. Move along.

(PS : et pour ceux qui douteraient encore : http://www.rojakpot.com/article/NVIDIA/SLI…s/slide_03.jpg)

(PS2 : Actual à fini sa traduction :

[quote]NVIDIA ET HAVOK PRÉSENTENT LES PREMIERS EFFETS PHYSIQUES DES JEUX ACCÉLÉRÉS PAR LE GPU À LA GAME DEVELOPER’S CONFERENCE.

(…)
Cette collaboration entre Havok et NVIDIA se traduit par le nouveau logiciel de Havok, Havok FX, qui permet de simuler les phénomènes physiques des jeux sur PC, de façon très détaillée lorsqu’il est activé par des GPU de NVIDIA (séries GeForce® 7 ou 6) voire amplifiée avec la technologie multi-GPU NVIDIA SLI. Havok FX est actuellement en phase de sélection par les développeurs et devrait être disponible cet été.[/quote]
)

De toute facon c’est deja « duplique »: c’est pas les meme donnees que tu utilises pour ton rendu et pour ta simulation physique, en simu physique pour aller vite tous les volumes sont convexes, ils sont low poly et ce sont en gros des « bounding box » ameliorees/optimisees. Utiliser ses meshs de rendu pour de la simu physique ca se fait pas la plupart du temps.

Effectivement, mais je me demande si à long terme, vu que la puissance de calcul dédiée au moteur physique va augmenter (et se spécialiser), on ne va utiliser des meshs plus détaillés pour le moteur physique.

Après tout, pour le rendu, on peut bien utiliser des mesh à différents niveaux de détails en fonction de la distance par rapport à la camera. Pour peu que l’on évolue vers un format « multi niveaux de détails », Le moteur physique utiliserait juste le modèle peu détaillé…

maintenant pour ce qui est de l’architecture hardware, le pci express peut atteindre, dans ses versions 16 et 32x, des taux de transfert qui n’ont rien à envier à celui de la sdram ddr… Alors j’ai peut etre tort lorsque je parle de goulot d’étranglement.

Parfois le monde des CGs me remplit de tristesse. Quand un constructeur bouge un petit doigt, même pour faire du vent, faut que l’autre fasse un vent inverse. Alors personne ne sera surpris de voir…

http://www.pcper.com/article.php?aid=226

TADAAAAA

Desespérant :stuck_out_tongue: