Vous allez en connaître un rayon

Ca serait dommage de se facher pour une bouze pareil B)

Oula, je repondais simplement à la remarque de daz « jamais aucun éditeur ne voudra prendre le risque de sortir un jeu déployable sur une minorité de machine », en lui citant des exemples où les choses se sont passées exactement comme ca.

Mais effectivement, ca ne marche que si l’evolution est majeur, comme pour le son ou la 3D. Des evolutions où rester en marge fait bien chier.
Concernant le raytracing, j’ai pas d’avis, je connais pas assez la techno et je me rends pas compte de ce que ca peut effectivement apporter. Donc ca pourrait effectivement se casser la gueule.
Je te rejoinds completement sur le fait que pour que ce genre de truc se passe, faut que ca decroche la machoire (mon dieu le bonheur quand je suis passé du pc speacker à ma sound blaster … (pas de rmq la dessus, je sais que les roland etaient mieux, mais c’etait supporté que par 10% des jeux ^^))

/me se met à hurler derrière son clavier à la façon des lapins dans Rayman.

Sinon pour le reste on est d’accord :smiley:

a mon avis, le gros probleme des cartes spécialisées RT pour les jeux va être celui de la rétro-compatibilité. il faudra que la dite carte soit au moins aussi performante sur l’affichage par polygones que les carte graphiques “classiques” qui sortiront en même temps, sous peine d’être dénigrée par la plupart des joueurs qui ne voudront pas payer 600 euros pour perdre des perfs sur 90% de leurs jeux et juste utiliser le rendu RT sur Quake 6 et 3Dmark 2012.

donc à moins que le circuit RT soit capable de faire du rendu polygonal, il faudra deux circuits en parallele, et la carte sera un véritable monstre de 50cm de long avec 3 kg de système de refroidissement dessus, coutant 1200 euros et pompant 350 watts à elle toute seule.

[quote=“Rabban, post:23, topic: 30269”]a mon avis, le gros probleme des cartes spécialisées RT pour les jeux va être celui de la rétro-compatibilité. il faudra que la dite carte soit au moins aussi performante sur l’affichage par polygones que les carte graphiques “classiques” qui sortiront en même temps, sous peine d’être dénigrée par la plupart des joueurs qui ne voudront pas payer 600 euros pour perdre des perfs sur 90% de leurs jeux et juste utiliser le rendu RT sur Quake 6 et 3Dmark 2012.

donc à moins que le circuit RT soit capable de faire du rendu polygonal, il faudra deux circuits en parallele, et la carte sera un véritable monstre de 50cm de long avec 3 kg de système de refroidissement dessus, coutant 1200 euros et pompant 350 watts à elle toute seule.[/quote]

Je pense plutot que ca sera (serait) une carte dedié en plus. Tu gardes ta carte graphique, et tu as une carte ray tracing en plus pour ca.
C’est comme ca que ca s’est fait pour les carte 3D. Les 3dfx etaient des cartes qui faisaient que de l’acceleration 3D et necessitait une carte graphique classique pour marcher. Ce n’est que bien plus tard, avec les arrivés des TnT je crois (pas sur de moi la), que les vrai cartes tout-en-un performante ont commencer a voir le jour.
Je vois plus un truc dans le genre. Mais bon, reste a voir si effectivement ca donnera naissance a qq chose B)


Never, ever, ever.

le probleme de la carte en plus, c’est que si ça passait facilement dans un pc a moitié vide il y a dix ans, ce sera beaucoup plus problematique dans un pc qui contient déjà une carte graphique, son, réseau, wifi, télé, modem, physique (ha ha ha), une deuxieme cg en sli, des tas de connecteurs usb, firewire ou que sais-je sur des emplacements pci, etc.
non seulement au niveau de la place, mais aussi et surtout au niveau temperature: quand on voit comment on grossi les systèmes de ventilation (sur mon premier pc, il n’y avait pas de ventilateur sur le processeur. ni même de radiateur. l’etait juste comme ça à l’air libre), que certaines CG prennent jusqu’à trois emplacements derrière le pc à cause de ça, et qu’il y a de plus en plus de cables partout qui empechent l’air de bien circuler (même s’ils ont tendance à diminuer de largeur), on se dit que ça va être un drole de challenge d’intégrer à tout ça une carte supplémentaire qui a toutes les chances d’être une génératrice de chaleur hors pair.

Cet argument ne tient pas : les cartes sons et réseaux se sont fait manger par la carte mère et on peut très facilement se retrouver avec une machine dont la seule carte est la carte graphique. Et je pense que le Wifi va rapidement devenir un standard sur les cartes mères, parce que ça coute de moins en moins cher. Il y aura à mon avis toujours la place pour rajouter quelque chose dans nos machines.

[quote=« Rabban, post:26, topic: 30269 »]le probleme de la carte en plus, c’est que si ça passait facilement dans un pc a moitié vide il y a dix ans, ce sera beaucoup plus problematique dans un pc qui contient déjà une carte graphique, son, réseau, wifi, télé, modem, physique (ha ha ha), une deuxieme cg en sli, des tas de connecteurs usb, firewire ou que sais-je sur des emplacements pci, etc.
non seulement au niveau de la place, mais aussi et surtout au niveau temperature: quand on voit comment on grossi les systèmes de ventilation (sur mon premier pc, il n’y avait pas de ventilateur sur le processeur. ni même de radiateur. l’etait juste comme ça à l’air libre), que certaines CG prennent jusqu’à trois emplacements derrière le pc à cause de ça, et qu’il y a de plus en plus de cables partout qui empechent l’air de bien circuler (même s’ils ont tendance à diminuer de largeur), on se dit que ça va être un drole de challenge d’intégrer à tout ça une carte supplémentaire qui a toutes les chances d’être une génératrice de chaleur hors pair.[/quote]

Mauvais arguement B) les PC n’ont jamais été aussi vide et bien aeré qu’aujoud’hui ! Tu as encore une carte modem toi ? une carte reseau ? une carte son ? moi j’ai des nappes sata, un controleur reseau et son integré a la carte mere. En gros, reste une carte graphique, une carte wifi et basta.
Bref, mon pc etait 10 fois plus blindé à l’epoque de ma 3dfx qu’aujourd’hui, et ca a pas empeché les 3DFX de se vendre :smiley:

Et concernant la carte ray tracing, j’en sais rien :stuck_out_tongue: comme je le disais plus haut, je connais pas la techno, et je n’ai aucune idée de si c’est un truc interessant ou pas.
Je reponds juste sur le fait qu’envisager une carte qui fait un truc dedié dans nos pc, c’est pas choquant, et ca s’est deja fait :smiley:

edit : grillé par le baron noir!

De la même manière que je crois pas du tout à la physix d’ageia, ca risque (comme le laisse entendre notre ami CWiz - qui doit sans doute en savoir plus que ce qu’il dit), d’être plutôt des sous systèmes dédiés du CPU.

La fusion ATI/AMD, c’est pas forcément pour rien, Si nos CPU actuels sont un peu trop génériques pour faire du ray tracing, on peut facilement imaginer des sous-unités (programmables) capables de l’aider dans cette tache.

Après, je fais confiance aux constructeurs pour imposer leurs technos.
Les shaders étaient ils une évolution indispensable ? En tout cas, ca n’a pas empéché des jeux (comme PoP) de sortir (et de marcher) tout en exigeant une carte graphique suportant les-dirs shaders.

Pour le raytracing, c’est a mon avis en partie nécessaire s’il on veux encore complexifier le rendu. (plus d’effets, plus de polygones).
Pour faire plus d’effets, avec les techniques actuelles de rendu par projection, on a de plus en plus tendance a avoir recours à des rendus intermédiaires.
Z’allez me dire, suffit de rajouter des pipelines B) . Sauf qu’on oublie l’autre variable : la bande passante (et la consomation) mémoire. Mémoire qui se doit d’être un minimum partagée, donc accessible par tout les pipelines.

Le raytracing est pas forcément plus économe en mémoire, mais est bien plus économe en bande passante (chose qui nous arrange, si l’on veux intégrer ca au CPU…)

y’a déjà eu quelques recherches pour faire du rayTracing sur nos chères CG via des shaders dans tous les sens : http://www.clockworkcoders.com/oglsl/rt/

d’après les résultats, les performances sont relativement proches des performances atteintes par le CPU.

“jamais aucun éditeur ne voudra prendre le risque de sortir un jeu déployable sur une minorité de machine” <= je plussois !
Certes, 3dfx et PowerVR ont commencé comme ça, mais à l’époque le fossé qualitatif était vraiment énorme !
Aujourd’hui, la différence qualitative entre un jeu en raytracing temps réel, et un jeu en “polygoné” (pour simplifier, tout le monde a pigé) temps réel, serait minime.
En polygoné, on simule déjà presque tous les effets qu’on veut, certes parfois en trichant un peu, mais on y arrive : brouillard, la lumière directe, la reflexion, la réfraction, le bump mapping, etc. sont gérés en polygoné, reste les effets de radiance, de réfraction des lumières, etc, pour certains on peut tricher, pour les autres, on s’en fout un peu vu que le joueur verait à peine la différence en dehors d’une comparaison “avant/après”.

Bref, rien qui justifie l’achat d’une carte dédiée à part, peut-être, pour une application professionnelle

Ouais, enfin, pour ce que je me rappelle des cours d’infographie que j’ai eu, le raytracing, ça permet de résoudre pas mal de problèmes de lumières et d’ombrage, de reflets, de transparence, translucidité et de façon relativement élégante puisque forcément réaliste. Donc ça pourrait bien apporter un gros bond en avant quand même. Il faudra voir et comme d’habitude dans ce genre d’annonce, le temps est notre ami.

Quand je pense que j’avais mis une semaine 24/24 pour rendre une image d une boule devant un miroir deformant avec un sol en damier avec mon amiga 500 B)
Du raytrace en temps reel , on y arrivera., quand je vois que ma 7800gt fait wattmil mieux que le 3d studio 4 avec lequel je m amusais y a dix ans . encore quelques années et on aura la meme la radiosité :]

Oui mais non, c’est un gros raccourci. Dans la vraie vie du monde physique, les rayons partent de sources lumineuses, réagissent avec l’environnement, et si par un énoooorme coup de bol ça fini par toucher l’oeil, on voit une couleur. Dans le vrai monde, y’a des milliards de milliards de rayons pour chaque source, et
« milliards de milliards » x « enorme coup de bol » = « plein », donc c’est magique, on voit.

Dans le raytracing classiquement utilisé (noté « reverse raytracing » plus haut dans le thread), c’est différent, on fait partir des rayons depuis l’oeil, on regarde où chacun tape, et on essaye de deviner quelle couleur peut bien avoir le truc qu’on a touché; et alors là, c’est le paradis de la bidouille, du calcul statistique, du « bon, allez, j’rebalance 10 rayons au pif et on moyenne », et surtout de la fameuse fonction
« color ca_rend_pas_trop_moche(point) ».

alors dire que c’est « forcément réaliste », j’suis pas sur que ce soit l’expression appropriée B)

Mouais, enfin, le raytracing, c’est bien pour dessiner des vases transparents avec de la réfraction dans un monde lisse. Maintenant, regardez les screenshots de jeux comme le prochain far cry. C’est plein de feuilles partout, un bazar extrêmement complexe. Impossible de faire du raytracing avec ça, du coup, je table plutôt sur l’apparition de morceaux raytracés dans des images générées de manière traditionnelle…

sauf que les methodes utilisées pour le rendu des jeux passent souvent par des raccourcis qui faussent certaines données (perspective, par exemple et au hasard), ce qui rendra supremement chiant le rendu cohérent d’éléments polygonés et raytrcés sur une même image

Ouch … ce qu’il faut pas entendre B)

Le raytracing, ca peux très bien faire du polygoné, voire même du très polygoné, voire même mieux que les algos Z-Buffer traditionnels.

Je parlais du cas particulier de l’affichage en temps réel. Oui, bien sûr, on peut raytracer des images très complexes avec des résultats sublimes, mais dans ce cas, les temps de calculs augmentent de manière vertigineuse…

Pour ce qui est du Z-buffer, toute la finesse de la programmation d’un moteur graphique consiste à limiter le nombre de fois qu’il faut peindre chaque pixel pour une image. Aujourd’hui, en moyenne, chaque pixel est peint entre 2 et 3 fois, ce n’est pas monstrueux…

Sinon, effectivement, il y a beaucoup de bidouilles dans l’affichage 3D actuel, mais il n’y a plus de déformations géométriques (à l’époque des premiers jeux texturés, certaines approximations étaient faites, et les textures apparaissaient déformées lorsqu’on les regardait en biais, ça se voit très bien sur les jeux PS1), du coup, on peut tout à fait envisager de mélanger raytracing et rendu “normal”…

Justement non. Si ton algo est bien fait et que tu réorganise correctement ta scène (BSP ou BHVs), augmenter le nombre de polys ne fait pas completement exploser le temps de renuds. Après, en rendus fixes, les moteurs de rendu optimisent pas toujours, et c’est ca que ca deviens génant B).

Ca le deviens quand tu commence à utiliser des shaders ou autres trucs pour faire jolis. D’ailleurs, si tu rajoutes tout plein de polygones, c’est pareil, c’est plus compliqué « d’éliminer les trucs que tu vois pas ». Alors effectivement, si tu te démerdes bien, tu essaye d’afficher ce qui est devant d’abord, mais faut encore checker le ZBuffer. Et pour tout rendu un peu complexe, faut non seulement rendre la scène, mais avant, rendre les environement maps…

A coté de ca, un groupe de polygones masqué n’influencera pas du tout un rendu en raytrace…

Je vois ce que tu veux dire… Effectivement, une scène avec des réflexions de réflexions, ça finit par devenir un véritable labyrinthe…

Mais si tu y réfléchis bien, la technique du Z-buffer existe parce qu’il est plus rentable de redessiner plusieurs fois un pixel plutôt que de trier les polygones en fonction de leur distance par rapport à un point.

Or, le raytracing, c’est du calcul d’intersection entre chaque rayon et le premier polygone qu’il croise. Du coup, le tri des polygones est obligatoire à chaque réflexion (et il faut mettre en place des optimisations ou l’on découpe l’espace à la truelle pour diminuer le nombre de polygones à trier, en fonction de l’endroit d’ou part le rayon). Quand un matériau est réfléchissant, le nombre de rayons à lancer est faible parce que les rayons qui ont beaucoup d’influence sont regroupés autour du rayon de Snell Descartes. Pour un matériau mate, l’angle dans lequel il faut lancer des rayons est beaucoup plus important…

Du coup, même en raytracing il y a des calculs inutiles, puisque les polygones doivent être triés même quand aucun rayon ne vient les toucher.

Tu as donc effectivement raison, dans certains cas, le raytracing n’est pas beaucoup moins rentable… Dans une scène ou on a de gros objets convexes et courbes, les algos de type z-buffer sont beaucoup plus efficaces parce qu’il y a beaucoup de polygones pour peu de surfaces cachées, alors que dans le cas ou il y a plein de petits objets brillants qui gesticulent dans tous les sens (genre une nuée de criquets en métal), le ratio surfaces cachées/nombre de polygones rend le raytracing plus séduisant.
(en gros, plus le chemin des rayons est chaotique et disjoint, plus il est rentable de les calculer individuellement plutôt que de créer des environnement maps)

Alors, effectivement, d’un point de vue humain, le raytracing est plus attirant, dans le sens où un moteur de raytracing suit quelques règles physiques simples, qu’il est compact et plus lisible, alors qu’un moteur temps réel comme on les fait aujourd’hui est un immense dédale de bidouilles adaptées à chaque cas particulier, moins lisibles mais plus rapides à éxecuter…

Mais bon les moteurs de raytracing temps réel qui apparaitront dans quelques années seront également très optimisés, et emprunteront à mon avis tellement de techniques aux moteurs traditionnels (l’inverse est déja très vrai, le mapping d’environnement, le bump mapping et même les textures en général sont mathématiquement du raytracing du pauvre), qu’ils seront purement et simplement fusionnés…