NVIDIA Ampere: RTX 30XX

Nov

You died
J'ignore si c'est pareil en calcul de rendu en jeu, mais en pré-calculé on fait ce qu'on appelle des passes. C'est a dire une image qui correspond à un effet/rendu.

La passe d'environnement, la passe d'ambiant occlusion, la passe displacement etc.

L'image finale est une sorte de layercake en fait.
Donc t'es en train de dire que mon PC est une maison de passes ?
:dead:
 
  • J'aime
Les réactions: Azinou

Azinou

Ancienne LV
Heu non.

Sans RTX, les textures ne sont pas "calculées à la volée" en tout pas la gestion de la lumière. Ce sont des effets "existants" qui sont ensuite utilisés dans la scène.
RTX implique de lancer plein de faisceaux de lumière en "temps réel" pour avoir le rendu le plus proche de ce qu'il devrait être.

Mais in fine, l'image est affichée sur ton écran et à un instant T, ce n'est jamais qu'une "photo" (ou frame) fixe. Juste qu'il y en a bcp à la suite qui donne l'impression de mouvement.

En somme, une CG traite l'info, calcule le rendu de l'image, la met dans le buffer et ensuite elle est affichée.
En fait, ce que j'avais compris, c'était un peu, par analogie, une logique dessin vectorisé vs dessin non vectorisé.

Du coup, en non RTX, si on veut un effet de lumière sur un mur rocailleux :
1/ première couche pour la texture "de base" pour le mur rocailleux sans effet lumière
2/ Deuxième couche où on a préparé plein de texture différente, en mode, pour la zone 1, si le joueur se trouve en 125,365,125, tu prends la texture AAA, si le joueur se trouve en 125,365,126, tu prends la ABA, si le joueur va en 124,365,125, tu prends la ZAA, etc... Le tout, avec un algo qui va optimiser le chargement des textures compte tenu des déplacements possibles (genre, si le perso est en 125,125,125, il est inutile de charger pour le 400,400,400 si ces coordonnées ne seront jamais atteinte dans les 100fps qui suivent)
--> Du coup, tout ce paquet de "texture" type qui doivent être chargée et ça occupe de l'espace VRAM.

Et du coup, en mode RTX, si tu veux ce même effet de lumière sur ce même mur rocailleux :
1/ première couche pour la texture "de base" pour le mur rocailleux sans effet lumière
2/ Deuxième couche où t'as aucune texture enregistrée car c'est le modèle physique/mathématique de RT (avec envoi des rayons depuis la source lumineuse vers la texture) qui va créer cet effet de lumière --> Du coup, occupation de VRAM plus faible, mais besoin de calcul bien plus conséquente vu qu'il va faire ce calcul zone par zone
 
Moi après avoir lu vos explications

1028926346_small.jpg
 
  • J'aime
Les réactions: fsqR

[ Schiz0 ]

CS 1.6 Fan
pour ma part, j'avais mis l'alerte de stock sur tones et jeudi j'ai reçu un mail de dispo l'aprem pour la 3070, j'ai commandé et reçu aujourd'hui matin sans prob..
 
  • J'aime
Les réactions: Azinou

THiBOo

Elite
En fait, ce que j'avais compris, c'était un peu, par analogie, une logique dessin vectorisé vs dessin non vectorisé.

Du coup, en non RTX, si on veut un effet de lumière sur un mur rocailleux :
1/ première couche pour la texture "de base" pour le mur rocailleux sans effet lumière
2/ Deuxième couche où on a préparé plein de texture différente, en mode, pour la zone 1, si le joueur se trouve en 125,365,125, tu prends la texture AAA, si le joueur se trouve en 125,365,126, tu prends la ABA, si le joueur va en 124,365,125, tu prends la ZAA, etc... Le tout, avec un algo qui va optimiser le chargement des textures compte tenu des déplacements possibles (genre, si le perso est en 125,125,125, il est inutile de charger pour le 400,400,400 si ces coordonnées ne seront jamais atteinte dans les 100fps qui suivent)
--> Du coup, tout ce paquet de "texture" type qui doivent être chargée et ça occupe de l'espace VRAM.

Et du coup, en mode RTX, si tu veux ce même effet de lumière sur ce même mur rocailleux :
1/ première couche pour la texture "de base" pour le mur rocailleux sans effet lumière
2/ Deuxième couche où t'as aucune texture enregistrée car c'est le modèle physique/mathématique de RT (avec envoi des rayons depuis la source lumineuse vers la texture) qui va créer cet effet de lumière --> Du coup, occupation de VRAM plus faible, mais besoin de calcul bien plus conséquente vu qu'il va faire ce calcul zone par zone
Oui et non. La VRAM faut vraiment la voir comme une file d'attente de frame (et en un sens tu n'as pas tord, de zone de chargement de texture).
Toi tu vois les éclairages "non RT" comme de simples textures, pourquoi pas c'est pas foncièrement faux. Maintenant en RT, ok tu balances tes rayons à tes Tensor Core, mais ils en font qqc (aka améliorérer l'image en temps réel).

Donc au final ton image est plus riche, donc plus lourde.

Bref, faut de la mémoire !
 
  • J'aime
Les réactions: Azinou

Azinou

Ancienne LV
Oui et non. La VRAM faut vraiment la voir comme une file d'attente de frame (et en un sens tu n'as pas tord, de zone de chargement de texture).
Toi tu vois les éclairages "non RT" comme de simples textures, pourquoi pas c'est pas foncièrement faux. Maintenant en RT, ok tu balances tes rayons à tes Tensor Core, mais ils en font qqc (aka améliorérer l'image en temps réel).

Donc au final ton image est plus riche, donc plus lourde.

Bref, faut de la mémoire !
Ha mais, ça, je dis pas, juste que je pensais que le global était en faveur du RT car, ok, l'unité de frame était plus lourde, mais vu la quantité moindre de texture à stocker de base car pas besoin d'avoir les variances de texture "lumière" :dead:

Genre, sur 10Go en non RT, si y a 5Go de texture tampon pour piocher et 5Go réel de FPS affiché, et du coup, en format RT, t'as genre 1-2Go de texture tampon et 7Go de FPS à afficher. Mais c'est pas le cas XD

N'empêche, si quelqu'un a un article qui parle de cet aspect, ça m'intéresse juste pour ma culture :oops:
 

Zloup

Badger
demande a tes potes qui les fabriquent
 

Nov

You died
Artikel: VGA Gigabyte GeForce RTX 3080 GAMING OC 10G
Jouw positie: 29 van de 93
:love:
 
  • J'aime
Les réactions: gwen

Goforce

Hardcore Gamer
J'dis pas que je te crois pas mais tu as un lien vers un test/review où la 6900XT "explose" la 3090 ? Pcq j'aimerais avoir ton enthousiasme mais je vois ça nulle part avec RT on.
Et super resolution de ce que j'en vois actuellement on est très loin du dlss
La 6900 XT explose la RTX 3090 en 1080P et 1440P sur + de 3/4 des jeux et en 4K sur quasi tout les nouveaux jeux récemment release a part cyberpunk (dev avec nvidia).

https://www.techspot.com/review/2160-amd-radeon-6900-xt/ (testé sans "SAM")

Et encore, la RTX 3090 boost quasi au max par défaut, quasi impossible d'overclock le gpu, contrairement aux 6XXX qui s'overclock très bien et peuvent gagner jusqu’à 20% de perf ... (une 6900 XT sous water ça atteint 2.9-3ghz de boost maximum ...)

Sur dirt 5 et wow sl, tout en ultra + RT, la 6900 XT est aussi largement devant une RTX 3090 overclockée au maximum ...

Après si vous jouez aux jeux qui ont le DLSS, oui nvidia est meilleur en attendant le super resolution d'amd qui n'arrivera pas avant Q1 2021.

Mais bon le DLSS c'est même pas 0.01% des jeux disponible ... (il y a bien plus de jeux avec RT, que de jeux avec DLSS)


A part ça, la RTX 3080 16GB GDDR6 est confirmée sur pc portable :cool:

Utiliser de la GDDR6X sur les RTX 3080 10GB et RTX 3090, pire décision ever... (surtout que la GDDR6 peut être a 16-18GBPS et monter a 20GBPS en oc)

Edit : pour wow SL :







Même la 6800 XT détruit la RTX 3090 :rolleyes:, avec preset 10 + RT.
 

THiBOo

Elite
La 6900 XT explose la RTX 3090 en 1080P et 1440P sur + de 3/4 des jeux et en 4K sur quasi tout les nouveaux jeux récemment release a part cyberpunk (dev avec nvidia).

https://www.techspot.com/review/2160-amd-radeon-6900-xt/ (testé sans "SAM")

Et encore, la RTX 3090 boost quasi au max par défaut, quasi impossible d'overclock le gpu, contrairement aux 6XXX qui s'overclock très bien et peuvent gagner jusqu’à 20% de perf ... (une 6900 XT sous water ça atteint 2.9-3ghz de boost maximum ...)

Sur dirt 5 et wow sl, tout en ultra + RT, la 6900 XT est aussi largement devant une RTX 3090 overclockée au maximum ...

Après si vous jouez aux jeux qui ont le DLSS, oui nvidia est meilleur en attendant le super resolution d'amd qui n'arrivera pas avant Q1 2021.

Mais bon le DLSS c'est même pas 0.01% des jeux disponible ... (il y a bien plus de jeux avec RT, que de jeux avec DLSS)


A part ça, la RTX 3080 16GB GDDR6 est confirmée sur pc portable :cool:

Utiliser de la GDDR6X sur les RTX 3080 10GB et RTX 3090, pire décision ever... (surtout que la GDDR6 peut être a 16-18GBPS et monter a 20GBPS en oc)

Edit : pour wow SL :







Même la 6800 XT détruit la RTX 3090 :rolleyes:, avec preset 10 + RT.
De nouveau, j'ai envie de partager ton enthousiasme mais même le lien que tu postes arrive à la même conclusion que je lis partout:

"the outright best product, and as we’ve said we think that product is the RTX 3090. It offers 50% more VRAM, more mature ray tracing support that’s currently yielding far better results, DLSS 2.0 support, and for the most part superior 4K performance.

The Radeon RX 6900 XT is kind of stuck in this strange place where it’s really bad value compared to the 6800 XT, good value compared to the RTX 3090, but people looking to invest in this class of GPU won’t care about value, they just want the best of the best and in our opinion that isn’t the 6900 XT."
 

cyriak

Turn on - Tune in - Drop out
Nvidia sait ce que les joueurs veulent lol

En vrai heureusement qu'ils ont encore une énorme avance avec le ray tracing et qu'ils ont réussi a convaincre que le rtx est indispensable alors qu'a part les types qui font des benchmarks... Fin à la limite ceux qui aiment les fps, tant mieux, c'est là qu'il y a le plus de choix, mais par exemple quelqu'un qui aime les jeux de bagnole principalement, est-ce que c'est vraiment une nécessité?

Au final c'est pas très étonnant que nvidia pousse les reviewer à tester principalement les jeux sur le ray tracing même si en 2 ans il n'y a qu'une vingtaine de jeux qui sont sortis...

Et oui je sais plein de jeux sont prévus, mais bon l'année dernière c'était pareille et perso les jeux qui me tentent et qui sont compatible, ceux qui sont prévus inclus, je les compte sur les doigt de la main malheureusement... Donc même si sur papier une carte est mieux, en réalité, dans la vraie bibliothèque d'un gamer le choix d'une carte par rapport a ses perf en ray tracing alors que c'est encore très dispensable, j'trouve pas que c'est forcément ce qu'il y a de plus pertinent.
 

Goforce

Hardcore Gamer
Comme je l'ai déjà dis, on s'en fout totalement des perfs d'anciens jeux "AAA" ou optimisé a 100% pour nvidia que tout le monde à déjà fini : p

Les faits sont là, sur énormément de jeux récemment release/maj, la 6900XT est plus performante que la RTX 3090 qui coute 500-1000€ de + ... (et on parle pas de 2-3fps)

Valhalla, Dirt 5 (avec RT ou sans), WOW SL (avec RT ou sans), Death stranding (avec la dernière maj) ..., Forza Horizon 4 (dernière maj "next-gen" sur PC), Horizon Zero Dawn (1-2% plus perf), Watch Dogs Legion (sans RT) ...

Sur MFS DX12 et Far Cry 6, la 6900 XT surpasse aussi la RTX 3090 ... (on verra si ça change avec des maj avant leur release)


Même sur cyberpunk qui n'a pas encore reçu la maj pour les RX6000, la 6900XT est juste 7% derrière la RTX 3090 sans RT ... :rolleyes: (pour un jeu qui a été dev AVEC nvidia, ça fait mal)

Sans parler de l'infinity cache dispo sur les RX 6XXX ... (les dev doivent optimiser les jeux pour que ça fonctionne), les 2 seuls jeux qui l'utilisent correctement actuellement sont dirt 5 et wow SL, far cry 6 le prendra en charge aussi. (peut être que d'autres jeux sont déjà optimisé, je connais pas tout non plus)


Des conclusions de techspot qui écrivent n'importe quoi juste pour pas être ban par nvidia j'en ai rien à faire perso. (nvidia à ban plusieurs testeurs au sujet des reviews sur les RTX 30XX avant de revenir en arrière, il n'y avait pas que hardware unboxed ...)


La RTX 3090 (toute les RTX 30XX) est tellement mal optimisée avec RT sur les jeux DXR 1.1, que c'est une catastrophe sur WoW par exemple, il m'arrive d'avoir moins de fps qu'avec une 2080 TI, comme le gars qui a bench ci-dessus en faite. (ma RTX 3090 FTW3 Ultra dort sagement dans un carton uniquement pour cette raison :D)

Ça changera peut-être à l'avenir mais actuellement les RTX 30XX avec les dernier drivers, c'est juste de la merde sur wow, les perf de la RTX 3090 sont strictement ridicule une fois le RT activé ... (c'est même inacceptable vu le prix de la carte)
 
  • J'aime
Les réactions: metm12

THiBOo

Elite
Comme je l'ai déjà dis, on s'en fout totalement des perfs d'anciens jeux "AAA" ou optimisé a 100% pour nvidia que tout le monde à déjà fini : p

Les faits sont là, sur énormément de jeux récemment release/maj, la 6900XT est plus performante que la RTX 3090 qui coute 500-1000€ de + ... (et on parle pas de 2-3fps)

Valhalla, Dirt 5 (avec RT ou sans), WOW SL (avec RT ou sans), Death stranding (avec la dernière maj) ..., Forza Horizon 4 (dernière maj "next-gen" sur PC), Horizon Zero Dawn (1-2% plus perf), Watch Dogs Legion (sans RT) ...

Sur MFS DX12 et Far Cry 6, la 6900 XT surpasse aussi la RTX 3090 ... (on verra si ça change avec des maj avant leur release)


Même sur cyberpunk qui n'a pas encore reçu la maj pour les RX6000, la 6900XT est juste 7% derrière la RTX 3090 sans RT ... :rolleyes: (pour un jeu qui a été dev AVEC nvidia, ça fait mal)

Sans parler de l'infinity cache dispo sur les RX 6XXX ... (les dev doivent optimiser les jeux pour que ça fonctionne), les 2 seuls jeux qui l'utilisent correctement actuellement sont dirt 5 et wow SL, far cry 6 le prendra en charge aussi. (peut être que d'autres jeux sont déjà optimisé, je connais pas tout non plus)


Des conclusions de techspot qui écrivent n'importe quoi juste pour pas être ban par nvidia j'en ai rien à faire perso. (nvidia à ban plusieurs testeurs au sujet des reviews sur les RTX 30XX avant de revenir en arrière, il n'y avait pas que hardware unboxed ...)


La RTX 3090 (toute les RTX 30XX) est tellement mal optimisée avec RT sur les jeux DXR 1.1, que c'est une catastrophe sur WoW par exemple, il m'arrive d'avoir moins de fps qu'avec une 2080 TI, comme le gars qui a bench ci-dessus en faite. (ma RTX 3090 FTW3 Ultra dort sagement dans un carton uniquement pour cette raison :D)

Ça changera peut-être à l'avenir mais actuellement les RTX 30XX avec les dernier drivers, c'est juste de la merde sur wow, les perf de la RTX 3090 sont strictement ridicule une fois le RT activé ... (c'est même inacceptable vu le prix de la carte)
Je ne peux que te souhaiter d'avoir raison. Même si ça reste un pari sur l'avenir, pcq même aujourd'hui si on veut profiter de CP2077 avec RT faut une RTX.

J'aurais tellement voulu que les RX6000 cartonnent en RT mon choix aurait été bien plus facile.
 
  • J'aime
Les réactions: Joon

Saga

Et à propos de vieille truie, toi comment ça va ?
Cyberpunk solo est un peu fade quand meme. Finalement je l ai fait en rtx2070... et je vois aucun jeu qui me donne envie d upgrader. Au pire je joue en 1080p.
 

THiBOo

Elite
Cyberpunk solo est un peu fade quand meme. Finalement je l ai fait en rtx2070... et je vois aucun jeu qui me donne envie d upgrader. Au pire je joue en 1080p.
J'entends bien mais ... Jouer en 1080p sur une OLED 77" 4k ça fait un peu mal aux yeux.
 
  • J'aime
Les réactions: Nov
Oled 77" !?

Épouse moi !!! Mais j fais pas la femme...

Le prix à dû piquer :)
 

Squall89

B(o)uglanger de Gamerz
Pour info CompuMsa a du stock en Gigabyte 3070 gaming OC :) Trainez pas :)
 
  • J'aime
Les réactions: Joon
La 3080 Aorus également mais le prix pique un peu :D
 
Haut