NVIDIA Ampere: RTX 30XX

Goforce

Hardcore Gamer
La 4K c'est quand même une belle carotte haha.
J'espère que beaucoup plus de jeux utiliseront le DLSS 2.0 (c'est déjà confirmé pour CP2077). La reconstruction d'images c'est l'avenir car cette débauche de performance n'a plus de sens...on parle déjà des écrans 8k, alors que le contenu 4K est encore rachitique.
Ça fait + de 4 ans que les jeux optimisé pour de la 4K existe
, ça représente des milliers de jeux.

La quasi totalité des jeux sortit depuis Windows XP peuvent être affiché en 4K... et l'upscale via les drivers nvidia est juste hallucinant (surtout sur les jeux en "2D").

La quasi totalité des jeux peuvent aussi être affiché en 8-16K, d'ailleurs le DLSS est 100% compatible avec du 8-16K.

On peut déjà utiliser une résolution de 7680*4320 et utiliser le DLSS pour avoir une meilleur image que du 4K tout en ayant les perf du 4K sans DLSS :)

Le "contenu" 8K existe déjà, il nous manque juste le GPU a un prix inférieur a 2800-9000€ :p.

Crysis remastered va utiliser des textures 8K et des milliers de jeux utilisent déjà des texture/assets en 4K+.
Crysis 1 avec tout les détails au maximum fonctionne a 30-35fps en 8K avec une RTX 2080 TI : p

La "RTX 3090" va permettre de jouer en 8K sans aucun problème (évidemment pas avec tout les détails au maximum).

Jusqu’à présent, il était uniquement possible de jouer en 8K qu'avec une Quadro RTX 8000 ou Titan RTX sans baisser énormément les détails sur les jeux "récents". (car la quasi totalité des jeux nécessite 12GB de vram ou + avec une résolution 8K)

FC5 en 8K utilise 12.05GB de vram par exemple.

Par contre je suis d'accord que le DLSS à peut-être un bel avenir, d'ailleurs une technologie similaire sera dans la Xbox Series X et les nouveaux GPU d'AMD.

Goforce

Je me demande vraiment si les 3090 FE seront mieux que les custom. Ça serait une première non ?
Les modèles FE ont toujours les meilleurs GPU en général avec les modèles lightning z, kingpin, aorus xtreme, hof ...
Par contre ce qui était mieux chez les modèles custom, c'était le rad et l'alimentation, ce qui va peut être changer cette fois :p

Ce serait pas impossible que le modèle FE soit meilleur, après faut voir la limitation de Nvidia au niveau des WATT ...

Car si le modèle FE est limité a 350-375W maximum (par ex.), ça limitera l'overclock, alors que bien souvent avec les modèles custom, on peut monter jusqu’à 375-600W avec un bios modifié et parfois avec un bios stock (kingpin, lithning z).

Goforce c est mon avis perso concernant mes besoins, oui pour moi acheter une carte a 1400 boules ce serait un delire... je peux me contenter De resolution Full hd si requis. :) je ne critique pas ceux qui vont le faire. Quand on aime on compte pas de toute façon !

Apres tes tests sont sur des alphas, je travaille moi meme sur un jeu, et quand t es en alpha tout est sujet a changement et les fichiers sont tout sauf optimisés. Tu verras qu’a sa sortie tu pourras jouer en ray tracing a cyberpunk 2077. Peut etre pas tout a fond en 4k sans la derniere nvidia mais certainement en 1440p et full hd.

Ps : le petit jeu auquel je participe :
Quand The Witcher 3 est sortit, quasi AUCUN pc ne le faisait tourner en 1080P ultra@60fps+ (ce teste c'est même pas avec tout les détails au maximum ...) :

Seul les config a plusieurs milliers d'euros avaient des fps stable au dessus de 30 fps ...

CD Projekt font toujours des jeux très beau mais très gourmand ... (ça à été pareil pour les 2 1er the witcher)

Cyberpunk 2077 sera tout simplement injouable sur une quantité phénoménale de PC en 1080P-1440P Ultra. (pour info j'ai dis ça il y a plusieurs mois et à 4 mois de la release, ça n'a pas changé)

Si tu veux tout savoir, actuellement, avec une RTX 2080 TI oc, il est quasi impossible d'avoir 60 fps avec le DLSS 2.0 ... en 1080P Ultra + RT et ça chute parfois a 30 fps. (par contre le jeu est magnifique)

Sans RT, ~60fps en 4K sans trop de problème.

Le "problème" est qu'ils ont upgrade les graphismes, un downgrade avant la release n'est pas impossible mais je doute qu'ils choisissent cette solution.

C'est certains qu'il y a encore moyen de gagner quelques FPS avec une maj du DLSS mais la 2080 TI ne fera pas tourner cyberpunk 2077 a 60fps minimum en 1080P ultra + rt, c'est quasi une certitude (un miracle peut toujours arriver :p).

Évidemment le jeu fonctionnera sans problème sur un large éventail de pc et de résolutions ... avec des détails +- élevé, même en low le jeu est très beau.


Les perf en RT des "RTX 30XX" devraient plus que doublé, ce n'est pas pour rien que le jeu a été reporté après la sortie des nouveaux gpu Nvidia. (cyberpunk 2077 sera la vitrine technologique des "RTX 30XX", c'est le genre de jeu qui fait vendre des nouveaux GPU)


A part ça, voilà la taille du 12pin, plus petit qu'un 8pin :p :



C'est un gain de place énorme sur le PCB si il permet de remplacer jusqu’à 4*8PIN.
 

Jean Mourad

Le sniper
Cyberpunk 2077 en 8k, ils fournissent le disque dur avec ?
 

c_V0id

Elite
Goforce Pour Cyberpunk 2077 tu as une idée si en élevé (sans RT) ça peut faire du + grand que 60 FPS en 1440P ultrawide avec une RTX 2080 Ti ?
 

Saga

Et à propos de vieille truie, toi comment ça va ?
alors avec une 2070 RTX super tu peux jouer tout à fond en 720p ? :D
 
Ça fait + de 4 ans que les jeux optimisé pour de la 4K existe
, ça représente des milliers de jeux.

La quasi totalité des jeux sortit depuis Windows XP peuvent être affiché en 4K... et l'upscale via les drivers nvidia est juste hallucinant (surtout sur les jeux en "2D").

La quasi totalité des jeux peuvent aussi être affiché en 8-16K, d'ailleurs le DLSS est 100% compatible avec du 8-16K.

On peut déjà utiliser une résolution de 7680*4320 et utiliser le DLSS pour avoir une meilleur image que du 4K tout en ayant les perf du 4K sans DLSS :)

Le "contenu" 8K existe déjà, il nous manque juste le GPU a un prix inférieur a 2800-9000€ :p.

Crysis remastered va utiliser des textures 8K et des milliers de jeux utilisent déjà des texture/assets en 4K+.
Crysis 1 avec tout les détails au maximum fonctionne a 30-35fps en 8K avec une RTX 2080 TI : p

La "RTX 3090" va permettre de jouer en 8K sans aucun problème (évidemment pas avec tout les détails au maximum).

Jusqu’à présent, il était uniquement possible de jouer en 8K qu'avec une Quadro RTX 8000 ou Titan RTX sans baisser énormément les détails sur les jeux "récents". (car la quasi totalité des jeux nécessite 12GB de vram ou + avec une résolution 8K)

FC5 en 8K utilise 12.05GB de vram par exemple.

Par contre je suis d'accord que le DLSS à peut-être un bel avenir, d'ailleurs une technologie similaire sera dans la Xbox Series X et les nouveaux GPU d'AMD.



Les modèles FE ont toujours les meilleurs GPU en général avec les modèles lightning z, kingpin, aorus xtreme, hof ...
Par contre ce qui était mieux chez les modèles custom, c'était le rad et l'alimentation, ce qui va peut être changer cette fois :p

Ce serait pas impossible que le modèle FE soit meilleur, après faut voir la limitation de Nvidia au niveau des WATT ...

Car si le modèle FE est limité a 350-375W maximum (par ex.), ça limitera l'overclock, alors que bien souvent avec les modèles custom, on peut monter jusqu’à 375-600W avec un bios modifié et parfois avec un bios stock (kingpin, lithning z).



Quand The Witcher 3 est sortit, quasi AUCUN pc ne le faisait tourner en 1080P ultra@60fps+ (ce teste c'est même pas avec tout les détails au maximum ...) :

Seul les config a plusieurs milliers d'euros avaient des fps stable au dessus de 30 fps ...

CD Projekt font toujours des jeux très beau mais très gourmand ... (ça à été pareil pour les 2 1er the witcher)

Cyberpunk 2077 sera tout simplement injouable sur une quantité phénoménale de PC en 1080P-1440P Ultra. (pour info j'ai dis ça il y a plusieurs mois et à 4 mois de la release, ça n'a pas changé)

Si tu veux tout savoir, actuellement, avec une RTX 2080 TI oc, il est quasi impossible d'avoir 60 fps avec le DLSS 2.0 ... en 1080P Ultra + RT et ça chute parfois a 30 fps. (par contre le jeu est magnifique)

Sans RT, ~60fps en 4K sans trop de problème.

Le "problème" est qu'ils ont upgrade les graphismes, un downgrade avant la release n'est pas impossible mais je doute qu'ils choisissent cette solution.

C'est certains qu'il y a encore moyen de gagner quelques FPS avec une maj du DLSS mais la 2080 TI ne fera pas tourner cyberpunk 2077 a 60fps minimum en 1080P ultra + rt, c'est quasi une certitude (un miracle peut toujours arriver :p).

Évidemment le jeu fonctionnera sans problème sur un large éventail de pc et de résolutions ... avec des détails +- élevé, même en low le jeu est très beau.


Les perf en RT des "RTX 30XX" devraient plus que doublé, ce n'est pas pour rien que le jeu a été reporté après la sortie des nouveaux gpu Nvidia. (cyberpunk 2077 sera la vitrine technologique des "RTX 30XX", c'est le genre de jeu qui fait vendre des nouveaux GPU)


A part ça, voilà la taille du 12pin, plus petit qu'un 8pin :p :



C'est un gain de place énorme sur le PCB si il permet de remplacer jusqu’à 4*8PIN.
Je parlais surtout de films. Pour les jeux bien évidemment que tu peux jouer à tt en 4K voir 8K, mais quel intérêt vu que les textures restent en basse définition...
 

titoum

OPTC:970342646
mouai et la marmotte, elle met les lingos dans l'alu...

il faudrait qd même redevenir un plus terre à terre...

1400 pour la gfx
2000 pour le pc

Pour jouer à 2-3 bon jeu? o_Oo_Oo_O

le raytracing ca donne super bien en presentation technologique mais...est-ce qu'on va vraiment s'y attarder pdt qu'on joue?
Sauf peut etre un Alan Wake ou un jeu assez lent pour s'attarder sur les décors.

si la next gen de console assure + prix decent...ca va méchamment deservir les pc.
 

THiBOo

Elite
mouai et la marmotte, elle met les lingos dans l'alu...

il faudrait qd même redevenir un plus terre à terre...

1400 pour la gfx
2000 pour le pc

Pour jouer à 2-3 bon jeu? o_Oo_Oo_O

le raytracing ca donne super bien en presentation technologique mais...est-ce qu'on va vraiment s'y attarder pdt qu'on joue?
Sauf peut etre un Alan Wake ou un jeu assez lent pour s'attarder sur les décors.

si la next gen de console assure + prix decent...ca va méchamment deservir les pc.
Personne t'oblige à prendre une 3090 ;)

Maintenant oui les consoles sont une très bonne alternative aux pc et y a de moins en moins de différence.
 

titoum

OPTC:970342646
Personne t'oblige à prendre une 3090 ;)

Maintenant oui les consoles sont une très bonne alternative aux pc et y a de moins en moins de différence.

du tout ;)

je suis sur une 1080 avec i7700k mais qd je vois les prix délirant pour la suite...ca peut mettre un peu plus en perspective versus une ps5.

si on rajoute le fait que le tps de jeu dispo diminue comme neige au soleil.
 

Darkval

GnIIIIIIIIIII !!!
Vu que la carte sera plus grande qu'une RTX 2080 Ti, quelle utilité pour l'utilisateur ? Je présume qu'ici on ne parle que de la rentabilité du fabricant, et on déporte le coût sur l'utilisateur qui sera bon pour changer ses câbles.

Sinon, une autre question, la différence entre du 1440P et du 2160P, c'est aussi visible que ça (en natif) ? Parce que quand je vois la différence de perfs et de €€€€€ pour avoir un système capable de gérer la 4K, je me demande si ça vaut bien la peine de partir sur des configs aussi blindées.
Autant le FHD UHD ouais, c'est hyper flagrant, autant QHD UHD ca saute pas au yeux, tu voit une différence forcement sur les trucs loin, c'est net, mais ca bouffe tellement en perf, perso je joue eu QHD sur mon ecran UHD, ca reste joli meme si un poil plus flou evidemment, mais j'ai pas la machine pour les gros AAA en 4K, par contre les vieux plus ancien passent sans soucis et la c'est super cool, genre je ferais Arkam asylum et le jeu est super net, c'est sympa
 
  • J'aime
Les réactions: Old7

Goforce

Hardcore Gamer
alors avec une 2070 RTX super tu peux jouer tout à fond en 720p ? :D
Avec RT, non pas pour le moment, le DLSS 2.0 en 1080P = c'est de l'upscale du 720P. (ça peut évoluer mais actuellement, seul la RTX 2080 Ti, TITAN RTX et Quadro RTX 8000 peuvent faire tourner cyberpunk a 30-60fps (min-max) avec tout à fond en 1080P + RT)

J'espère que les perf actuel en 1080P Ultra + RT + DLSS seront les perf en 4K à la release, on verra bien. (c'est possible avec la magie du DLSS, comme sur Control)

Goforce Pour Cyberpunk 2077 tu as une idée si en élevé (sans RT) ça peut faire du + grand que 60 FPS en 1440P ultrawide avec une RTX 2080 Ti ?
Oui sans problème ^^

Vu que la carte sera plus grande qu'une RTX 2080 Ti, quelle utilité pour l'utilisateur ? Je présume qu'ici on ne parle que de la rentabilité du fabricant, et on déporte le coût sur l'utilisateur qui sera bon pour changer ses câbles.

Sinon, une autre question, la différence entre du 1440P et du 2160P, c'est aussi visible que ça (en natif) ? Parce que quand je vois la différence de perfs et de €€€€€ pour avoir un système capable de gérer la 4K, je me demande si ça vaut bien la peine de partir sur des configs aussi blindées.
Le PCB est plus petit que le PCB d'une RTX 2080 TI, c'est le rad qui est plus grand.

De plus ce connecteur est moins cher à produire que 2*8PIN ou +.

Ça ne doit pas couter cher à produire.

Il y aura peut-être un adaptateur dans la boite des GPU FE mais ce ne sera évidemment pas un câble qui se branche sur l'alim. (sauf si on peut directement choisir le modèle qui va avec notre alim, pourquoi pas)


Bien sur que c'est visible entre du 1440P et du 4K si tu as un écran 4K.

1440P (tout ce qui est a + de 2 mètres est "flou", même le texte des PNJ ... et les textures derrière le perso sont clairement moins nette)

4K

(et pourtant c'est pas le meilleur jeu pour montrer la différence :cool:)


Là on voit aussi directement la différence, même sur le cheval.

Le gros intérêt du 4K c'est le 4K HDR aussi ...
 

nicduch

Futur Bien heureux
En parlant de ça, à combien de fps l oeil ne fait plus la différence ?

J ai jamais été plus haut que 60 vu que je joue sur oled tv mais je suis curieux de connaître les limites de perception.
Au alentour de 300fps
 

Zloup

Badger
Autant GoForce va un peu loin parfois dans la technique, vous abusez aussi, on voit clairement la dif entre de la 4K et du 1080
 
Moi perso, je ferai comme d'habitude, je casserai probablement (un peu) ma tirelire pour me faire plaisir.

Je mettrai tout au max pendant 3 minutes et ensuite je remettrai les settings competitive voir tout en low en fonction du jeu ... comme je fais maintenant depuis 20 ans :D car c'est les réglages pour faire du frags.

Et adios les effets qui flattent la rétine
 
  • J'aime
Les réactions: gwen

tifrit

13:37
Déjà une idée de date de sortie pour les modèles custom ?
 

Darkval

GnIIIIIIIIIII !!!
Je vois surtout :

NVIDIA should be pricing the GeForce RTX 3070 at $599

Ca va être difficile pour ceux qui pensaient revendre leurs 2080 Ti sans perdre leur slip.
J'avoue, après, a l'époque des sorties de la série 20xx, les 2070 étaient donnée pour être plus puissante que la 1080 et la 2080 plus puissante que la 1080ti, ce n'etait pas forcément le cas ( après je dirais 3070 = 2080 voir 2080s après ce sont des spéculations personnelle
 
Haut