Nvidia RTX 5000 : the new Geforce FX

THiBOo

Elite
Vous avez osé acheter une 3080 et encore l'utiliser en 2025 et faire l'affront d'en parler sur un forum public, vous êtes de mécréants alors que ça fait 5 ans qu'il nous dit que la 3080 est morte. Oubliez pas qu'il a 100% raison
Arrête stp. Il ne changera pas, lisez ses posts en conséquence et arrêtez d'être trigger à chaque fois pcq "ça vous heurte votre ego" ou que sais-je d'autre.

Au milieu de son style un peu relou (mais qui ne changera pas), il donne des infos intéressantes, je me limite à ça, je vous conseille d'en faire de même.
 

Nov

You died
J'apprécie aussi ses posts et j'apprends souvent des choses en les lisant.

Je trouve juste dommage que quand qqn fait un retour d'expérience qui mitige (et non pas invalide) ses dires, la réponse soit "Je m'en branle de ton ressenti et de ton expérience".
 

artysm

Elite
Je vois d'avantages de désinformations, que d'infos réellement intéressantes.

Tout peut se lire sur https://videocardz.com/ pour les news.

Et concernant les fameux les retours d'expériences rien n'est sourcé et il veut faire passer les autres sites pour des amateurs.

On est dans de la propagande de bas niveau, il cherche tout ce qu'il peut trouver pour essayer de dire qu'il avait raison depuis 5 ans, quant au final 5 ans de tests ne lui donne pas raison.

La 3080 10Go tiennent aussi bien depuis 5 ans face à la 6800 XT 16Go
Les propriétaires ont pu jouer pendant 5 ans, même si pas avec les options tout à fond (de toute façon il y a certains jeux qui sortent qui peuvent même pas tourner à fond sur le dernier cri à 2000-2500 euros)
La 3080 ne sera pas invendable prochainement vu qu'elle bat toujours la 6800 XT (ou alors cette dernière serait invendable aussi) et n'était pas un produit obsolete à sa sortie. Et on parle d'une carte qui aura 5 ans dans 5 mois.
 
Dernière édition:

Goforce

Hardcore Gamer
Après on est sur le topic Nvidia et ça parle des perfs d'une carte Nvidia sur un jeu du moment... Ca me semble... logique ?


Sinon y'a un truc que je comprends pas dans ton approche.

Tu as le droit de t'en foutre de notre "profil" de joueurs qui jouent en mid settings et utilisent les technos (upscaling/frame gen).
C'est pas ton kif, tu veux pouvoir jouer dans les conditions god tier, franchement ça doit être le pied.

Pourquoi de ton côté tu ne comprends pas que nous, on puisse s'en foutre du 4K Ultra Settings Ultra RT ?


On peut être amateur de technologie sans viser tout le temps le top du top non ? On kiffe tous la même chose au final, le hardware, les JV... On a juste différents moyens / différentes exigences.

Nos propos n'invalident généralement pas les tiens, tu dois pas forcément chercher à invalider les nôtres...?
Mais à aucun moment j'ai parlé de 4K exclusivement ?
& j'utilise aussi le FSR4/DLSS ... & je joues aussi en qualité très basse sur certains jeux online ...

Même en 1080P la 3080 10GB à des problèmes sur l'UE5, ça passe à peine en 1440P mid avec DLSS perf ...

& ça c'est sans RT hardware, strictement injouable avec.


Je parle d'un problème de vram, uniquement lié à l'obsolescence programmée prévue par nvidia pour vous faire acheter des gpu plus rapidement ou plus cher & vous venez me parler de vos fps ??? (valable pour les 5060 8Gb, 5070 12GB ...)

Dark qui me parle de ses fps indoor après avoir lancé le jeu en 1440P ? ...
60 indoor = ~45 outdoor (voir 30) avec des drop a 15.

RTX 3080 10GB = 💩
RTX 3080 12GB (comme la ti) = très bon. (RT hardware utilisable & texture en ultra utilisable en 1080P, 1440P & 4K)

Que ça vous plaise ou non, c'est la réalité ;)

Les textures en ultra fonctionnent sur la 3080 12GB (peu importe la résolution), alors que sur la 3080 10GB il faut se contenter du medium au maximum pour essayer d'éviter les stutters ou drop énorme de fps ... alors que les paramètres des textures ne réduit normalement pas les perf, c'est 100% lié à la vram disponible ... :rolleyes:

---

La 5060 Ti 8GB c'est une catastrophe, inutilisable dans de bonnes conditions, la 5060 Ti 16GB a jusqu'a 2X + de fps ... ( ce sera surement pareil avec la 9060 XT 8GB ...)
 
Dernière édition:

DoWer37

Elite
Parfois, j'ai l'impression que la VRAM est devenue une sorte d'obsession. Certains ne jurent que par elle, comme si c'était l'unique facteur de performance, alors qu'on parle ici de GPU qui ont presque cinq ans. À l'époque de leur sortie, ces cartes ont été pensées, conçues et surtout "marketées" pour les jeux du moment, pas pour ceux à venir cinq ans plus tard avec des moteurs toujours plus gourmands.

Je ne dis pas que la VRAM ne joue aucun rôle, bien sûr qu'il y a des exceptions, surtout dans les jeux récents avec textures ultra ou RT activé. Mais encore une fois, j'ai du mal avec les discours très arrêtés, qui manquent de nuance et laissent peu de place à une vision globale. La puissance brute du GPU, le niveau d'optimisation des jeux, les réglages choisis, tout ça compte aussi, et souvent bien plus que 2 Go de VRAM en plus ou en moins.

Et puis, concernant l'obsolescence programmée, je pense que le sujet mérite d'être abordé avec un peu plus de subtilité. Oui, les constructeurs poussent à la consommation, c'est évident. Mais le matériel vieillit aussi naturellement : les moteurs évoluent, les jeux deviennent plus exigeants, les standards changent. On finit tous par devoir changer de matériel à un moment ou un autre, pas toujours parce que c'est voulu par les marques, mais simplement parce que la tech avance.

Voilà, c'était mon petit message dans le débat :oops:
 

brussli

Elite
Pas que je veuille donner raison à l’un ou l’autre mais la vram est devenue (si ça ne l’a pas toujours été) un élément déterminant pour les fps. Ceci est encore plus vrai aujourd’hui avec le DLSS et RT qui viennent pomper de la mémoire

vidéo de notre geek que j’apprécie de ce jour en parle d’ailleurs à partir de 7:50

 

Nov

You died
Parfois, j'ai l'impression que la VRAM est devenue une sorte d'obsession. Certains ne jurent que par elle, comme si c'était l'unique facteur de performance, alors qu'on parle ici de GPU qui ont presque cinq ans. À l'époque de leur sortie, ces cartes ont été pensées, conçues et surtout "marketées" pour les jeux du moment, pas pour ceux à venir cinq ans plus tard avec des moteurs toujours plus gourmands.

Je ne dis pas que la VRAM ne joue aucun rôle, bien sûr qu'il y a des exceptions, surtout dans les jeux récents avec textures ultra ou RT activé. Mais encore une fois, j'ai du mal avec les discours très arrêtés, qui manquent de nuance et laissent peu de place à une vision globale. La puissance brute du GPU, le niveau d'optimisation des jeux, les réglages choisis, tout ça compte aussi, et souvent bien plus que 2 Go de VRAM en plus ou en moins.

Et puis, concernant l'obsolescence programmée, je pense que le sujet mérite d'être abordé avec un peu plus de subtilité. Oui, les constructeurs poussent à la consommation, c'est évident. Mais le matériel vieillit aussi naturellement : les moteurs évoluent, les jeux deviennent plus exigeants, les standards changent. On finit tous par devoir changer de matériel à un moment ou un autre, pas toujours parce que c'est voulu par les marques, mais simplement parce que la tech avance.

Voilà, c'était mon petit message dans le débat :oops:
D'accord avec tout à l'exception du cas précis de la 3080 10 Go (celle que j'ai) : déjà à sa sortie Internet s'interrogeait sur le choix de mettre seulement 10 Go.

Et certes il y a beaucoup de facteurs qui rentrent en jeu dans l'"arrivée en obsolescence" d'une pièce, mais je pense qu'on sera d'accord sur le fait que bcp de constructeurs ne cherchent plus vraiment à faire tenir leur matos 10 ans comme Nokia le faisait :D
 

Goforce

Hardcore Gamer
Arrête stp. Il ne changera pas, lisez ses posts en conséquence et arrêtez d'être trigger à chaque fois pcq "ça vous heurte votre ego" ou que sais-je d'autre.

Au milieu de son style un peu relou (mais qui ne changera pas), il donne des infos intéressantes, je me limite à ça, je vous conseille d'en faire de même.
Je ne vois plus ces messages & je lui avais déjà demandé de ne plus me lire ;)
(& j'ai été au delà de la fonction ignorer de gamerz ce qui m'empêche de voir ses posts vu que je n'ai plus le petit message "afficher le contenu ignoré" 👍)

Ce qui est marrant c'est que sur des forums spécialisé où je suis ... (Anglais, Russe & Allemand), absolument personne agit comme lui : p

Là bas j'ai même vendu des 3080 20GB directement, absolument pas la volonté de le faire ici (mais ça c'est aussi à cause de la section achat/vente ...), c'est triste hein.

(Je connais un revendeurs chinois qui vend des 3080 20GB pour à peine 370€ frais inclus (100% fonctionnel ingame & perf de malade))

Je peux aussi avoir des 4090 48GB pour ~1800€ ;) (plus pour l'IA à la base mais fonctionne IG aussi)

Pas mal de personnes qui ont switch de la 7900 XTX vers la 5080 regrettent, on en rigole et ça se passe très bien (surtout sur overclocker.net : p ).

Ils sont pas là à parler de leurs fps et à essayer de dire que si que là ... pour défendre leurs gpu/achat, c'est tout le contraire 👍(je voudrais pas lire les messages si j'étais un employé de Nvidia)

Ici on a l'impression que vous protéger vos achats, c'est fou.

---

Sinon pour info, si vous avez une RTX avec 12GB ou moins, vous verrez peut-être parfois ce message :
5116f934a6.png

(traduction foireuse, ça fait bien référence au gpu et pas au processeur, ça n'a rien avoir avec le message concernant les CPU intel ^^ )

C'est normal; Nvidia ne voulant pas corrigé le "problème" d'assemblage des shaders, les dev ont créer ce message (pas que sur wow).

En soit c'est pas grave mais si vous lancez un jeu rapidement sans attendre, vous pouvez avoir ~10fps au début. (on reçoit bcp de tickets sur le sujet ...)

Le même message peut apparaitre sur les 5060 TI 8GB & 5070 12GB.

Je mets ça ici comme j'ai eu plusieurs membres de ma guilde qui ont eu le message et pensaient avoir un problème ...

Peut-être que j'ai inventé ce problème de shaders sur les RTX, qui sait ? ;)❤ (les dev de wow qui mentent aussi peut-être ? )

Parfois, j'ai l'impression que la VRAM est devenue une sorte d'obsession. Certains ne jurent que par elle, comme si c'était l'unique facteur de performance, alors qu'on parle ici de GPU qui ont presque cinq ans. À l'époque de leur sortie, ces cartes ont été pensées, conçues et surtout "marketées" pour les jeux du moment, pas pour ceux à venir cinq ans plus tard avec des moteurs toujours plus gourmands.

Je ne dis pas que la VRAM ne joue aucun rôle, bien sûr qu'il y a des exceptions, surtout dans les jeux récents avec textures ultra ou RT activé. Mais encore une fois, j'ai du mal avec les discours très arrêtés, qui manquent de nuance et laissent peu de place à une vision globale. La puissance brute du GPU, le niveau d'optimisation des jeux, les réglages choisis, tout ça compte aussi, et souvent bien plus que 2 Go de VRAM en plus ou en moins.

Et puis, concernant l'obsolescence programmée, je pense que le sujet mérite d'être abordé avec un peu plus de subtilité. Oui, les constructeurs poussent à la consommation, c'est évident. Mais le matériel vieillit aussi naturellement : les moteurs évoluent, les jeux deviennent plus exigeants, les standards changent. On finit tous par devoir changer de matériel à un moment ou un autre, pas toujours parce que c'est voulu par les marques, mais simplement parce que la tech avance.

Voilà, c'était mon petit message dans le débat :oops:
???

& donc la RTX 3060 12GB qui peut utiliser des textures en ultra alors que les 3070/3080 ne peuvent pas ?

La 2080 Ti 11GB qui peut utiliser les textures en ultra alors que les 3070 Ti / 3080 / 4070 8-10GB ne peuvent pas ?

La 5060 Ti 16GB qui utilise les textures ultra sans problème quand la 5070 12GB à des drop plus élevé ?

La 3080 12GB qui atomise la 3080 10GB alors que les perf sont normalement identique & même à l'avantage de la version 10GB ?

Toi comme d'autres, ne semble avoir pas compris ou vous voulez ne pas comprendre ?

J'hallucine, des dizaines de vidéos ont été post par les meilleurs youtubers pour dénoncer ça et en parler, & ici c'est bisounours land, nvidia tout beau tout gentil avec des produits excellent ... 🤣🤣🤣


Bon bah je vais conseiller d'acheter les 5060 Ti 8GB & 5070 12GB dans ce cas, ça ne vaut clairement pas le coup de mettre un peu plus cher dans des gpu futureproof 👍

N'oubliez pas l'excellente 9060 XT 8GB à venir aussi, AMD s'est dit que Nvidia ne devait pas être le seul à faire de la merde 😂. (& oui je suis pas fan de x ou y ...)

Le problème c'est pas de release ces produits mais de faire de la com autour en disant que ce sont d'excellent produits pour jouer ...
 

Darkval

GnIIIIIIIIIII !!!
Wow.. je… je vais juste répondre au fait que mes fps se basent quand je suis dans l’open world, bref, dire que tu t’en fou qu’on parle de nos fps ingame en jeux, mais tu es quoi toi? Une sorte de gourou qu’on se doit de vénérer ? C’est un forum, un espace d’échange et donc justement, la ou l’info ne t’es pas pertinente, peut être que pour un autre cela ne sera pas le cas, sur ce, bon jeu a tous 😁
 

Goforce

Hardcore Gamer
Wow.. je… je vais juste répondre au fait que mes fps se basent quand je suis dans l’open world, bref, dire que tu t’en fou qu’on parle de nos fps ingame en jeux, mais tu es quoi toi? Une sorte de gourou qu’on se doit de vénérer ? C’est un forum, un espace d’échange et donc justement, la ou l’info ne t’es pas pertinente, peut être que pour un autre cela ne sera pas le cas, sur ce, bon jeu a tous 😁
Bah tant mieux le jeu est excellent.

Tant mieux que tu t'amuses avec TA 3080, là n'est pas la question et oui je m'en fous de vos GPU, qu'est-ce que tu veux que je dise d'autres ? (j'ai un problème avec nvidia et leurs marketing de merde, pas avec vous ... ? )

Je parle d'un problème récurrent avec Nvidia et vous venez avec vos fps ...

Faudra m'expliquer comment tu as 60fps constant sans drop avec 10GB (& dlss qualité + elévé avec ombre med) alors que personne y arrivent sur les vidéos postée sur youtube ;)



1440P med + DLSS balanced et son 1% low va déjà constamment vers les 35fps alors que c'est une des zones les moins gourmandes en extérieur, sans combat, sans pluie ?

Driver magique ? ;) (car encore une fois, moi j'ai parlé des perf en ayant FINI oblivion)

C'est ça que tu appelles 60fps+ ?

& donc l'utilité de parler de tes fps à plusieurs reprises avec TA 3080 quand je parle des problèmes lié à la vram (& pas qu'en 4K, en 1440P aussi & bien évidemment pas que pour la 3080, les 50XX aussi) alors que les vidéos de bench (que tu as link en +) sont dispo en masse sur internet ?

Surtout que tu as fait fort avec ton 1er message : " Ça me fait tjs rire, rip les gpu 10go alors que je tourne tjs très bien avec ma 3080, faut arrêter 2 minutes.. tout le monde joue pas en ultra 4K, sur last of us 2 je suis en raste wqhd élevé et je tape 75/80 fps, bloqué à 70 pour éviter les drops et ça marche nickel, alors oui, je suis pas en ultra full RT mais faut arrêter de dire que ces gpu qont finito c’est de la pure connerie "

Alors que les plus grands youtuber tech (des millions d'abonnés) ont dis la même chose que moi 👍 (certes un peu plus subtilement)
 

jona4877

Elite
Bon à vous lire j'ai bien fait de prendre une evga 3080 12gb à l'époque, même si mon compteur électrique me dit le contraire même UV (je vais tester le jeu ce weekend).

Mais honnêtement, vu les prix délirant j'espère la garder un moment

Après cela reste du jeu vidéo, restez calme les enfants... Y a plus grave dans la vie chacun dépenses sont frics comme ils le souhaitent.

Ps: les avis c'est comme les trous de bals...:D
 
Dernière édition:
1er
OP
Saga

Saga

1981
Après on est sur le topic Nvidia et ça parle des perfs d'une carte Nvidia sur un jeu du moment... Ca me semble... logique ?


Sinon y'a un truc que je comprends pas dans ton approche.

Tu as le droit de t'en foutre de notre "profil" de joueurs qui jouent en mid settings et utilisent les technos (upscaling/frame gen).
C'est pas ton kif, tu veux pouvoir jouer dans les conditions god tier, franchement ça doit être le pied.

Pourquoi de ton côté tu ne comprends pas que nous, on puisse s'en foutre du 4K Ultra Settings Ultra RT ?


On peut être amateur de technologie sans viser tout le temps le top du top non ? On kiffe tous la même chose au final, le hardware, les JV... On a juste différents moyens / différentes exigences.

Nos propos n'invalident généralement pas les tiens, tu dois pas forcément chercher à invalider les nôtres...?
parce que ici si t’es pauvre, t’es pas au bon endroit. Forum de riche en tesla qui joue en 4k ultra…:oops:
Agresse le pas avec ton 1024*768 32 256 couleurs framegen editeur texte :mrgreen:

sans deconner, tu peux tjs jouer a tout correctement avec 8go si t es content a 45 fps et resolution full hd et details adaptés… on le sait tous. Goforce il parle du 4k tout a fond les ballons… suffit de s’en rendre compte. Il a encore la fougue de la jeunesse qui ressort mais ça se calmera avec les années. Artysm et lui sont fort sympathiques avec moi en tout cas. Idem pour ma mere et ma belle mere, avec moi ça va bien, mals si tu les mets dans la meme piece… ouch.
 
Dernière édition:

DoWer37

Elite
Je peux aussi avoir des 4090 48GB pour ~1800€ ;) (plus pour l'IA à la base mais fonctionne IG aussi)
Le rêve ! J'adorerai en avoir une !


& donc la RTX 3060 12GB qui peut utiliser des textures en ultra alors que les 3070/3080 ne peuvent pas ?

La 2080 Ti 11GB qui peut utiliser les textures en ultra alors que les 3070 Ti / 3080 / 4070 8-10GB ne peuvent pas ?

La 5060 Ti 16GB qui utilise les textures ultra sans problème quand la 5070 12GB à des drop plus élevé ?

La 3080 12GB qui atomise la 3080 10GB alors que les perf sont normalement identique & même à l'avantage de la version 10GB ?

Toi comme d'autres, ne semble avoir pas compris ou vous voulez ne pas comprendre ?

J'hallucine, des dizaines de vidéos ont été post par les meilleurs youtubers pour dénoncer ça et en parler, & ici c'est bisounours land, nvidia tout beau tout gentil avec des produits excellent ... 🤣🤣🤣


Bon bah je vais conseiller d'acheter les 5060 Ti 8GB & 5070 12GB dans ce cas, ça ne vaut clairement pas le coup de mettre un peu plus cher dans des gpu futureproof 👍

N'oubliez pas l'excellente 9060 XT 8GB à venir aussi, AMD s'est dit que Nvidia ne devait pas être le seul à faire de la merde 😂. (& oui je suis pas fan de x ou y ...)

Le problème c'est pas de release ces produits mais de faire de la com autour en disant que ce sont d'excellent produits pour jouer ...
Quid des FPS ? Je me permets de le demander, car dans mes souvenirs, ici :

Je vais pas tout link hein mais la 6800 XT atomise la 3080 10G dans pleins de jeux en 4K.

fe1ba3c67f.png
Hogwart 4K RT ... parfaitement jouable avec FSR 2 et AFMF2 sur la 6800 XT, injouable sur la 3080.
et ici :
b405b83edc.png
Voilà et quoi, ton screen à la con totalement obsolète il sert à rien.

Et t'as oublié de nous montré ça pour ce jeu sans RT :
108c405f75.png
(en sachant que la 6800 XT était bcp moins cher)
(https://www.gamerz.be/t/cartes-amd-navi-la-renaissance-continue.141764/page-120)

... en effet, un GPU avec plus de VRAM semble mieux s'en sortir, mais quand on regarde les FPS, aucun des deux GPUs ne permet de jouer. Je me doute qu'il y ait des cas où la VRAM a plus d'impact, mais ce que je veux dire c'est que c'est plus nuancé que "RTX 3080 10GB = 💩" à mon humble avis.

Et je ne remets pas en question le rôle de la VRAM, bien au contraire, j'en suis moi-même dépendant. Mais je fais la part des choses : est-ce que le GPU m'a permis de jouer au jeu du moment dans les conditions pour lesquelles il a été vendu ? Est-ce qu'il me permet de jouer après 5 ans en faisant des concessions ? Est-ce que dans ce cas, c'est un mauvais GPU ?

Et par ailleurs, je ne suis ni pro NVIDIA, ni pro AMD. Si je devais prendre un GPU uniquement pour le gaming, à prix égal, j'irai chez AMD actuellement.
 

DoWer37

Elite
De mon côté, j'essaie simplement de remettre un peu les choses en perspective concernant les GPU.
Est-ce qu'une RTX 5060 32Gb ou une RX 9060 32Gb a vraiment du sens, surtout quand on sait qu'elles seront peut-être pensées et "marketées" pour du 1080p sur les jeux actuels ?
C'est surtout ce décalage dans certains discours qui me dérange.
 

DoWer37

Elite
Si demain, les jeux exigent 32Gb de VRAM en 1080p pour tourner correctement, est-ce que le problème vient vraiment des GPU… ou des jeux eux-mêmes ?
J'exagère un peu, bien sûr, mais c'est surtout pour illustrer à quel point le débat me paraît parfois un peu stérile.
 

Liandoran

Redeemer and Destroyer
Pareil j'attends vraiment les prochaines gen des APU, je fais un petit mini pc de dépannage / surf sans GPU et zou console pour le gaming :D
 
Haut