Cartes AMD NAVI: la renaissance continue

Aliruto

Let Freedom Reign
Je t’ai mis le lien plus haut.
je lis quand même que les 2+6x2 supportent 225w et non plus 150w à l’ancienne.
 

Goforce

Hardcore Gamer
16/18 awg vu que j’en ai 2 comme ça (ici ce sont les câbles tresses en suppléments )
Avec un GPU consommant grand max 475W ça pourrait aller, uniquement pour les alim ATX 3.X ^^

Une 7900 XTX par défaut c'est ok, une 7900 XTX c'est juste ^^

Devrait pas y avoir de pb pour les RTX 5070 / 5080 ou 9070 XT.
 

Aliruto

Let Freedom Reign
Bah je vois que les grosses xtx on est sur 350w +- donc effectivement pas de souci pour mettre du 3x8pin sur 2 câbles pcie en 6+2 x3 :)
 

Darkval

GnIIIIIIIIIII !!!
Ça fait 4 ans que je lis que la 3080 10Gb est une merde mais 4 ans plus tard elle est toujours devant la 6800XT dans les derniers jeux : Stalker 2, Dragon age, Silent Hill 2, God of War. Warhammer, Black Myth

La 6900XT semble aussi se faire battre

II y a que des Call of duty dernièrement où AMD est devant, voir peut être final fantasy selon la résolution

En tant que possesseur d’une 6800XT j’ai l’impression de m’être fait avoir finalement

https://www.techpowerup.com/review/?category=Game+Testing&manufacturer=&pp=25&order=date

Ne me parlez pas d’OC. Ça m’intéresse pas et les performances doivent être mesurées comme la carte sort du constructeur
En tout cas ma 3080 fonctionne encore à merveille en 3440, bon je dois faire des réglages pour avoir 80/90 fps dans mes jeux, grâce au mod FG par exemple ou au lossless scaling 😁
 

titoum

OPTC:970342646
tout dépendra surtt des jeux joué
 

Goforce

Hardcore Gamer
Bah je vois que les grosses xtx on est sur 350w +- donc effectivement pas de souci pour mettre du 3x8pin sur 2 câbles pcie en 6+2 x3 :)
Attention c'est uniquement valable quand tu as une ALIM ATX 3.X de bonne qualité :cool:

& encore, seasonic recommande toujours d'utiliser 3 câbles pour du 3*8pin, ce qui est normal car ça répartit mieux la charge : p

Après quand tu overclock pas énormément c'est bon ^^

Ça fait 4 ans que je lis que la 3080 10Gb est une merde mais 4 ans plus tard elle est toujours devant la 6800XT dans les derniers jeux : Stalker 2, Dragon age, Silent Hill 2, God of War. Warhammer, Black Myth

La 6900XT semble aussi se faire battre

II y a que des Call of duty dernièrement où AMD est devant, voir peut être final fantasy selon la résolution

En tant que possesseur d’une 6800XT j’ai l’impression de m’être fait avoir finalement

https://www.techpowerup.com/review/?category=Game+Testing&manufacturer=&pp=25&order=date

Ne me parlez pas d’OC. Ça m’intéresse pas et les performances doivent être mesurées comme la carte sort du constructeur
Je n'ai jamais comparé la 3080 10GB à un GPU AMD dans ce cas-ci.

Mes 2080 Ti atomise les + puissante 3080 10GB tout en ne consommant que 100W de + ... (a la portée de tout le monde)

Sinon techpowerup test les gpu au tdp de ref avec un gpu de ref sans aucun OC.

Si vous vous intéressiez un minimum à ce que vous achetez, tu serais pas là à dire "j'ai l'impression de m'être fait avoir finalement".


J'ai vraiment l'impression que certains ici vous le faites exprès a faire semblant de pas comprendre ce que je dis.

Ou alors vous êtes des ignorants mais alors dans ce cas, pourquoi parler de choses qui vous sont inconnue, pourquoi ??? (a ce moment là faut poser des questions, pas écrire des "affirmations" à la con)

Je vais pas tout link hein mais la 6800 XT atomise la 3080 10G dans pleins de jeux en 4K.

fe1ba3c67f.png

Hogwart 4K RT ... parfaitement jouable avec FSR 2 et AFMF2 sur la 6800 XT, injouable sur la 3080.

Diablo 4 ..., paramètre ultra avec pack ultra désactivé sur la 3080 10GB (injouable), + de 60fps sur la 6800 XT.

WoW en résolution supérieur au 4K et pas mal d'addons graphique... avec tout au max tu pleures en raid @6fps. (~12GB vram utilisé sur une 3080 12GB ..., injouable sur la version 10GB)

Pleins de jeux sont ainsi à cause du manque de vram et ça va faire qu'augmenter ...

Genre ils ont delete la 3080 10GB et l'ont remplacé par la 3080 12GB pour rien ? :cool: (Les 3080 12GB que j'ai, sont des monstres comparé aux 3080 10GB devenue obsolete, et pour le coup + puissante que mes 2080 Ti)

Suffit de stream en même temps ou d'avoir des app qui utilisent de la vram en arrière plan pour que ça rende énormément de jeux INJOUABLE. (évidemment ce que ne test JAMAIS des sites comme TPU ;))

Et oui il y a pas que les jeux qui utilisent de la vram, tout ce qui est affiché à l'écran ou même en arrière plan peut en utiliser ..., un navigateur peut très vite utiliser plus de 2GB.

En config multi écran avec un stream + une petite vidéo sur le côté c'est pire ...

Ne me parlez pas d’OC. Ça m’intéresse pas et les performances doivent être mesurées comme la carte sort du constructeur
🤡
Après t'es clairement l'acheteur type que les entreprises adorent ;)

Viens pas dire que tu t'es fait avoir alors.


Tu sais que Nvidia overclock ces GPU au "max" par défaut ? (le nvidia boost c'est de l'overclock avec un lock du voltage, pour ça que depuis quelques années on ne gagne presque plus rien en perf en essayant d'aller encore plus loin sur un GPU Nvidia)

AMD à fait un peu comme Nvidia mais n'a pas totalement lock voltage & tdp.

Ils laissent le champ libre aux acheteurs (jusqu'a présent) ce qui fait qu'on a souvent des gains absolument monstrueux avec eux, comme les 7900 XTX @ 2900-3000mhz IG.

& la 6800 XT fait partie de ces GPU avec un potentiel monstrueux. :rolleyes:
Tu pourrais même undervolt ton gpu et modifier un peu la courbe des mhz pour gagner énormément en perf ...

J'aime bien TPU mais c'est pas sur ce genre de sites qu'on voit la vraie puissance des GPU. (et ne parlons pas de leurs overclock éclaté au sol souvent effectué en quelques minutes)

Du coup je te conseil d'acheter la RTX 5080 ;)

& si l'oc/tune t'intéresse pas, arrête d'intervenir après que j'aie poster qqch au niveau des perfs, ça n'a aucun fucking sens.

Tu vas pas me faire croire que tu pensais que je parlais d'une 7900 XTX de ref avec un boost ridicule vs la RTX 4090 plus haut ?
 
Dernière édition:

Aliruto

Let Freedom Reign
Attention c'est uniquement valable quand tu as une ALIM ATX 3.X de bonne qualité :cool:

& encore, seasonic recommande toujours d'utiliser 3 câbles pour du 3*8pin, ce qui est normal car ça répartit mieux la charge : p

Après quand tu overclock pas énormément c'est bon ^^



Je n'ai jamais comparé la 3080 10GB à un GPU AMD dans ce cas-ci.

Mes 2080 Ti atomise les + puissante 3080 10GB tout en ne consommant que 100W de + ... (a la portée de tout le monde)

Sinon techpowerup test les gpu au tdp de ref avec un gpu de ref sans aucun OC.

Si vous vous intéressiez un minimum à ce que vous achetez, tu serais pas là à dire "j'ai l'impression de m'être fait avoir finalement".


J'ai vraiment l'impression que certains ici vous le faites exprès a faire semblant de pas comprendre ce que je dis.

Ou alors vous êtes des ignorants mais alors dans ce cas, pourquoi parler de choses qui vous sont inconnue, pourquoi ??? (a ce moment là faut poser des questions, pas écrire des "affirmations" à la con)

Je vais pas tout link hein mais la 6800 XT atomise la 3080 10G dans pleins de jeux en 4K.

Voir la pièce jointe 123863
Hogwart 4K RT ... parfaitement jouable avec FSR 2 et AFMF2 sur la 6800 XT, injouable sur la 3080.

Diablo 4 ..., paramètre ultra avec pack ultra désactivé sur la 3080 10GB (injouable), + de 60fps sur la 6800 XT.

WoW en résolution supérieur au 4K et pas mal d'addons graphique... avec tout au max tu pleures en raid @6fps. (~12GB vram utilisé sur une 3080 12GB ..., injouable sur la version 10GB)

Pleins de jeux sont ainsi à cause du manque de vram et ça va faire qu'augmenter ...

Genre ils ont delete la 3080 10GB et l'ont remplacé par la 3080 12GB pour rien ? :cool: (Les 3080 12GB que j'ai, sont des monstres comparé aux 3080 10GB devenue obsolete, et pour le coup + puissante que mes 2080 Ti)

Suffit de stream en même temps ou d'avoir des app qui utilisent de la vram en arrière plan pour que ça rende énormément de jeux INJOUABLE. (évidemment ce que ne test JAMAIS des sites comme TPU ;))

Et oui il y a pas que les jeux qui utilisent de la vram, tout ce qui est affiché à l'écran ou même en arrière plan peut en utiliser ..., un navigateur peut très vite utiliser plus de 2GB.

En config multi écran avec un stream + une petite vidéo sur le côté c'est pire ...



🤡
Après t'es clairement l'acheteur type que les entreprises adorent ;)

Viens pas dire que tu t'es fait avoir alors.


Tu sais que Nvidia overclock ces GPU au "max" par défaut ? (le nvidia boost c'est de l'overclock avec un lock du voltage, pour ça que depuis quelques années on ne gagne presque plus rien en perf en essayant d'aller encore plus loin sur un GPU Nvidia)

AMD à fait un peu comme Nvidia mais n'a pas totalement lock voltage & tdp.

Ils laissent le champ libre aux acheteurs (jusqu'a présent) ce qui fait qu'on a souvent des gains absolument monstrueux avec eux, comme les 7900 XTX @ 2900-3000mhz IG.

& la 6800 XT fait partie de ces GPU avec un potentiel monstrueux. :rolleyes:
Tu pourrais même undervolt ton gpu et modifier un peu la courbe des mhz pour gagner énormément en perf ...

J'aime bien TPU mais c'est pas sur ce genre de sites qu'on voit la vraie puissance des GPU. (et ne parlons pas de leurs overclock éclaté au sol souvent effectué en quelques minutes)

Du coup je te conseil d'acheter la RTX 5080 ;)

& si l'oc/tune t'intéresse pas, arrête d'intervenir après que j'aie poster qqch au niveau des perfs, ça n'a aucun fucking sens.

Tu vas pas me faire croire que tu pensais que je parlais d'une 7900 XTX de ref avec un boost ridicule vs la RTX 4090 plus haut ?
be quiet! Pure Power 12 M 850W - Alimentation modulaire 80+ Gold ATX 3.0 PCIe 5.0 12VHPWR

J’ai ceci. Je suis donc tranquille :)
 

artysm

Elite
Attention c'est uniquement valable quand tu as une ALIM ATX 3.X de bonne qualité :cool:

& encore, seasonic recommande toujours d'utiliser 3 câbles pour du 3*8pin, ce qui est normal car ça répartit mieux la charge : p

Après quand tu overclock pas énormément c'est bon ^^



Je n'ai jamais comparé la 3080 10GB à un GPU AMD dans ce cas-ci.

Mes 2080 Ti atomise les + puissante 3080 10GB tout en ne consommant que 100W de + ... (a la portée de tout le monde)

Sinon techpowerup test les gpu au tdp de ref avec un gpu de ref sans aucun OC.

Si vous vous intéressiez un minimum à ce que vous achetez, tu serais pas là à dire "j'ai l'impression de m'être fait avoir finalement".


J'ai vraiment l'impression que certains ici vous le faites exprès a faire semblant de pas comprendre ce que je dis.

Ou alors vous êtes des ignorants mais alors dans ce cas, pourquoi parler de choses qui vous sont inconnue, pourquoi ??? (a ce moment là faut poser des questions, pas écrire des "affirmations" à la con)

Je vais pas tout link hein mais la 6800 XT atomise la 3080 10G dans pleins de jeux en 4K.

Voir la pièce jointe 123863
Hogwart 4K RT ... parfaitement jouable avec FSR 2 et AFMF2 sur la 6800 XT, injouable sur la 3080.

Diablo 4 ..., paramètre ultra avec pack ultra désactivé sur la 3080 10GB (injouable), + de 60fps sur la 6800 XT.

WoW en résolution supérieur au 4K et pas mal d'addons graphique... avec tout au max tu pleures en raid @6fps. (~12GB vram utilisé sur une 3080 12GB ..., injouable sur la version 10GB)

Pleins de jeux sont ainsi à cause du manque de vram et ça va faire qu'augmenter ...

Genre ils ont delete la 3080 10GB et l'ont remplacé par la 3080 12GB pour rien ? :cool: (Les 3080 12GB que j'ai, sont des monstres comparé aux 3080 10GB devenue obsolete, et pour le coup + puissante que mes 2080 Ti)

Suffit de stream en même temps ou d'avoir des app qui utilisent de la vram en arrière plan pour que ça rende énormément de jeux INJOUABLE. (évidemment ce que ne test JAMAIS des sites comme TPU ;))

Et oui il y a pas que les jeux qui utilisent de la vram, tout ce qui est affiché à l'écran ou même en arrière plan peut en utiliser ..., un navigateur peut très vite utiliser plus de 2GB.

En config multi écran avec un stream + une petite vidéo sur le côté c'est pire ...



🤡
Après t'es clairement l'acheteur type que les entreprises adorent ;)

Viens pas dire que tu t'es fait avoir alors.


Tu sais que Nvidia overclock ces GPU au "max" par défaut ? (le nvidia boost c'est de l'overclock avec un lock du voltage, pour ça que depuis quelques années on ne gagne presque plus rien en perf en essayant d'aller encore plus loin sur un GPU Nvidia)

AMD à fait un peu comme Nvidia mais n'a pas totalement lock voltage & tdp.

Ils laissent le champ libre aux acheteurs (jusqu'a présent) ce qui fait qu'on a souvent des gains absolument monstrueux avec eux, comme les 7900 XTX @ 2900-3000mhz IG.

& la 6800 XT fait partie de ces GPU avec un potentiel monstrueux. :rolleyes:
Tu pourrais même undervolt ton gpu et modifier un peu la courbe des mhz pour gagner énormément en perf ...

J'aime bien TPU mais c'est pas sur ce genre de sites qu'on voit la vraie puissance des GPU. (et ne parlons pas de leurs overclock éclaté au sol souvent effectué en quelques minutes)

Du coup je te conseil d'acheter la RTX 5080 ;)

& si l'oc/tune t'intéresse pas, arrête d'intervenir après que j'aie poster qqch au niveau des perfs, ça n'a aucun fucking sens.

Tu vas pas me faire croire que tu pensais que je parlais d'une 7900 XTX de ref avec un boost ridicule vs la RTX 4090 plus haut ?
Une fois de plus tu vas chercher les benchs qui t'arrangent.

Je peux aussi aller chercher un bench qui m'arrange au hasard : Hogwart 4K RT

performance-rt-3840-2160.png


Je pourrais même sortir des phrases ridicules dont tu as le secret comme : la 3070 8GB atomise la 7900XTX 24GB de presque 70%

On fera coucou à la 2080 TI qui atomise la 3080 10Go au passage



Et tu fais passer les personnes qui ne veulent pas/plus se prendre la tête pour des pigeons ignares parce qu'ils ont pas envie d'aller jouer avec l'overclocking de leur carte ou aller acheter un soft à un développeur ukrainien sur un Patreon. La condescendance du PC Master Race dans le mille


Il est normal que les cartes soient testé comme elles sortent du constructeur, encore mieux c'est si c'est le modèle de référence. Je vois pas pourquoi les sites de review devraient commencer à OC toutes les cartes testés. Le but est d'avoir le résultat que chaque consommateur aura selon les spécifications que le constructeur lui à donné.

ça fait 4 ans que nous rabâche que la 3080 10Go est une merde et que la 6800XT l'atomise

Finalement l'histoire que tu nous racontes que c'est la 6800 XT Custom (pas ref attention) avec OC/Tune est parfois supérieure à la 3080 10GO dans certains jeux à une certaine résolution avec FSR 2 et AFMF2

Tu prends ce qui t'arrange pour allègrement chier en boucle sur Nvidia, parce que tu as décidé il y a quelques années que tu les aimais pas, alors qu'au final et dans la majorité des derniers jeux sortis la 3080 10Go est exploitable et plus performante qu'une 6800/6900XT par défaut.

Même si les 10Go n'était clairement pas le choix idéal, la carte n'est pas la merde décrite dans tes posts. Quitte a critiquer Nvidia tu peux boucler sur leur connecteur qui prend feu ou les pcb qui craquent, les prix.
 
Dernière édition:

titoum

OPTC:970342646
124019_76fe3e11acfccefd4dc19015c18cbecc.png

Hogwart 4K RT ... parfaitement jouable avec FSR 2 et AFMF2 sur la 6800 XT, injouable sur la 3080.
Peut-être @artysm que ton test n'inclus par le fsr2 u afmf2 vu que vous êtes iso niveau fps de la 3080 ?
 

artysm

Elite
C’est évidemment clair, comme il n’y a pas de dlss ou autre

J’ose espérer qu’on parle pas d’un jeu parfaitement jouable à 24 fps (quand ça drop pas à 20 fps) de moyenne avec FSR 2 et afmf2

EDIT : Ceci dit je dirais qu'il y a un problème sur le bench de techpowerup avec Hogwarts Legacy et les cartes AMD en RT mais c'était pour prouver qu'on peut faire dire n'importe quoi à un bench en particulier, mais si tu commences à regarder sur un ensemble de jeux, la réalité se trouve plutôt là.
 
Dernière édition:

Saga

Et à propos de vieille truie, toi comment ça va ?
IMG_4869.jpeg
 

Goforce

Hardcore Gamer
Une fois de plus tu vas chercher les benchs qui t'arrangent.

Je peux aussi aller chercher un bench qui m'arrange au hasard : Hogwart 4K RT

Voir la pièce jointe 123866

Je pourrais même sortir des phrases ridicules dont tu as le secret comme : la 3070 8GB atomise la 7900XTX 24GB de presque 70%

On fera coucou à la 2080 TI qui atomise la 3080 10Go au passage



Et tu fais passer les personnes qui ne veulent pas/plus se prendre la tête pour des pigeons ignares parce qu'ils ont pas envie d'aller jouer avec l'overclocking de leur carte ou aller acheter un soft à un développeur ukrainien sur un Patreon. La condescendance du PC Master Race dans le mille


Il est normal que les cartes soient testé comme elles sortent du constructeur, encore mieux c'est si c'est le modèle de référence. Je vois pas pourquoi les sites de review devraient commencer à OC toutes les cartes testés. Le but est d'avoir le résultat que chaque consommateur aura selon les spécifications que le constructeur lui à donné.

ça fait 4 ans que nous rabâche que la 3080 10Go est une merde et que la 6800XT l'atomise

Finalement l'histoire que tu nous racontes que c'est la 6800 XT Custom (pas ref attention) avec OC/Tune est parfois supérieure à la 3080 10GO dans certains jeux à une certaine résolution avec FSR 2 et AFMF2

Tu prends ce qui t'arrange pour allègrement chier en boucle sur Nvidia, parce que tu as décidé il y a quelques années que tu les aimais pas, alors qu'au final et dans la majorité des derniers jeux sortis la 3080 10Go est exploitable et plus performante qu'une 6800/6900XT par défaut.

Même si les 10Go n'était clairement pas le choix idéal, la carte n'est pas la merde décrite dans tes posts. Quitte a critiquer Nvidia tu peux boucler sur leur connecteur qui prend feu ou les pcb qui craquent, les prix.
Non mais arrete de nous sortir des screens de TPU effectué avec la V1.0 des jeu et PLUS JAMAIS maj ensuite🤣, tu n'y connais rien en OC/tune et encore moins en GPU.

Soit tu le fais exprès, soit t'es juste teubé ? (sérieusement, à ce niveau là c'est quand même très grave, no offense)

Putain mais merde, je parle d'une situation précise (qui concerne des centaines de jeux) car ce GPU manque de VRAM ( et t'essaies encore de trouver x choses pour dire le contraire, t'es vraiment un malade hein.

b405b83edc.png

Voilà et quoi, ton screen à la con totalement obsolète il sert à rien.

Et t'as oublié de nous montré ça pour ce jeu sans RT :
108c405f75.png

(en sachant que la 6800 XT était bcp moins cher)
;)

On le sait que les RTX 30XX sont meilleur en RT, tu m'as vu parlé de RT quelque part ? je parle de VRAM.

"jouer avec l'overclocking" mdr.

Appuyer sur un bouton qui paramètre tout en quelques minutes c'est "jouer" ☠ ?

Il est normal que les cartes soient testé comme elles sortent du constructeur, encore mieux c'est si c'est le modèle de référence. Je vois pas pourquoi les sites de review devraient commencer à OC toutes les cartes testés. Le but est d'avoir le résultat que chaque consommateur aura selon les spécifications que le constructeur lui à donné.
Faux, en plus tu dis n'importe quoi, car la totalité des sites depuis la nuit des temps teste l'overclock, basique certes mais un overclock quand même.

& c'est même l'argument de vente numéro 1 de la totalité des constructeurs custom ☠ (ils se battent tous pour release leurs soft amélioré à chaque release de GPU ...sauf que MSI Afterburner est le meilleur)

La 3080 10GB c'est de la merde (comme la totalité des RTX 30XX/40XX/50XX vendue plus de 500$ et ayant moins de 12GB vram), point barre ;) (encore plus au prix des GPU à l'époque mdr)

La 3080 12GB à 50% de fps en + dans pas mal de jeux en 4K et tu sais d'où ça vient ? La VRAM. :rolleyes: (mais la 3080 10GB achetée 1000-2000€ serait un très bon gpu ? biensûr)

C'est parce que j'ai pas le temps sinon je te prouverai que j'ai raison en faisant la même chose qu'eux mais avec 3080 10GB vs 3080 12GB sur des jeux gourmand en 1440P/4K : 8 vs. 16 GiByte VRAM review: Indispensable for Radeon graphics cards

& d'ailleurs ils prouvent quand même que j'ai raison car 10GB c'est pas loin de 8GB.
Faut pas avoir fait bac+10 pour calculer l'impact que ça pourrait avoir avec la 3080 ... :rolleyes:

Et je le répète, ta 6800 XT atomise la 3080 10GB en performance dans la quasi totalité des jeux, je dis bien LA QUASI TOTALITE des jeux. (non RT, après faut le faire d'acheter un GPU de cette gamme pour jouer en RT)

Après libre à toi de rester avec un gpu par défaut quand en quelques minutes tu pourrais gagner pas mal de fps et ce totalement gratuitement.

Même en augmentant juste le TDP, tu peux gagner + de 10% de fps sur pas mal de jeux ☠

Ah et pas besoin de programmes tiers, tout est inclus ;)

Peut-être @artysm que ton test n'inclus par le fsr2 u afmf2 vu que vous êtes iso niveau fps de la 3080 ?
Non rien avoir, hogwart était bugué en V1 sur ses screens.

Les screens d'hardware unboxed c'es bien en natif sans upscale sur le jeu patché.

& il est évident que je ne parle pas que de ce jeu, il y en a des dizaines où la sitation est identique.

C'est encore pire avec les 3070 (Ti) 8GB.

C’est évidemment clair, comme il n’y a pas de dlss ou autre

J’ose espérer qu’on parle pas d’un jeu parfaitement jouable à 24 fps (quand ça drop pas à 20 fps) de moyenne avec FSR 2 et afmf2

EDIT : Ceci dit je dirais qu'il y a un problème sur le bench de techpowerup avec Hogwarts Legacy et les cartes AMD en RT mais c'était pour prouver qu'on peut faire dire n'importe quoi à un bench en particulier, mais si tu commences à regarder sur un ensemble de jeux, la réalité se trouve plutôt là.
Allé, je t'en supplie ignore moi si c'est pour continuer ainsi.

Je suis très gentil, je veux bien aider tlm ou apprendre des choses à d'autres mais il y a des limites à ne pas dépasser.

Si tu as toujours pas compris que 10GB vram c'était obsolète en 2025 en 4K et même dans certains jeux 1440P je peux plus rien faire pour toi.

Déjà que 8GB c'est de la merde pour du 1080P ...

Et là ton niveau de connerie/ignorance à un atteint un niveau stratosphérique.

Si je voulais être un connard, je vous dirais d'attendre la RTX 5070 12GB car c'est un excellent GPU et je vous mentirais comme le fait Nvidia juste pour vendre des gammes au dessus à des prix hallucinant, mais je vais pas le faire ;)

700€ pour un GPU avec 12GB de vram ... en 2025 :mad:

Si AMD ou INTEL font pareil croyez moi qu'ils vont se faire défoncer de la même façon.

Je sais pas ce que tu as avec la 3080 10GB mais calme toi :cool:, ce gpu n'est plus vendu et et en plus tu l'as pas ...

PS : mes 2080 Ti bios mod oc @406W et 2100+mhz font effectivement bien coucou à la 3080 10GB et ce pour 0$ de + ;) (et en plus elles supportent le sli : p )

De même que mes 3080 12GB achetée 600$ et qui ont 50% de fps en + vs les 3080 10GB sur pas mal de jeux en 4k.

& oui la VRAM c'est très important.
 
Dernière édition:
  • J'aime
Les réactions: Jeraal

Saga

Et à propos de vieille truie, toi comment ça va ?
Par contre @artysm @Goforce essayez d’argumenter sans vous traiter de cons. Ça rend vos posts moins agreables a lire. Relevez le niveau, on est pas sur hfr.
 

jona4877

Elite
C'est peine perdue....j'ai abandonné depuis un certain temps.
Je suis convaincu maintenant ..... j'ai mm revendu ma 4090 pour une 7900xtx qui atomise tout...

bonne journée ;)
Tu as essayé iracing avec un triple screen?


Edit: tu étais en vr toi? Si je me rappelle bien
 

Goforce

Hardcore Gamer
Par contre @artysm @Goforce essayez d’argumenter sans vous traiter de cons. Ça rend vos posts moins agreables a lire. Relevez le niveau, on est pas sur hfr.
Regarde le message en dessous du tiens.

Je vais même pas lui répondre il sait qu'il raconte n'importe quoi.

Je n'ai jamais dit qu'une 7900 XTX était meilleur qu'une 4090 ce qui est totalement faux.

Par contre une 7900 XTX est bien + puissante dans plusieurs jeux oui, et du coup la solution c'est d'avoir les 2 GPU comme moi dans le même PC.

---

J'explique que la RTX 3080 10GB est un très mauvais GPU (déjà le downgrade vs la 2080 Ti était épique ...) depuis sa release, je parle de la VRAM car des nouveaux produits sortent ...

Des test vont dans mon sens : 8 vs. 16 GiByte VRAM im Test: Bei Radeon-Grafikkarten unverzichtbar (et c'est même pire, 8GB vram n'étant déjà plus assé pour du 1080P ☠, alors 10GB pour du 1440P/4K...)

D'ailleurs la RX 7600 8GB c'était aussi un très mauvais gpu, il n'y a pas que Nvidia qui fait ça hein, AMD aussi fait n'importe quoi parfois ...


Mais MR. artysm à décidé que non, 10GB vram c'est très très bien en 2025, que veux-tu :cool:

Idem je parle d'oc/tune., blablabla rien à faire de l'oc ça doit être testé et rester aux specs de ref, LOL.


& bah quand je vois vos messages, les entreprises ont de beaux jours devant elles avec l'obsolessence programmée ;)

Car le manque de VRAM sur les GPU, ça oblige à racheter de nouveaux produits ou passer à la gamme au dessus et c'est fait exprès.


1080 Ti 11GB = a ce jour, toujours un monstre en 1080 et 1440P, fait tourner tous les jeux (non rt)
2080 Ti 11GB = a ce jour, toujours un monstre et fait tourner tous les jeux en 4K avec DLSS.

3070 (Ti) 8GB = Un GPU qui était sensé être plus puissant que la 2080 Ti d'après les slides 🤡
3080 10GB = no comment (totalement remplacé par la 3080 12GB)
4060 (Ti) 8GB = LOL (les RTX 3060 12GB sont bien + rapide)

RX 7600 8GB = Rip aux acheteurs, GPU déjà obsolète dans bien des jeux ...

Ah et je rappelle que la vram, ça vaut rien.
---

Le pire c'est que j'avais déjà fait un post sur la VRAM et le gros test qui est sortit, prouve que j'avais raison a 100%. (j'avais dis que 8GB vram c'était plus assé pour du 1080P et que ça allait être compliqué en 2024/2025 ...)

Leurs conclusion " Stay away from 8 GiBytes when buying new graphics cards, in 2025 more than ever! "

Moi je dis qu'au delà de 500€ faut surtout pas acheter de GPU avec moins de 16GB vram.

Je ne vous comprends pas, je suis actionnaire des 3 constructeurs et on dirait que vous essayez de défendre X ou Y comme si vous étiez les propriétaires : p
 

artysm

Elite
Par contre @artysm @Goforce essayez d’argumenter sans vous traiter de cons. Ça rend vos posts moins agreables a lire. Relevez le niveau, on est pas sur hfr.
Je pense l’avoir fait mais je suis peut-être trop teubé et je m’en suis pas rendu compte

J’arrête vu que je connais rien visiblement, je suis un malade t’entends :cool:
 
Dernière édition:

Goforce

Hardcore Gamer
Je pense l’avoir fait mais je suis peut-être trop teubé et je m’en suis pas rendu compte

J’arrête vu que je connais rien visiblement, je suis un malade t’entends :cool:
Ce sera mon dernier message là dessus, de toute façon vu tes messages tu t'en fous je pense.

Voilà une 6800 XT oc @2747mhz en 30s (56° max) :

Modèle de ref AMD ...
776bc16e68.png


& une RTX 3080 10GB (71° max) :

EVGA custom (rip : ( )
e3cb9a0f19.png

(gpu score qui est important, osef du reste ...)

Désolé j'ai pas 40 5800X3D non plus ^^ (et 1 seul 9800X3D ... 😭)

Par TPU (qui d'après toi, test pas l'oc : p )
36085adf25.png

Petit overclock sur le modele de ref d'AMD ... et seulement @2500mhz, ~+9% fps.

1dcbe21040.png

petit overclock sur une taichi ...@2680mhz

1128e04e45.png

... Une RTX 3080 custom & oc ...

Exactement ce que je disais plus haut où l'oc sur un gpu nvidia est fortement limité alors que chez AMD on gagne tellement + ...

Bref sur une 6800 XT on peut avoir jusqu'à +10/+20% fps en jeux si on optimise le gpu (je vais plus utiliser le mot overclock vu que ça fait peur on dirait : p )

& l'overclock est toujours cité dans les points négatif ou positif si il est + ou - bon ...
 
  • J'aime
Les réactions: titoum

Saga

Et à propos de vieille truie, toi comment ça va ?
Ce que j essaie de dire, c’est que c’est autant navrant les insultes que l’humour passif agressif. Et j’en connais un rayon, j’ai eu mes mauvais moments mais je deviens vieux (et plus sage ?) je trouve que le debat c’est bien et c’est meme plaisant a lire. Mais tout le plaisir se barre dès qu’on passe en mode moquerie ou agressif. C’est toujours tres simple devant un écran… mais avant de vous enervez sur un gars dont vous ne savez rien, n’oubliez jamais que justement vous ne savez rien de lui, des combats qu’il mène, etc. Ou je veux en venir ? Bah ça sert a rien de rendre minable tout les aspects de votre vie ou de la sienne sur une discussion sterile de performance hardware. On sait tous au final que plus c’est cher, plus c’est top :D (humour sur la fin pour vous détendre le postérieur)

ceci dit j’ai fait affaire avec @artysm si je ne m abuse, on s’est vu pour un 5950x a l epoque et c’est un gars tout a fait sympa :)
 
Dernière édition:

titoum

OPTC:970342646
Bah ça sert a rien de rendre minable tout les aspects de votre vie ou de la sienne sur une discussion sterile de performance hardware
c'est surtout que par écrit, tu n'as aucune appréciation de comment c'est dit.

apres, je pense que certains sont victimes de moquerie répété et injustifié qui fait que tu es aussi plus vite piqué à vif.

imo nvidia depuis les 10xx a compris que la course a quialaplusgrosse faisaient gagner des sous même sans grosse innovation et du coup pq faire moins de marge.

on le voit bien que certains ne sont pas choqué du peu de vram alors qu'on sait pertinemment que ca va devenir indispensable pour les jeux a venir.
 
Haut