Cartes AMD NAVI: la renaissance continue

krizzeur

Elite
J'espère pouvoir commander une sapphire XT le 6 perso ^^
 
Quel est le modèle à privilégier. Niveau qualité globale ? Red Devil powercolor oc proutprout édition ?
Ma question est sérieuse :D
 

Goforce

Hardcore Gamer
Franchement, c'est dommage qu'AMD ne soit toujours pas une vraie alternative à NVIDIA pour bosser sur des modèles d'IA. Les RX 9070XT ont un super rapport perf/prix, mais le problème, c'est pas juste le matos. CUDA est tellement ancré dans l'écosystème que TensorFlow, PyTorch et compagnie tournent direct dessus sans prise de tête. De l'autre côté, ROCm d'AMD est encore trop galère à installer, avec une compatibilité bancale et moins d'optimisation. Si AMD veut vraiment peser dans l'IA, va falloir qu'ils mettent le paquet sur le support logiciel, sinon ça restera un no-go pour pas mal de devs.
& pourtant énormément de dev se tournent vers AMD car ça c'est grandement amélioré.

Les 7900 XTX a 1250-1600$ se vendent comme des petits pains et les prix augmentent globalement en EU.

La 9070 XT restera meilleur pour un utilisateur normal mais son manque de vram fait que les stocks de 7900 XTX diminuent plus vite que prévu ...

Je reste persuadé que AMD finira par release une "9700 XTX 32GB" orientée IA mais que son prix sera aussi bcp plus élevé, genre 999$.

AMD reste meilleur en perf/prix et de loin, pour le prix d'une seule 5090 tu peux avoir 6-7 9070 XT fonctionnant ensemble ... ou 4 7900 XTX.

Me parlez pas de conso, on s'en fout ^^

Quel est le modèle à privilégier. Niveau qualité globale ? Red Devil powercolor oc proutprout édition ?
Ma question est sérieuse :D
On va attendre les prix et les test des modèles 16pin même si j'ai démonté ma nitro+ et été agréablement surpris, le 16pin serait totalement safe ;)

Comme quoi NVIDIA ce sont vraiment des guignols avec leurs restrictions à la con pour les AIB, restrictions qui mettent directement en dangé les acheteurs.
 

Goforce

Hardcore Gamer


:cool:

---

@stock les 9070 XT "oc" = avec tbp de 340W peuvent dépasser les 3250mhz en boost IG.

>3300mhz largement dépassé aisément.

En sachant que RDNA 4 est + de 2X performant que RDNA 3 en RT ... (& nativement)

Elle est du niveau de la RTX 5080 et même plus, sur quelques jeux dont COD6.
 
Dernière édition:

Saga

Et à propos de vieille truie, toi comment ça va ?
Attends on peut combiner 2 9070xt ?
 

Goforce

Hardcore Gamer
Attends on peut combiner 2 9070xt ?
Bah depuis toujours et ça fonctionne avec tous les GPU.

Il y a même des entreprises qui vendent des setup complet avec X gpu : TinyCorp's "TinyBox" AI Systems Hit Retail, AMD RX 7900 XTX Starting at $15K & NVIDIA RTX 4090 Starting at $25K

Pour les jeux, ça fonctionne aussi avec ceux où le "MGPU" à été activé (dispo sur DX12 & vulkan ...)

Mais les dev le font rarement, ce qui est totalement débile car ça fonctionne super bien.

Faut trouver la liste des jeux où ça fonctionne. (je sais même pas si il y a des jeux récent dedans : p )
 

DoWer37

Elite
& pourtant énormément de dev se tournent vers AMD car ça c'est grandement amélioré.
C'est vrai qu'AMD a fait des progrès, et le support de ROCm s'est bien amélioré, surtout sur Linux. Mais il y a encore un gros écart avec CUDA en termes de facilité d'installation, de compatibilité et d'optimisation.

AMD a récemment introduit un support officiel de ROCm pour Windows, ce qui est un vrai pas en avant. Mais en pratique, l'intégration reste incomplète, notamment avec des frameworks comme PyTorch, qui ne bénéficie pas encore d'un support officiel ROCm sous Windows. Ça signifie que, même si on peut techniquement utiliser des GPU AMD sous Windows pour de l'IA, c'est loin d'être aussi fluide et performant que CUDA.

Donc oui, AMD progresse et devient plus intéressant, mais pour beaucoup de devs qui veulent juste une solution qui marche sans prise de tête, NVIDIA reste le choix par défaut. J'espère qu'AMD va continuer à bosser sur le support logiciel, parce qu'avoir une vraie alternative, ça serait top pour tout le monde.
 

artysm

Elite
De toute façon un dev ne va pas acheter un produit avec l’espoir que ça va marcher un jour. Faut que ça fonctionne dès le début sous peine de perte de temps donc d’argent

Ca devrait être de même pour les joueurs mais il y a pas de notion d’argent à perdre

on achète un produit, pas des promesses
 
Dernière édition:

Goforce

Hardcore Gamer
De toute façon un dev ne va pas acheter un produit avec l’espoir que ça va marcher un jour. Faut que ça fonctionne dès le début sous peine de perte de temps donc d’argent

Ca devrait être de même pour les joueurs mais il y a pas de notion d’argent à perdre

on achète un produit, pas des promesses
N'importe quoi.

T'es même pas dev et t'écris ça.. 🤣

Ah bah là ceux qui achètent des 50XX, ils achètent des black screen et des artefacts c'est top 🤣 (toujours pas corrigé)

Et crois moi que l'IA avec AMD fonctionne directement, J'ai justement un setup avec 8 7900 XTX et ras ça tourne impecc sous Linux ;) (un 2e avec 6 4090) & même W11.

L'IA sur les 9070 XT fonctionnent déjà.

J'ai peur d'upgrade pour 6 5090 alors que j'ai les 6 5090 ... (en même temps 3600W ..., même si j'ai 2 alim seasonic de 2300W)

Non désolé je ne parlerai pas de ces projets ici ou en MP, bien trop complexe.

J'ai plusieurs IA locale et les IA dispo sur le net sont ridicule, limitée et censurée.


Je vais pas me faire des amis mais je répondrai que les dev qui veulent qqch de plug and play sont juste des mauvais dev. (Coucou ceux qui utilisent des IA sur le net : p )

Setup tout ça sur de l'AMD ça prend juste quelques minutes en plus 🧐

Bah d'ailleurs les chinois sont entrain d'acheter des 9070 XT en masse pour l'ia. Alors qu'elles n'ont que 16GB.

Après entre une 5080 vendue à 1800-2200€+ et les 9070 XT dispo à 679€, il y a pas photo, pour le prix d'une seule 5080 on a une puissance de calcule monstrueuse avec 3 9070 XT.
 

artysm

Elite
Je me suis arrêté t’es même pas dev
 

Saga

Et à propos de vieille truie, toi comment ça va ?
N'importe quoi.

T'es même pas dev et t'écris ça.. 🤣

Ah bah là ceux qui achètent des 50XX, ils achètent des black screen et des artefacts c'est top 🤣 (toujours pas corrigé)

Et crois moi que l'IA avec AMD fonctionne directement, J'ai justement un setup avec 8 7900 XTX et ras ça tourne impecc sous Linux ;) (un 2e avec 6 4090) & même W11.

L'IA sur les 9070 XT fonctionnent déjà.

J'ai peur d'upgrade pour 6 5090 alors que j'ai les 6 5090 ... (en même temps 3600W ..., même si j'ai 2 alim seasonic de 2300W)

Non désolé je ne parlerai pas de ces projets ici ou en MP, bien trop complexe.

J'ai plusieurs IA locale et les IA dispo sur le net sont ridicule, limitée et censurée.


Je vais pas me faire des amis mais je répondrai que les dev qui veulent qqch de plug and play sont juste des mauvais dev. (Coucou ceux qui utilisent des IA sur le net : p )

Setup tout ça sur de l'AMD ça prend juste quelques minutes en plus 🧐

Bah d'ailleurs les chinois sont entrain d'acheter des 9070 XT en masse pour l'ia. Alors qu'elles n'ont que 16GB.

Après entre une 5080 vendue à 1800-2200€+ et les 9070 XT dispo à 679€, il y a pas photo, pour le prix d'une seule 5080 on a une puissance de calcule monstrueuse avec 3 9070 XT.
alors comme ça tu fais du deep fake porn ?
:D
 

DoWer37

Elite
N'importe quoi.

T'es même pas dev et t'écris ça.. 🤣

Ah bah là ceux qui achètent des 50XX, ils achètent des black screen et des artefacts c'est top 🤣 (toujours pas corrigé)

Et crois moi que l'IA avec AMD fonctionne directement, J'ai justement un setup avec 8 7900 XTX et ras ça tourne impecc sous Linux ;) (un 2e avec 6 4090) & même W11.

L'IA sur les 9070 XT fonctionnent déjà.

J'ai peur d'upgrade pour 6 5090 alors que j'ai les 6 5090 ... (en même temps 3600W ..., même si j'ai 2 alim seasonic de 2300W)

Non désolé je ne parlerai pas de ces projets ici ou en MP, bien trop complexe.

J'ai plusieurs IA locale et les IA dispo sur le net sont ridicule, limitée et censurée.


Je vais pas me faire des amis mais je répondrai que les dev qui veulent qqch de plug and play sont juste des mauvais dev. (Coucou ceux qui utilisent des IA sur le net : p )

Setup tout ça sur de l'AMD ça prend juste quelques minutes en plus 🧐

Bah d'ailleurs les chinois sont entrain d'acheter des 9070 XT en masse pour l'ia. Alors qu'elles n'ont que 16GB.

Après entre une 5080 vendue à 1800-2200€+ et les 9070 XT dispo à 679€, il y a pas photo, pour le prix d'une seule 5080 on a une puissance de calcule monstrueuse avec 3 9070 XT.
Je suis d'accord qu'AMD progresse, et clairement, en termes de perf brute et de coût, ils ont des arguments. Mais le problème principal, ce n'est pas la puissance, c'est l'écosystème logiciel. Beaucoup de devs veulent juste une solution qui marche sans bidouille. C'est pas une question d'être un 'mauvais dev', c'est juste une question de pragmatisme. Les entreprises et les indépendants n'ont pas forcément le temps de passer des heures à optimiser un setup ROCm quand CUDA tourne direct. Ça évolue, mais AMD a encore du chemin à faire pour que ce soit une vraie alternative plug-and-play. Après, si quelqu'un est prêt à s'investir, oui, AMD peut être une option viable sous Linux.
 

Goforce

Hardcore Gamer
Je me suis arrêté t’es même pas dev
si tu l'es, vu ce que tu écris c'est bien triste.

" on achète un produit, pas des promesses "

C'est quoi cette mentalité ?

SI j'avais pensé ça avec l'IA il y a quelques années, aujourd'hui je n'aurai pas une dizaine de 7900 XTX, 4090, 5090, 9070 XT à coté de moi : p

Ou encore avec les cryptos ... ☠

& tu vois ça fait des années que j'achètes des promesses, oh wait ... (roh là en ... 24h 🤑💲)

Enfin bref je vais pas parler de ça ici ça sert à rien, continuez à être des produits & n'achetez jamais des promesses, ça sert à rien.

alors comme ça tu fais du deep fake porn ?
:D
J'avoue avoir essayé pendant un moment : p

Ils n'y voyaient que du feu sur OF :D

Tu n'imagines même pas le nombre de comptes OF/X/etc... qui sont 100% généré par de l'IA et qui ont plus de 2000 abonnés @ ~5-18$/mois. (& c'est juste des photos hein ^^ )

Mais c'est dangereux et je suis contre l'utilisation de l'IA pour faire ça ... (utilisé dans le but de nuire, on peut trop facilement faire du mal à n'importe qui)

Ce qu'on faisait avec photoshop avant en plusieurs dizaines de minutes, maintenant on le fait en 1-2s ... & c'est 100X + réaliste.

Je peux générer des centaines de photos par minutes ...

Aujourd'hui je me sers de l'IA pour absolument tout, c'est clairement devenue une extension de moi même ^^ (& clairement merci aux GPU, que ce soit AMD ou NVIDIA ! : p )

---

AMD & leurs partenaires vont bien évidemment maj tous les outils lié à l'IA pour RDNA4.

Grosse maj de prévue pour TOPAZ :love:, LLM, DAVINCI etc...
 
  • Haha
Les réactions: Saga

DoWer37

Elite
si tu l'es, vu ce que tu écris c'est bien triste.

" on achète un produit, pas des promesses "

C'est quoi cette mentalité ?

SI j'avais pensé ça avec l'IA il y a quelques années, aujourd'hui je n'aurai pas une dizaine de 7900 XTX, 4090, 5090, 9070 XT à coté de moi : p

Ou encore avec les cryptos ... ☠

& tu vois ça fait des années que j'achètes des promesses, oh wait ... (roh là en ... 24h 🤑💲)

Enfin bref je vais pas parler de ça ici ça sert à rien, continuez à être des produits & n'achetez jamais des promesses, ça sert à rien.
Acheter des promesses, c'est un pari. Parfois ça paye, parfois non. Mais dans le cadre d'un dev qui veut bosser efficacement, on parle pas d'investissement spéculatif, juste d'un outil qui fonctionne directement. On n'a pas tous envie de 'parier' sur un setup qui peut demander du temps et de l'optimisation en espérant qu'il devienne au niveau de la concurrence. C'est pas une question d'être un produit, c'est une question d'efficacité.

Je ne sais pas si ça sert à quelque chose d'alimenter le sujet. Ceux qui veulent une solution clé en main continueront avec CUDA, ceux qui aiment expérimenter peuvent tenter AMD. Chacun son choix.
 

Goforce

Hardcore Gamer
Acheter des promesses, c'est un pari. Parfois ça paye, parfois non. Mais dans le cadre d'un dev qui veut bosser efficacement, on parle pas d'investissement spéculatif, juste d'un outil qui fonctionne directement. On n'a pas tous envie de 'parier' sur un setup qui peut demander du temps et de l'optimisation en espérant qu'il devienne au niveau de la concurrence. C'est pas une question d'être un produit, c'est une question d'efficacité.

Je ne sais pas si ça sert à quelque chose d'alimenter le sujet. Ceux qui veulent une solution clé en main continueront avec CUDA, ceux qui aiment expérimenter peuvent tenter AMD. Chacun son choix.
Je ne comprends même pas de quoi tu veux parler par "choix".

Je ne connais absolument AUCUN dev qui n'ont pas les 2 marques. (& encore pas mal ont les 3 constructeurs avec de l'INTEL aussi)

J'ai l'impression que tu parles d'utilisateurs lambda qui veulent s'essayer à l'IA en achetant un seul GPU mais pas à des DEV confirmé ...

Pas besoin d'expérimenter avec AMD & d'ailleurs des setup à base de 7900 XTX surpassent de très loin l'efficacité des setup avec des 4090 sur pas mal de choses.

Le prix des 7900 XTX n'est pas entrain d'augmenter pour rien depuis quelques semaines ;) Les GPU ne sont pas acheté par des joueurs ... :oops:

Après libre à chacun de s'acheter un setup avec une 5090 a 5000€ & sois-disant "plug and play" (enfin là c'est plutôt "plug and black screen") au lieu d'un setup avec 6 7900 XTX a 6000-7000€ bcp plus efficace ;)

Comparer l'efficacité d'1 seul GPU n'a aucun sens.

Je me demande bien où tu as vu que AMD était largué en IA et qu'il fallait expérimenter ?, enfin soit ...


Si vous voulez parler d'IA sur les GPU vous pouvez créer un thread, je n'y participerai pas ceci dit ^^ (ce sera ma dernière intervention sur le sujet dans ce thread)
 

DoWer37

Elite
Je ne sais pas ce que font les devs que tu connais. Oui, certains utilisent AMD, sinon ROCm n'évoluerait pas. Mais pour être en contact avec des chercheurs en IA et étant moi-même dans ces études, NVIDIA reste le choix par défaut, surtout pour l'entraînement.

Et je pense qu'il y a une confusion entre inférence et entraînement. Oui, AMD progresse, et avec l'arrivée des RX 9070/9070 XT, ça va encore bouger, surtout vu leur perf/prix. Mais le problème principal reste l'écosystème logiciel.

  • ROCm sur Windows, c'est encore limité
AMD a bien introduit un support officiel via le HIP SDK, mais ce n'est pas un équivalent 1:1 de ROCm sous Linux. Certaines libs restent absentes, et PyTorch n'a toujours pas de support officiel natif sous Windows. En pratique, ça veut dire que ceux qui veulent du ROCm sous Windows doivent encore jongler avec des solutions pas toujours optimales.

  • Single-GPU vs Multi-GPU : une question de contexte
Dire que "comparer un seul GPU n'a pas de sens", c'est faux. Tout dépend du contexte.
- Prototypage : En local, beaucoup de devs bossent sur un seul GPU pour tester leurs modèles avant d'envoyer l'entraînement final sur des serveurs ou du cloud.
- Entraînement multi-GPU : Oui, un setup multi-7900 XTX peut être performant, mais uniquement si le framework sait bien gérer le multi-GPU.

NVIDIA et AMD utilisent tous les deux le PCIe pour la communication entre GPU sur leurs cartes grand public (RTX 4090, 5090, RX 7900 XTX…). NVLink n'existe que sur les GPU pro (A100, H100, RTX 6000 Ada…) et offre un vrai gain pour l'entraînement multi-GPU.

Problème pour AMD : ROCm gère encore mal la répartition de la charge entre plusieurs GPU sur certains workloads, ce qui peut entraîner une moins bonne scalabilité qu'avec CUDA.
Optimiser un setup multi-GPU AMD demande du temps et de la maîtrise. Or, dans un cadre pro ou recherche, l'objectif n'est pas de passer des heures à tuner son setup, mais d'avoir des résultats rapidement. Et c'est là que CUDA et NVIDIA ont une énorme avance.


  • L'adoption en entreprise et en recherche
Le local, c'est du prototypage. En général, l'entraînement se fait sur des serveurs avec des A100, H100 ou sur du cloud (AWS, Google, Azure… qui tournent sur CUDA).
Les entreprises veulent de la stabilité et de la compatibilité avec leurs infrastructures. CUDA est mature, supporté nativement par PyTorch, TensorFlow, JAX, DeepSpeed, et tout l'écosystème IA. ROCm évolue, mais il y a encore un écart.


Si quelqu'un est prêt à investir du temps et à optimiser son setup, AMD peut être une alternative (surtout sous Linux). Mais pour un dev qui veut prototyper efficacement, avec une compatibilité immédiate avec les serveurs et le cloud, NVIDIA reste le choix naturel. Et ce n'est pas une question de "bons" ou "mauvais" devs, c'est juste une question de pragmatisme et d'efficacité.

PS : Acheter un GPU NVIDIA, ce n'est pas "jeter son argent" ;). Tout le monde ne se limite pas au gaming, et en IA, le choix du matériel va bien au-delà des specs brutes. Perf, compatibilité, écosystème… tout compte. Rien n'est tout noir ou tout blanc, la réalité est souvent plus nuancée. :rolleyes: J'aime débattre, car je ne connais pas tout, et j'aime apprendre.
 

Nov

You died
C'est marrant parce que je suis moi-même dev et j'en ai absolument rien à battre des GPU pour l'IA.

A vous lire, 100% des devs bossent sur des projets qui utilisent des modèles IA privés pour lesquels ils faut 26 GPU.

Le monde du dev est vaste hein, on a pas tous ni besoin, ni un avis sur ce type de questions :rolleyes:
 

Goforce

Hardcore Gamer
C'est marrant parce que je suis moi-même dev et j'en ai absolument rien à battre des GPU pour l'IA.

A vous lire, 100% des devs bossent sur des projets qui utilisent des modèles IA privés pour lesquels ils faut 26 GPU.

Le monde du dev est vaste hein, on a pas tous ni besoin, ni un avis sur ce type de questions :rolleyes:
Après "dev" c'est vaste comme tu dis : p

Je parlais principalement de "dev en jv & training ia" perso.

& ceux qui font masse training achètent souvent des setup préconfig peu importe la marque pour leurs besoins. (donc rien à paramétrer)

Je voulais pas spécialement parler de l'IA sur ce thread d'où ma dernière phrase après voilà vous me connaissez ... :cool:

PS : Acheter un GPU NVIDIA, ce n'est pas "jeter son argent" ;). Tout le monde ne se limite pas au gaming, et en IA, le choix du matériel va bien au-delà des specs brutes. Perf, compatibilité, écosystème… tout compte. Rien n'est tout noir ou tout blanc, la réalité est souvent plus nuancée. :rolleyes: J'aime débattre, car je ne connais pas tout, et j'aime apprendre.
Pour windows t'as raisons mais suffit d'apprendre à utiliser Linux, problem solved : p
On va laisser ce thread pour parler des perf en jeux ou limite de l'IA avec le FSR & AFMF & RT ^^

Pour l'instant acheter une 50XX clairement si c'est jeter son argent.
En plus que les prix soient bien trop élevé, il y a bcp trop de problèmes hardware & SURTOUT softwares.

Vaut mieux acheter des 40XX neuve ou d'occas ;)

Je voulais vendre mes 20XX/30XX/40XX en partie mais je vais les garder encore un peu (je vais en remplacer pas mal pas des 9070 déjà ^^)

& clairement perso j'ai peur de mettre 6 5090 côte à côte même sur 2 alim différentes de 2300W... sans surveillance, surtout que j'ai des V1 quoi, qui dépassent 10A sur les pin ...

Pourtant j'ai hate d'acheter la B6000 96GB pour remplacer mes 2 A6000 48GB.

Je n'ai jamais été déçu par les modèles pro, c'est moche pour les joueurs mais je suis certains que les B6000 n'auront aucun problèmes ... (je vois bien les B6000 avoir 2*16pin et avec tous les shunts/résistances nécessaire)

---

XFX launches first dual-fan Radeon RX 9070 XT graphics card - VideoCardz.com

eb5895025c.jpg


Les modèles XFX ^^

Tous les modèles en 3*8pin auront 340W de TBP par défaut & ils recommandent des alim @800W. (~374-391W max avec +10-+15% TDP)
 
Haut