krizzeur
Elite
J'espère pouvoir commander une sapphire XT le 6 perso 
ATI X850pro poweeerrrrAMD Radeon RX 9070 XT leads over non-XT model in China preorders - VideoCardz.com & préco toujours ouverte au prix MSRP.
Dommage que les constructeurs n'ont pas de eshop en EU.
Bref il y a du stock & il n'y aura pas de scalper : )
Je suppose que les RX 9070 sont des gpu avec des CU deffect/désactivé, ce serait trop beau de pouvoir flash les bios et avoir une 9070 XT comme il y a quelques années : p
& pourtant énormément de dev se tournent vers AMD car ça c'est grandement amélioré.Franchement, c'est dommage qu'AMD ne soit toujours pas une vraie alternative à NVIDIA pour bosser sur des modèles d'IA. Les RX 9070XT ont un super rapport perf/prix, mais le problème, c'est pas juste le matos. CUDA est tellement ancré dans l'écosystème que TensorFlow, PyTorch et compagnie tournent direct dessus sans prise de tête. De l'autre côté, ROCm d'AMD est encore trop galère à installer, avec une compatibilité bancale et moins d'optimisation. Si AMD veut vraiment peser dans l'IA, va falloir qu'ils mettent le paquet sur le support logiciel, sinon ça restera un no-go pour pas mal de devs.
On va attendre les prix et les test des modèles 16pin même si j'ai démonté ma nitro+ et été agréablement surpris, le 16pin serait totalement safeQuel est le modèle à privilégier. Niveau qualité globale ? Red Devil powercolor oc proutprout édition ?
Ma question est sérieuse![]()
Bah depuis toujours et ça fonctionne avec tous les GPU.Attends on peut combiner 2 9070xt ?
C'est vrai qu'AMD a fait des progrès, et le support de ROCm s'est bien amélioré, surtout sur Linux. Mais il y a encore un gros écart avec CUDA en termes de facilité d'installation, de compatibilité et d'optimisation.& pourtant énormément de dev se tournent vers AMD car ça c'est grandement amélioré.
pourtant ça semble marcher pour les 50xxon achète un produit, pas des promesses
N'importe quoi.De toute façon un dev ne va pas acheter un produit avec l’espoir que ça va marcher un jour. Faut que ça fonctionne dès le début sous peine de perte de temps donc d’argent
Ca devrait être de même pour les joueurs mais il y a pas de notion d’argent à perdre
on achète un produit, pas des promesses
alors comme ça tu fais du deep fake porn ?N'importe quoi.
T'es même pas dev et t'écris ça..
Ah bah là ceux qui achètent des 50XX, ils achètent des black screen et des artefacts c'est top(toujours pas corrigé)
Et crois moi que l'IA avec AMD fonctionne directement, J'ai justement un setup avec 8 7900 XTX et ras ça tourne impecc sous Linux(un 2e avec 6 4090) & même W11.
L'IA sur les 9070 XT fonctionnent déjà.
J'ai peur d'upgrade pour 6 5090 alors que j'ai les 6 5090 ... (en même temps 3600W ..., même si j'ai 2 alim seasonic de 2300W)
Non désolé je ne parlerai pas de ces projets ici ou en MP, bien trop complexe.
J'ai plusieurs IA locale et les IA dispo sur le net sont ridicule, limitée et censurée.
Je vais pas me faire des amis mais je répondrai que les dev qui veulent qqch de plug and play sont juste des mauvais dev. (Coucou ceux qui utilisent des IA sur le net : p )
Setup tout ça sur de l'AMD ça prend juste quelques minutes en plus
Bah d'ailleurs les chinois sont entrain d'acheter des 9070 XT en masse pour l'ia. Alors qu'elles n'ont que 16GB.
Après entre une 5080 vendue à 1800-2200€+ et les 9070 XT dispo à 679€, il y a pas photo, pour le prix d'une seule 5080 on a une puissance de calcule monstrueuse avec 3 9070 XT.
Je suis d'accord qu'AMD progresse, et clairement, en termes de perf brute et de coût, ils ont des arguments. Mais le problème principal, ce n'est pas la puissance, c'est l'écosystème logiciel. Beaucoup de devs veulent juste une solution qui marche sans bidouille. C'est pas une question d'être un 'mauvais dev', c'est juste une question de pragmatisme. Les entreprises et les indépendants n'ont pas forcément le temps de passer des heures à optimiser un setup ROCm quand CUDA tourne direct. Ça évolue, mais AMD a encore du chemin à faire pour que ce soit une vraie alternative plug-and-play. Après, si quelqu'un est prêt à s'investir, oui, AMD peut être une option viable sous Linux.N'importe quoi.
T'es même pas dev et t'écris ça..
Ah bah là ceux qui achètent des 50XX, ils achètent des black screen et des artefacts c'est top(toujours pas corrigé)
Et crois moi que l'IA avec AMD fonctionne directement, J'ai justement un setup avec 8 7900 XTX et ras ça tourne impecc sous Linux(un 2e avec 6 4090) & même W11.
L'IA sur les 9070 XT fonctionnent déjà.
J'ai peur d'upgrade pour 6 5090 alors que j'ai les 6 5090 ... (en même temps 3600W ..., même si j'ai 2 alim seasonic de 2300W)
Non désolé je ne parlerai pas de ces projets ici ou en MP, bien trop complexe.
J'ai plusieurs IA locale et les IA dispo sur le net sont ridicule, limitée et censurée.
Je vais pas me faire des amis mais je répondrai que les dev qui veulent qqch de plug and play sont juste des mauvais dev. (Coucou ceux qui utilisent des IA sur le net : p )
Setup tout ça sur de l'AMD ça prend juste quelques minutes en plus
Bah d'ailleurs les chinois sont entrain d'acheter des 9070 XT en masse pour l'ia. Alors qu'elles n'ont que 16GB.
Après entre une 5080 vendue à 1800-2200€+ et les 9070 XT dispo à 679€, il y a pas photo, pour le prix d'une seule 5080 on a une puissance de calcule monstrueuse avec 3 9070 XT.
si tu l'es, vu ce que tu écris c'est bien triste.Je me suis arrêté t’es même pas dev
J'avoue avoir essayé pendant un moment : palors comme ça tu fais du deep fake porn ?
![]()
Acheter des promesses, c'est un pari. Parfois ça paye, parfois non. Mais dans le cadre d'un dev qui veut bosser efficacement, on parle pas d'investissement spéculatif, juste d'un outil qui fonctionne directement. On n'a pas tous envie de 'parier' sur un setup qui peut demander du temps et de l'optimisation en espérant qu'il devienne au niveau de la concurrence. C'est pas une question d'être un produit, c'est une question d'efficacité.si tu l'es, vu ce que tu écris c'est bien triste.
" on achète un produit, pas des promesses "
C'est quoi cette mentalité ?
SI j'avais pensé ça avec l'IA il y a quelques années, aujourd'hui je n'aurai pas une dizaine de 7900 XTX, 4090, 5090, 9070 XT à coté de moi : p
Ou encore avec les cryptos ...
& tu vois ça fait des années que j'achètes des promesses, oh wait ... (roh là en ... 24h)
Enfin bref je vais pas parler de ça ici ça sert à rien, continuez à être des produits & n'achetez jamais des promesses, ça sert à rien.
Je ne comprends même pas de quoi tu veux parler par "choix".Acheter des promesses, c'est un pari. Parfois ça paye, parfois non. Mais dans le cadre d'un dev qui veut bosser efficacement, on parle pas d'investissement spéculatif, juste d'un outil qui fonctionne directement. On n'a pas tous envie de 'parier' sur un setup qui peut demander du temps et de l'optimisation en espérant qu'il devienne au niveau de la concurrence. C'est pas une question d'être un produit, c'est une question d'efficacité.
Je ne sais pas si ça sert à quelque chose d'alimenter le sujet. Ceux qui veulent une solution clé en main continueront avec CUDA, ceux qui aiment expérimenter peuvent tenter AMD. Chacun son choix.
Après "dev" c'est vaste comme tu dis : pC'est marrant parce que je suis moi-même dev et j'en ai absolument rien à battre des GPU pour l'IA.
A vous lire, 100% des devs bossent sur des projets qui utilisent des modèles IA privés pour lesquels ils faut 26 GPU.
Le monde du dev est vaste hein, on a pas tous ni besoin, ni un avis sur ce type de questions![]()
Pour windows t'as raisons mais suffit d'apprendre à utiliser Linux, problem solved : pPS : Acheter un GPU NVIDIA, ce n'est pas "jeter son argent". Tout le monde ne se limite pas au gaming, et en IA, le choix du matériel va bien au-delà des specs brutes. Perf, compatibilité, écosystème… tout compte. Rien n'est tout noir ou tout blanc, la réalité est souvent plus nuancée.
J'aime débattre, car je ne connais pas tout, et j'aime apprendre.