Cartes AMD NAVI: la renaissance continue

[ KL3R ]

#belgium
Et c’est possible qu’AMD présente sa carte milieu de gamme (équivalente à la supposée 3060 (Ti))?
 
Ce sera probablement présenté/teasé mais dispo début 2021. Il n'y aura que les deux haut de gammes de dispo en 2020 (6800 et 6900)
 

brussli

Elite
Je bosse avec du deep learning donc je suis obligé d'avoir du Nvidia, dommage si AMD sort mieux que Nvidia mais je suis quand même bloqué quoiqu'il arrive. :D
Intéressant, tu bosses dans quoi / sur quoi ?
 

ailless

Asimov, Sagan, Carlin, Hitchens
Intéressant, tu bosses dans quoi / sur quoi ?
Au boulot, j'ai plusieurs rôles donc j'ai un projet principal computer vision sur des edge devices avec le reste d'infra sur AWS et d'autres projets principalement sur du dev backend Java, du cloud sur AWS et tout ce qui est data lake toujours sur AWS.

Et chez moi, je me tiens principalement à jour en Computer Vision et NLP vu que c'est les 2 types de machine learning qu'on fait au boulot.
 

brussli

Elite
Au boulot, j'ai plusieurs rôles donc j'ai un projet principal computer vision sur des edge devices avec le reste d'infra sur AWS et d'autres projets principalement sur du dev backend Java, du cloud sur AWS et tout ce qui est data lake toujours sur AWS.

Et chez moi, je me tiens principalement à jour en Computer Vision et NLP vu que c'est les 2 types de machine learning qu'on fait au boulot.

En quoi les cartes d'AMD ne permettraient pas ce taff?
 
M

Membre supprimé 9408

ex membre
Je n'ai aucun doute, elles seront rapides, je me pose juste des questions sur le ray-tracing.
Ce sont les premières cartes avec cette technologie, donc pas mal de réglages en perspective ?
 

ailless

Asimov, Sagan, Carlin, Hitchens
En quoi les cartes d'AMD ne permettraient pas ce taff?
Les principales libs utilisées pour faire du DL sont pytorch et tensorflow (il y en a plein d'autres évidemment mais pytorch&TF sont les plus connues) et elles ne supportent pas les GPU AMD. Nvidia a une grosse longueur d'avance sur ce sujet vu que toutes les libs supportent CUDA et CUDnn (les libs pour intéragir avec le GPU).

Je suppose que tu peux utiliser des GPU AMD pour faire du deep learning mais c'est se tirer une balle dans le pied par rapport à Nvidia point de vue support.

Lorsque toutes les libs principales supporteront les GPU AMD avec la même performance qu'une carte Nvidia via CUDA, ça ne sera plus un problème mais on en est loin.
 

brussli

Elite
Les principales libs utilisées pour faire du DL sont pytorch et tensorflow (il y en a plein d'autres évidemment mais pytorch&TF sont les plus connues) et elles ne supportent pas les GPU AMD. Nvidia a une grosse longueur d'avance sur ce sujet vu que toutes les libs supportent CUDA et CUDnn (les libs pour intéragir avec le GPU).

Je suppose que tu peux utiliser des GPU AMD pour faire du deep learning mais c'est se tirer une balle dans le pied par rapport à Nvidia point de vue support.

Lorsque toutes les libs principales supporteront les GPU AMD avec la même performance qu'une carte Nvidia via CUDA, ça ne sera plus un problème mais on en est loin.
Merci pour ton explication, j'y vois plus clair
 
Trop la hype. J'espère ne pas tomber de haut comme avec vega ahahaha
 
  • J'aime
Les réactions: THiBOo

b3nSs

Elite
On va voir ce soir mais moi normalement je vais me prendre une RTX 3060 (surement la ti ) mais si AMD peu proposer quelque chose aussi bien avec un bon prix pourquoi !

Dans tous les cas il me faut un nouveau GPU cette année :) .
 
Haut