Les rumeurs prétendent que les puces AD102 et Navi 31 pourraient consommer encore plus de 500 W

by Sally

par David Posté le 30 juil. 2021, 19:55:00 email @geektopic Opinion

Les rumeurs prétendent que les puces AD102 et Navi 31 pourraient consommer encore plus de 500 W

Il y a des rumeurs qui surgissent et à la fin je dois en parler car je m’y consacre. L’habituelle sauce rose technologique qui divertit tant les blogueurs et les internautes. Mais il faut toujours les attraper avec une bonne dose de scepticisme, et surtout quand plus que des rumeurs sont des potins, des spéculations de plusieurs rumeurs parlant entre eux après avoir sorti leurs boules de cristal pour prévoir l’avenir des cartes graphiques NVIDIA et AMD. Parfois ils ont raison, d’autres fois ils échouent lamentablement.

J’ai entendu à plusieurs reprises ces derniers jours des rumeurs selon lesquelles la prochaine génération d’AMD et de NVIDIA consommera des quantités folles. Jusqu’à 600 W je suis venu lire, ce qui est scandaleux. S’il y a une chose à laquelle on ne peut échapper, c’est que l’énergie ne se crée ni ne se détruit, elle se transforme, et toute la consommation faite par une carte graphique se transforme en chaleur qu’il faut refroidir.

Ici, il est également pratique de souligner la différence entre la puissance de conception thermique (TDP) et la consommation. Malheureusement, les deux sont mesurés en watts et il y a donc toujours une tendance à laisser tomber des rumeurs étranges, car une carte graphique qui consomme 400 W n’a pas besoin d’un refroidissement TDP de 400 W. Cela peut être plus ou cela peut être moins; généralement, le TDP est donné par rapport au produit fonctionnant à la fréquence de base, comme le fait Intel. Quand les fabricants de cartes graphiques font déjà clairement référence à la consommation, il y a des rumeurs qui continuent de parler du TDP comme s’il s’agissait du même, comme dans les tweets suivants.

amd-navi31-et-nvidia-ad102-tdp-speculation-1.jpg

Pouvez-vous imaginer un refroidissement TDP de 500 W pour un processeur de bureau ? Eh bien maintenant, placez-le sur une carte graphique selon ce que dit le tweet à gauche. Celui-ci fait référence à l’architecture Lovelace de nouvelle génération supposée de NVIDIA. Au moins dans celui de droite, faisant référence à l’architecture RDNA 3, on dit 500 W et là par défaut on pourrait penser à la consommation. Autrement dit, l’architecture la plus performante qui existe actuellement, le RDNA 2, consommerait plus au pas à 5 nm que le RDNA 3. De 300 W du RX 6900 XT à 500 W. Cela compte tenu du fait qu’AMD a promis plus améliorations des performances par watt dans RDNA 3, mais cela pourrait être utilisé pour mettre plus de transistors et le rendre beaucoup plus puissant.

Avec ces consommations qui disent que la chose normale est que même la conception Galax HOF était la norme et que dans certains cas, elle serait insuffisante. Sans oublier qu’ils auraient besoin de quatre connecteurs PCIe à huit broches pour alimenter des cloisons aussi massives. Il convient de garder à l’esprit que les cartes graphiques ont des pics de consommation allant de quelque chose au-dessus à bien au-dessus de la consommation maximale normale. Dans AMD, historiquement, cela a été pire, et continue de l’être, et peut aller de 50 à 100 W au-dessus, voire plus. Dans le cas de NVIDIA, les pics sont généralement plus restreints mais ils existent. Néanmoins, cela doit être correctement anticipé dans le système électrique.

Je ne dis pas qu’AMD et NVIDIA ne vont pas lancer de cartes graphiques de 500 W contre les 300-350 W dont ils disposent actuellement, mais cela me semble très étrange. À moins, bien sûr, que vous vouliez vraiment commencer l’ère du jeu 8K. J’avais déjà dit à l’époque que NVIDIA se concentrerait avec Ampère sur la publicité du jeu en 8K, bien que la réalité l’ait frappé au visage et qu’il ne soit pas si facile de jouer dans la plupart des jeux – et encore moins sans DLSS. Dans la génération suivante, avec une consommation de 500 W, soit deux à trois RTX 3090 ou RX 6900 XT sur une seule carte, jouer en 8K serait tout à fait envisageable. Une autre chose est qu’à une époque où il n’y a presque pas de moniteurs 4K 144Hz sur le marché et encore moins de personnes jouant à cette résolution et à cette fréquence d’images, il est approprié de penser au 8K.

Je prendrais toutes ces rumeurs avec une très forte dose de scepticisme car au final je ne sais pas non plus si les rumeurs sont claires sur ce dont elles parlent. Plusieurs fois, ils ont montré qu’ils ne l’avaient pas. Et en regardant vers l’avenir, quatre ou cinq ans à l’avance, j’imagine que la norme en matière de puissance des cartes graphiques sera quelque chose comme ça :

meme.jpg

Passant par:
Vidardz.

0 comment

Related Articles

Leave a Comment