Votre future carte graphique augmentera votre facture d’électricité

by Jack
consommation d'énergie processeur facture d'éclairage carte graphique

L’une des contraintes de conception matérielle auxquelles les concepteurs de matériel sont confrontés est la consommation d’énergie. On cherche toujours à pouvoir atteindre une certaine performance dans le cadre d’un budget précis. Le problème? Les utilisateurs recherchent toujours la carte graphique qui nous donne le plus grand nombre d’images dans nos jeux préférés, ainsi qu’une meilleure qualité graphique. Ce qui fait que de temps en temps la quantité d’énergie consommée doit augmenter.

Pourquoi votre carte graphique augmentera-t-elle votre facture d’électricité ?

De tous les composants trouvés à l’intérieur de votre ordinateur, celle qui a le plus d’impact sur la facture d’électricité est la carte graphique. Sans surprise, alors que dans le cas d’un processeur central consommant environ 200 W c’est considéré comme exagéré, dans le cas de la carte graphique cela est considéré comme normal. Nous avons même des modèles proches des 400 W et bientôt nous aurons l’utilisation du connecteur ATX12VO ou 12+4 broches qui peut doubler la consommation et donc faire doubler le coût de notre carte graphique.

Le GPU central augmentera sa consommation électrique

Le composant principal de toute carte graphique est son GPU central, qui, comparé à un processeur central aujourd’hui, est composé de dizaines de cœurs et il existe même des cas qui se comptent déjà par centaines. Dans tous les cas, il faut partir de l’idée que générer des graphiques est une tâche qui nécessite un grand parallélisme. Par exemple, si nous devons générer une image en Full HD, nous aurons 2 millions de pixels à traiter simultanément et si nous parlons d’une résolution 4K, la chose monte à 8 millions.

consommation d'énergie processeur facture d'éclairage carte graphique

Parce que chaque pixel ou toute autre primitive graphique pour composer la scène est indépendante du reste, c’est là qu’une conception avec un grand nombre de cœurs devient importante. Bien sûr, avec un budget fixe en termes de consommation d’énergie. Ainsi, d’une génération à l’autre, les ingénieurs d’Intel, d’AMD et de NVIDIA doivent se creuser la tête pour installer plus de cœurs dans le même budget et atteindre des vitesses d’horloge plus élevées. Cela a été possible grâce aux effets de l’adoption d’un nouveau nœud de fabrication, cependant, c’est devenu le facteur limitant et si l’on veut atteindre certains taux de performances, il faut augmenter la consommation des cartes graphiques.

Pour mieux le comprendre, pensez à un quartier de maisons qui sont rénovées de temps en temps. Dans lequel peu à peu le nombre de maisons augmente non seulement, mais sous la même centrale électrique. Le moment viendra où il sera nécessaire de le renouveler afin de fournir de l’électricité à tous.

La VRAM joue également un rôle important

Outre la puce graphique, nous avons une série de puces plus petites qui sont connectées au GPU et qui servent de mémoire pour stocker des données et des instructions. Ce type de mémoire diffère de celles que nous utilisons comme RAM centrale en ce sens qu’elles accordent plus d’importance à la quantité de données qu’elles peuvent transmettre par seconde qu’au temps d’accès aux données. Eh bien, c’est l’un des problèmes de consommation et cela va nous conduire à adopter de grandes mémoires caches au sein de la puce graphique centrale afin de réduire le coût énergétique de l’accès aux données.

Rendu NVIDIA GPU VRAM

Le problème est que les volumes d’informations nécessaires que la carte graphique doit gérer sont si importants qu’il est impossible de placer une telle quantité de mémoire à l’intérieur de la puce. Nous continuons donc à avoir besoin de mémoire externe. Bien que l’objectif à l’avenir soit d’augmenter la taille des caches de dernier niveau jusqu’au point où presque 100% des instructions ont une consommation inférieure à 2 picoJoules par bit transmis. Que consomment les mémoires VRAM ? Eh bien, actuellement 7 picoJoules par bit transmis, mais les choses pourraient aller à 10 à l’avenir.

En tenant compte du fait que la consommation d’énergie, mesurée en watts, est le nombre de Joules par seconde, alors le problème est très clair. De plus, à mesure que la complexité graphique des jeux augmente et avec elle le nombre de cœurs, la bande passante nécessaire augmente également.

Votre facture d’électricité n’augmentera pas autant qu’avec votre future carte graphique

Si vous craignez l’augmentation des factures d’électricité due à votre carte graphique, alors laissez-nous vous rassurer. Seuls les modèles haut de gamme qui seront conçus pour faire tourner des jeux en 4K avec Ray Tracing activé ou avec des fréquences d’images par centaines consommeront plus que les cartes graphiques actuelles et utiliseront donc le nouveau connecteur de 12+4 épingles. Le reste des gammes restera dans les consommations actuelles, qui vont de 75 W à 375 W.

Donc si votre écran a une résolution de 1080p et même de 1440p et que vous cherchez à jouer à des jeux à 60 FPS, alors vous n’avez pas à vous soucier de l’augmentation de la consommation de votre carte graphique. Puisqu’il ne vous sera pas nécessaire d’en acheter un qui consomme 450 W ou plus. Ce sont plutôt les plus enthousiastes, ceux qui veulent des performances maximales à tout prix, qui auront le plus à se soucier de l’augmentation des factures d’électricité.

0 comment

Related Articles

Leave a Comment