HardZone – ¿Quién tiene las GPU más eficientes en consumo? ¿NVIDIA o AMD?

Una forma de medir el rendimiento de las diferentes tarjetas gráficas es medir la eficiencia energética que estas tienen, donde para hacerlo se hace uso de los llamados fotogramas por julio. Lo cual nos permite saber las tendencias evolutivas y por lo tanto ver cómo escalan por generación y arquitectura para comparar no solamente su rendimiento, sino su eficiencia en consumo. ¿Qué pueden hacer NVIDIA y AMD? ¿Cuál es más eficiente actualmente?

Una de las mayores preocupaciones de los diseñadores de nuevas GPU y por tanto de tarjetas gráficas es el consumo energético, ya que la interfaz PCI Express trae consigo limitaciones en cuanto al límite de energía que pueden transmitir. Esto se agrava si tenemos en cuenta que el consumo energético para lograr el mayor ancho de banda de la VRAM, medido por picojulios por bit transmitido, es cada vez más grande y por tanto deja al procesador que domina el hardware gráfico con cada vez menos margen en el lado energético.

Es por ello que el desafío de los tres principales fabricantes de hardware gráfico: Intel, AMD y NVIDIA; ya no es el hecho de diseñar siempre nuevas GPU que sean las que más píxeles dibujen en pantalla, más polígonos calculen o más TFLOPS, sino que buscan sacar el máximo rendimiento posible con cada vez menos energía disponible.

¿Qué son los fotogramas por julio?

Si hablamos del delta en eficiencia energética entre dos tarjetas gráficas, entonces necesitamos comparar el mismo juego funcionando bajo las mismas condiciones en ambos en cuanto a configuración gráfica y resolución. De tal manera que ambas saquen exactamente la misma imagen y podamos medir el rendimiento de cada una según la velocidad a la que saquen los fotogramas, siendo obviamente la que renderice más frames la ganadora.

A partir de dos conceptos como son los fotogramas por segundo y los vatios, que no son otra cosa que julios por segundo, podemos sacar los julios por fotograma. Como es obvio, la tarjeta gráfica que consuma menos julios a la hora de generar un frame será la que será más eficiente energéticamente bajo dicho juego.

¿Cómo se miden los fotogramas por julio de una tarjeta gráfica? La forma de hacerlo es muy sencilla, solo tenemos que dividir el consumo de la tarjeta gráfica entre la cantidad de fotogramas por segundo que esta obtiene y así de una forma sencilla se obtiene el rendimiento energético de cada GPU en concreto.

La mejor manera de medir la eficiencia energética

Pero, ¿acaso no es mucho mejor comparar las especificaciones técnicas de dos tarjetas gráficas sobre el papel? En realidad no, ya que las cifras que se dan son máximos teóricos que solo se pueden dar en condiciones ideales que, en el 99.9 %, por una cosa u otra no se cumplen. No olvidemos que a la hora de generar un fotograma la CPU es también importante, elemento que debe ser igual en toda comparativa, así como la velocidad de la memoria RAM.

Es por ello que es más eficiente comparar dos GPU entre sí en un escenario real. Además esto nos permite encontrar los cuellos de botella dentro de un mismo hardware y saber si esta se encuentra limitada por ancho de banda de la VRAM o por capacidad de cálculo del propio procesador gráfico.

Fotogramas por julio y nuevas arquitecturas

En la actualidad, todo procesador gráfico para PC funciona a velocidad variable, esto significa que dependiendo de la carga de trabajo que tenga esta se pone a mayor o menor velocidad. No debemos olvidar que los videojuegos son cada vez más complejos visualmente y esto significa un aumento de la cantidad de datos a procesar. Es por ello que si un juego es relativamente antiguo nuestra GPU no va a pisar el acelerador para renderizarlo, al fin y al cabo la frecuencia estándar en fotogramas por segundo son los 60 Hz.

Así que a la hora de comprar una nueva tarjeta gráfica es mucho mejor optar por arquitecturas más nuevas, no solo por el hecho que los juegos nuevos hagan uso de sus tecnologías más punteras incluidas en las mismas, sino por el hecho que la eficiencia energética es mucho mayor. Si nos diese por fijar la resolución, settings gráficos y tasa de fotogramas veríamos que una RX 6000 de MMD sería más eficiente que una RX 5000 de la misma marca e incluso que una RX Vega. Y lo mismo se puede decir de NVIDIA donde las GeForce Ampere son más eficientes que las Turing y estas que las que tienen arquitectura Pascal.

Cada oveja con su pareja, cada GPU con su resolución

Los fotogramas por julio nos dan siempre una información muy clara de porque existen las GPU de gama alta y cuál es el motivo por el cual tanto NVIDIA, Intel como AMD en su marketing recomiendan ciertas tarjetas gráficas para unas resoluciones y otras.

Por simple observación veremos que una tarjeta gráfica de gama media o inferior no va a poder mover una gran tasa de fotogramas a resoluciones más altas de para lo que está pensada. Si extrajésemos los fotogramas por julio veríamos que son cada menos eficientes a medida que vamos subiendo la resolución de salida de los juegos. El motivo es que el consumo energético se mantiene, pero la cantidad de fotogramas disminuye. De ahí a que por ejemplo a la hora de generar el mismo fotograma a 4K una RTX 3080 sea más eficiente que una RTX 3070.

Tampoco podemos olvidar el uso de las tecnologías más avanzadas. Las GPU más nuevas suelen añadirles a través de diferentes tipos de aceleradores, los cuales realizan la función por un coste energético mucho más bajo. Cuando estas pequeñas unidades no se encuentran en el procesador gráfico entonces la eficiencia energética acabará siendo mucho menor.

Comparando diferentes GPU en fotogramas por julio

GPUConsumo energéticoFrames por julio (1080p)Frames per julio (1440p)Eficiencia (1080p a 1440p)Frames por julio (2160p)Eficiencia (1440p a 2160p)

Radeon VII
265 W0,456 0,347-24 %0,205-41 %

RX 5500 XT127 W0,5490,389-29 %0,205- 46 %

RX 5600 XT155 W0,6520,469-28 %0,262- 44 %

RX 5700 165 W0,6710,491-27 %0,278- 43 %

RX 5700 XT213 W0,5790,423-27 %0,241- 43 %

RX 6800 XT293 W0,6650,553-20 %0,300- 39 %

RX 6900 XT301 W0,6690,553-19 %0,338- 38%

GPUTDPFrames por julio (1080p)Frames per julio (1440p)Eficiencia (1080p a 1440p)Frames por julio (2160p)Eficiencia (1440p a 2160p)

GTX 1650 SUPER
104 W0,6330,439-31 %0,226-48 %

GTX 1660117 W0,6300,445-29 %0,244-45 %

RTX 2060 SUPER178 W0,6180,455-26 %0,248-44 %

RTX 2070 SUPER210 W0,6100,455-25 %0,249-43 %

RTX 2080 SUPER178 W0,5670,431-24 %0,254-41 %

RTX 2080 Ti262 W0,6130,478-22 %0,287-40 %

RTX 3070220 W0,7380,575-22 %0,341-41 %

RTX 3080325 W0,5860,478-18 %0,303-37 %

RTX 3090356 W0,5720,477-17 %0,311-35 %

En las dos tablas de arriba podemos ver la evolución de los fotogramas por julio sobre las diferentes generaciones de tarjetas gráficas tanto de NVIDIA como de AMD, lo que nos permite conocer como han ido evolucionando a lo que a rendimiento energético se refiere, pero también como afectan las resoluciones más altas al rendimiento.

Los resultados obtenidos nos dan una pista muy concreta y es que pese a los avances en formas de nuevas arquitecturas el rendimiento medido en fotograma por julio en cada GPU no se ha conseguido duplicar en todo este tiempo, lo que vendría a demostrar la necesidad de la implementación de algoritmos de inteligencia artificial como el NVIDIA DLSS, el Intel XeSS o el AMD FSR con tal de aumentar la tasa de fotogramas en determinadas resoluciones, renderizando a una menor internamente, y así aumentar la cantidad de fotogramas por julio.

Para terminar no hemos incluido la eficiencia energética de las GPU de Intel y AMD, el motivo es que al formar parte de un mismo chip que la CPU y compartir el sistema de alimentación energética es mucho más difícil de desglosar.

The post ¿Quién tiene las GPU más eficientes en consumo? ¿NVIDIA o AMD? appeared first on HardZone.