
NVIDIA y AMD, tarjetas gráficas con grandes diferencias
Vamos a detallar las diferencias de estas marcas de tarjetas gráficas, tanto por dentro, como por fuera. Así que, coge papel y boli para no perderte nada.
Hardware: núcleos, memoria, y arquitectura
Comenzamos diciendo que no podemos comparar los shaders o núcleos de las GPUs AMD con las de NVIDIA porque están fabricados de distinta manera e integrados en el die del chip de otro modo. Lo mismo ocurre con los núcleos Intel y AMD en CPU (tampoco comparéis los de CPU con los de GPU)
En NVIDIA encontramos CUDA Cores, cuya piedra angular nace en la arquitectura CUDA (2006), pero que se han ido mejorando con las sucesivas generaciones de tarjetas gráficas. Por otro lado, AMD usa Stream Processors, que encuentran su origen en los AMD FireStream, desarrollados por ATI en 2006 para la Radeon X1900 XTX.
Podemos decir que los CUDA Cores son un conjunto de procesadores diseñados en paralelo cuyo fin es procesar los datos de la GPU, como es la tarea de renderizar objetos 3D. Los Stream Processors también tienen la misma misión, pero se integran de forma distinta en el chip.
Estos son los núcleos principales, pero luego encontramos otro hardware específico para tareas muy concretas:
- NVIDIA RT Cores o AMD Ray Accelerators. Diseñados e integrados en la GPU de forma distinta, todas sus tareas tienen que ver con el Ray Tracing, los cálculos de rayos, rebotes en la escena de los mismos y su procesamiento a tiempo real.
- NVIDIA Tensor Cores. AMD no tiene un análogo y NVIDIA los diseñó para tareas de Inteligencia Artificialy Machine Learning, cuyo objetivo en la gama GeForce era aplicar la técnica de reescalado Deep Learning Super Sampling (DLSS).
¿Por qué AMD no tiene un análogo? Es cuestión de enfoque. AMD quiere que su técnica de reescalado FidelityFX Super Resolution se pueda usar en todas las tarjetas gráficas (incluso en Intel o NVIDIA). Si integra unos “Tensor Cores” en sus GPUs, todas las anteriores no tendrían acceso a dicha tecnología porque necesitarían unos núcleos específicos.
De esta manera, NVIDIA solo brinda DLSS a los usuarios de RTX 2000 en adelante; igualmente, Intel ha lanzado sus Arc Alchemist con XMX Cores que sí serían los análogos a los Tensor Cores para aplicar XeSS.
El rendimiento final de las tarjetas gráficas NVIDIA y AMD demuestran sus diferencias a través de la arquitectura, que viene a ser el pilar principal de toda la GPU. Decimos esto porque ya hemos visto muchas generaciones cuyas especificaciones eran una locura entonces y el gato al agua se lo llevó NVIDIA por tener una arquitectura más refinada.
Las últimas en NVIDIA son Turing (RTX 2000), Ampere (RTX 3000) y Ada Lovelace (RTX 4000), mientras que AMD tuvo RDNA (RX 5000), RDNA 2 (RX 6000) y RDNA 3 (RX 7000).
Terminando con la memoria, AMD opta por equipar sus tarjetas gráficas con más memoria GDDR6, mientras que NVIDIA escatima un poco en ella y ofrece GDDR6X en las gamas altas (RTX 3070 Ti en adelante).
Si no veis ningún producto con GDDR6X, se debe a que es una memoria patentada por Micron y NVIDIA, las cuales la desarrollaron conjuntamente. Por este motivo, AMD no puede usar GDDR6X en sus tarjetas gráficas y los beneficios que ofrece:
- Más rendimiento a menos frecuencia.
- Mayor margen de estabilidad, llegando a 21 Gbps sin problemas.
¿Cómo se las ha ingeniado AMD para contrarrestar esto? Elevando la velocidad de memoria (Gbps) de sus RX 6000 y potenciando Infinity Cache, que es una memoria caché L3 que mejora la velocidad de todas las operaciones entre GPU y memoria VRAM.
Diferencias de plataforma de AMD y NVIDIA
Antes de pasar directamente a las soluciones software que ofrece cada marca, me gustaría ahondar en la aplicación de la arquitectura de tarjetas gráficas. En los últimos años, NVIDIA se ha dedicado a separar su arquitectura para profesionales (HPC, cloud computing, etc.) de su arquitectura gaming (Ampere, Turing, Ada Lovelace).
AMD hizo lo mismo (RDNA en GPUs de escritorio y CDNA en profesionales), pero RDNA 2 ha traído una sorpresa bajo el brazo: es una arquitectura multiplataforma, ¿esto qué quiere decir?
La arquitectura RDNA 2 está presente en las tarjetas gráficas Radeon RX 6000, como en las consolas next-gen PlayStation 5 y Xbox Series S y X. Su diseño no ha sido ninguna tontería porque hacer funcionar una misma arquitectura en 3 plataformas distintas es todo un desafío.
¿Por qué merece la pena recalcar esto? Porque las soluciones software o tecnologías que AMD y NVIDIA presentan van ligadas a la arquitectura, y en el caso de AMD muchas de ellas pueden usarse en PS5 y Xbox, a pesar de sus diferencias.
Por último, puntualizar que las tarjetas gráficas en portátiles tienen la misma arquitectura que las de escritorio.
Ray Tracing, la batalla más complicada
Mención especial y separada al Ray Tracing, que es una tecnología de trazado de rayos a tiempo real que mejora muchísimo el realismo en videojuegos. NVIDIA fue la pionera de esta tecnología, con más de 7 años de estudio en colaboración con universidades de todo el mundo.
El problema era que el hardware no estaba preparado para trabajar con esta tecnología porque consumía muchos recursos, pero vino con las NVIDIA GeForce RTX 20, aunque se empezó a disfrutar de verdad con las RTX 30.
NVIDIA lleva mucha ventaja a sus rivales AMD e Intel en términos de Ray Tracing, y sus tarjetas gráficas son las más potentes en este escenario. AMD la integró en sus Radeon RX 6000 con RDNA 2, pero todavía sigue lejos de NVIDIA en este apartado.
Si tenemos que destacar una de las grandes diferencias entre AMD y NVIDIA… el RTX es una de ellas.
NVIDIA DLSS y AMD FidelityFX Super Resolution
El santo grial de las tecnologías en tarjetas gráficas AMD y NVIDIA es la técnica de reescalado: DLSS o FSR. Antes de explicar sus diferencias, convendría definir qué es una técnica de reescalado y por qué se pone tanto énfasis en ello.
La GPU tiene la tarea de renderizar objetos 3D que completan una escena, pero ese trabajo se vuelve muy pesado cuando subimos de resolución (QHD o 4K, por ejemplo) porque las texturas son más grandes.
Una solución es renderizar a una resolución menor (1080p o 720p, por ejemplo) y reescalar el trabajo a la resolución de salida (QHD o 4K). De esta manera, la GPU muestra el juego en QHD o 4K, pero ha renderizado la imagen a una resolución menor. Como consecuencia, los FPS se incrementan bastante y hacen esa experiencia gaming más interesante.
Esta tecnología fue muy criticada cuando Sony y Microsoft las usaban en sus consolas, aunque no de la misma manera. Muchos aseguraban que no eran “4K reales”, y realmente no lo son, pero al final es una herramienta para poder ofrecer una experiencia lo más fiel posible. El problema está en la pérdida de calidad de imagen tras aplicarlo.
NVIDIA fue quien la introdujo primero en GPUs de escritorio a través de DLSS, y el motivo no solo era ganar FPS, sino posibilitar el juego con Ray Tracing a tiempo real. Ya con una RTX 2060 era complicado jugar a 60 FPS en 1080p con RTX activado y todo en ultra, así que imaginaros lo exigente que es el Ray Tracing con los recursos.
Explicado esto, NVIDIA usa como técnica el DLSS (Deep Learning Super Sampling), que es una evolución de un reescalado convencional. Hace uso del Deep Learning e Inteligencia Artificial para entrenar a la GPU con el fin de que pueda acelerar el proceso con los Tensor Cores, como ofrecernos una gran calidad de imagen.
DLSS ofrece 4 niveles:
- Quality.
- Balanced.
- Performance.
- Ultra Performance.
FidelityFX Super Resolution es la alternativa en AMD, y deciros que no hay DL o IA, sino que hacen uso de una serie de filtros de postprocesado. Básicamente, son sombreadores, anti-aliasing y una API.
En su caso, utilizan 4 niveles:
- Ultra Quality.
- Quality.
- Balanced.
- Performance.
AMD lanzó recientemente FSR 2.0 con una gran actualización que consigue mejorar la calidad de imagen resultante de la versión original. A día de hoy, tenemos que decir que pocas diferencias existen en FPS entre AMD y NVIDIA una vez aplicadas estas tecnologías.
Por último, la rivalidad no solo está en la tecnología en sí, sino en su soporte: cada videojuego debe soportar individualmente DLSS y FSR. De lo contrario, no podremos activar la tecnología de reescalado.
DLSS lleva mucha ventaja a FSR, a pesar de que FSR sea open source (código abierto) y su implementación sea más sencilla para los desarrolladores. Hace 2 años, había un poco de lío entre los desarrolladores de videojuegos: unos apostaban por DLSS y otros por FSR.
Sin embargo, parece que casi todos los videojuegos vienen ya con ambas tecnologías integradas preparadas para ser activadas en los ajustes.
Radeon Super Resolution e Image Scaling
NVIDIA fue pionera en este aspecto y proporcionaba Image Scaling: un reescalado nativo activable desde el panel de control de NVIDIA. Es decir, el videojuego no tiene por qué integrar esta tecnología, sino que podíamos aplicarla desde fuera del mismo. Esto aumenta la compatibilidad a muchísimos juegos, bastando que se ejecuten en pantalla completa.
AMD cogió el truco y lanzó Radeon Super Resolution, que viene a ser exactamente lo mismo. El equipo rojo enfatizó en que RSR y FSR son compatibles para funcionar al unísono con el fin de ganar unos FPS extras.
De hecho, en AMD decidieron basar RSR en FSR, por lo que la técnica de reescalado es muy similar. La finalidad de AMD era compensar el poco soporte que tenía FSR en muchos videojuegos con la existencia de Radeon Super Resolution, cuya activación es muy parecida a la de Image Scaling.
En términos de rendimiento, tenemos que decir que la calidad de imagen es peor, pero la ganancia de FPS extras sobrevive.
AMD Anti-Lag con Radeon Boost y NVIDIA Reflex con NULL
Tenemos que decir que NVIDIA Reflex salió primero y es una tecnología dirigida para profesionales o para los más exigentes en cuestión de latencia. Ambas son tecnologías dirigidas a reducir la latencia de entrada de los periféricos: desde que pulsamos un clic del ratón hasta que se ve en la pantalla.
El tiempo transcurre en milisegundos (ms) y existe latencia si no usamos ninguna de estas tecnologías. No afecta a los FPS, sino al tiempo que transcurre desde que pulsamos el clic del ratón y nuestro personaje dispara dentro del videojuego.
Aunque estemos hablando de milisegundos, se suceden una serie de operaciones entre la CPU y GPU: clic> CPU > cola de renderizado > renderizado por GPU > monitor.
NVIDIA presentó NULL con el soporte de G-SYNC en 2019 (Gamescon), reduciendo hasta el 20% de la latencia cuando activábamos ambas tecnologías.
Ya no existe el problema o la obsesión por tener más FPS porque cualquier GPU moderna puede mover los juegos competitivos a más de 80 FPS en 1080p. Así que, NVIDIA y AMD vieron el problema de la latencia y la primera lanzó Reflex, mientras que la segunda presentó Anti-Lag (2021).
NVIDIA G-SYNC y AMD FreeSync
Las últimas diferencias importantes entre AMD y NVIDIA son las tecnologías de pantalla que tienen para evitar el tearing y el stuttering:
- Tearing: descoordinación entre GPU y monitor causada porque la GPU comienza a renderizar el siguiente frame, pero el monitor todavía muestra el frame actual.
- Stuttering: anomalía causada porque el monitor se anticipa al siguiente frame, pero la GPU no lo ha renderizado todavía, mostrando el mismo frame 2 veces.
Algunos diréis que el V-SYNC o la sincronización vertical lo soluciona todo, pero cuidado: se puede ocasionar stuttering porque reduce los FPS, lo que es un problema en pantallas de 144 Hz.
La solución pasa por implementar en el propio monitor una tecnología de sincronización adaptativa. En el caso de AMD es una solución software al 100%, pero NVIDIA G-SYNC y G-SYNC Ultimate requieren al fabricante del monitor a que integren un chip.
Y sí, el fabricante del monitor tiene que pagar a NVIDIA para poder integrar dicho chip porque es una tecnología patentada. Al contrario, AMD ofrece FreeSync de forma gratuita a los fabricantes, limitándose a establecer ciertos requisitos para poder recibir FreeSync, FreeSync Premium, FreeSync 2 HDR o FreeSync Premium Pro.
Aun así, NVIDIA G-SYNC Compatible es una solución completamente software y la veréis en más monitores por este motivo. Mientras tanto, AMD FreeSync puede funcionar tanto en GPUs NVIDIA, como AMD, pero G-SYNC solo está disponible para NVIDIA.
Veréis que los monitores que integran G-SYNC o G-SYNC Ultimate son muchos más caros por la razón previamente comentada. AMD FreeSync está disponible casi en cualquier monitor gaming que se precie, y funciona bastante bien.
Dos de las claves de G-SYNC o Ultimate es que no hay input lag y tenemos variable overdrive (cambio de hercios). Al final, tenemos un monitor mucho más capaz, pero hay que pagar un precio por ello.