¡Acabamos con el debate sobre la sincronización vertical! ¿Sí o no?

Tarjetas Gráficas

Hoy queremos poner fin al debate sobre la sincronización vertical. ¿Sí o no? La razón es un rotundo no, y si quieres saber por qué… ¡Dentro artículo!

El gran aumento de potencia que han experimentado las tarjetas gráficas en los últimos años nos ha llevado a una situación en la que hay que buscar alternativas a las soluciones del pasado. Este es el punto de partida del que parten AMD y Nvidia a la hora de desarrollar las tecnologías FreeSync y G-Sync respectivamente. Pero, ¿Por qué lo han hecho?

¿Qué es la vsync y por qué FreeSync y G-Sync son mejores?

Raro será que no hayas escuchado nunca las palabras sincronización vertical, o el término vsync escrito en algún artículo. Y no es para menos, pues durante muchos años ha sido el paradigma en cuanto a corregir uno de los mayores engorros que sufrimos los gamers, el tearing.

La tendencia ha ido desapareciendo, pero hace unos años era habitual que la configuración gráfica por defecto llevasen activada la sincronización vertical, por lo que es más que probable que hayas jugado con ella activa sin saberlo.

Y es que la clave del éxito de la vsync ha sido siempre el hecho de que no se notaba que estaba activa. Su trabajo ha sido precisamente hacer que te olvides de que existe. Entonces, ¿Por qué ahora debemos desactivarla? Bueno, pues vamos a ver cuándo y por qué debemos hacerlo.

Pantalla partida o tearing en nuestros monitores

El tearing ha sido el objetivo a batir desde que apareció por primera vez. Primero con sincronización vertical y ahora con las soluciones de Nvidia y AMD.

El tearing, o pantalla partida, es un fenómeno que consiste en que una imagen incompleta es mostrada en pantalla, quedando ésta dividida en dos al no ser sustituido de forma completa el fotograma anterior con el nuevo, mostrando un corte. Esto puede suceder de forma aislada o convertirse en un problema si pasas más tiempo con la pantalla partida que viendo correctamente la imagen.

El motivo por el que tiene lugar el tearing es porque la tarjeta gráfica no es capaz de generar las imágenes que el monitor muestra cada segundo (tiempo de refresco).

Imaginemos que nosotros somos la tarjeta gráfica y tenemos que dibujar 60 dibujos por segundo. Una locura, lo sé, pero vamos a echarle imaginación. Nos ponemos como límite para hacer cada dibujo 1/60 de segundo, y nos ponemos a dibujar. Las primeras imágenes las hacemos sin problemas, pero en un momento dado nos despistamos (un bajón de rendimiento) y un dibujo se queda a medias… seguimos dibujando y entregamos los 60 fotogramas para ser mostrados en la pantalla. ¿Qué ocurrirá? Pues que en un momento dado veremos como la animación en un punto se muestra cortada, incompleta. Nada grave si ocurre esporádicamente, pero queda feo. Según el nivel de despiste, la imagen incompleta puede estarlo en mayor o menor medida.

Para intentar paliar este efecto, las tarjetas gráficas ya son capaces de prever si acabarán a tiempo o no un frame, por lo que si saben que no lo completarán, automáticamente lo lanzan prácticamente sin “dibujar”, recluyendo el tearing a la parte superior de la pantalla. Es una solución a medias, pues el problema persiste.

Pero entonces, ¿por qué la sincronización vertical ya no basta?

Pues porque el funcionamiento de esta tecnología supedita el trabajo de la GPU al del monitor, por lo que hasta que la pantalla no refresca, la tarjeta gráfica no puede enviar la siguiente imagen renderizada.

La solución a un problema ha generado, con el tiempo, problemas. ¿A que es genial?

El primero de ellos es el stuttering, o congelaciones. Se manifiesta cuando el número de imágenes completas es inferior al de la tasa de refresco de la pantalla, por lo que debe repetir imágenes y dar la sensación de parón o congelación. Un fenómeno mucho más molesto que el tearing para una gran parte de los jugadores. El segundo es el input lag, el tiempo de retardo en la imagen. En este caso tiene lugar por todo lo contrario, nuestra tarjeta gráfica envía demasiadas imágenes ‘completas’ y éstas quedan en ‘lista de espera’ para ser mostradas. Ese tiempo que tardan en ser en salir por pantalla puede generar sensación de lag, una descoordinación entre nuestros actos y lo que vemos en pantalla. Esto tiene lugar en el orden de milisegundos, y por regla general es inapreciable para el ojo humano. Sin embargo hay personas más sensibles a este efecto y sufren sufren sus consecuencias hasta el punto de que prefieren desactivar la vsync.

Por este motivo, los dos grandes fabricantes de tarjetas gráficas del mundo, Nvidia y AMD, se pusieron manos a la obra para ofrecer una solución real y duradera a los problemas existentes con y sin sincronización vertical, dando como resultado el nacimiento de Nvidia G-Sync y AMD FreeSync, dos tecnologías análogas pero con una concepción y aplicación totalmente diferente.

De ellas hablamos en otro artículo, pero estas son sus características básicas.

Características Nvidia G-Sync

  • Es una tecnología propiedad de Nvidia.
  • Sólo funciona con tarjetas gráficas Nvidia.
  • Para que un monitor sea compatible debe disponer del chip desarrollado por Nvidia.
  • Sólo es compatible con DisplayPort.

Características AMD Freesync

  • Es una tecnología abierta.
  • De momento sólo es compatible con las tarjetas gráficas de AMD, aunque Nvidia podría utilizarla totalmente gratis. De hecho Intel la utilizará cuando lance al mercado su familia de GPUs.
  • No es necesario ningún tipo de chip u otro componente físico en el monitor ni en la tarjeta gráfica.
  • Es compatible tanto con DisplayPort como con HDMI.

Por tanto, a día de hoy casi no existe justificación por la que mantener activa la sincronización vertical. Ya sea porque no utilices habitualmente tu ordenador para jugar y por tanto la inversión en tu tarjeta de vídeo no ha sido importante o justo por todo lo contrario. Existen dos alternativas que acaban con los problemas que soluciona y genera la vsync. Ahora es tu turno elegir cuál es el que más se ajusta a lo que necesitas.