Tecnología

NVIDIA Turing (RTX 2000 Series) – todos los detalles de la nueva familia de GPUs

Violenta evolución

El 20 de agosto en el marco de la Gamescon 2018, NVIDIA dio un keynote maravilloso en donde demostró por qué es el líder absoluto en la arena de las GPU al presentar su más ambiciosa innovación desde el lanzamiento del primer Tesla GPU en 2006. Su nombre en código: Turing. Su nombre comercial: NVIDIA Geforce RTX Series.

Despues de casi dos años sin novedades en el territorio de las GPU de NVIDIA, la compañía se despachó con un brutal salto generacional que puede romper todos los paradigmas de como jugamos en nuestra computadora y cómo los futuros juegos van a ser desarrollados. Como es costumbre la primer camada en ver la luz es la alta gama, compuesta por las Geforce RTX 2080Ti (la primer vez que una Ti sale en simultáneo con la regular, lo cual habla que quizás exista una 2090 en un tiempo), la RTX 2080 y la RTX 2070. Las primeras dos tienen fecha de público el 20 de Septiembre en USA, mientras que para la 2070 deberemos esperar a mediados de Octubre. ¿Los precios? Saladitos: La 2080Ti tiene un precio lanzamiento de 999 dólares mientras la 2080 cuesta 699. La 2070 saldrá con un precio sugerido de 499 dolares. Si lo vemos en retrospectiva, son entre 100 y 300 dólares más caras que las generaciones anteriores cuando fueron lanzadas, pero creo que el nivel de tecnología que traen las tarjetas lo ameritan.

Arquitectura Turing: Raytracing y Tensor Cores

¿Qué es lo novedoso de Turing? Lo más sobresaliente son la mezcla de rendereo que ahora combina ray tracing junto a la rasterización tradicional. Básicamente lo que NVIDIA hizo es incorporar un motor propio de Ray Tracing dentro del GPU de manera de obtener el mayor rendimiento possible a la hora de hacer la rasterización de objetos. Estos procesadores (que NVIDIA los llama RT Cores) aceleran los chequeos de intersección de triangulos y las manipulaciones de jerarquía de volúmenes (BVH en ingles de Bounding Volume Hierachy). BVH es una estructura de datos muy popular para almacenar objetos generados por Ray Tracing y cualquiera que use programas como 3D Studio sabe de lo que hablo.

NVIDIA dice que la 2080Ti es capaz de generar 10 Giga rays por Segundo, lo cual comparado con Pascal (Geforce GTX 1080Ti) es una mejora de ¡25 veces! la performance de Ray Tracing. Brutal.

La arquitectura Turing tambien incluye los Tensor Cores de NVIDIA Volta (una GPU que sólo fue producida para tarjetas Tesla). Los Tensor Cores colaboran utilizando Inteligencia Artificial para reducir la cantidad de raytracing requerido en una escena. Claro que esta no es la única función de los Tensor Cores ya que los mismos tambien pueden ser utilizados para desarrollos de Inteligencia Artificial y Redes Neurales sin tener que caer en la línea “pro” de tarjetas gráficas como Quadro o Tesla.

Si bien el modo combinado de render es interesante y debería proveer aumentos de rendimiento salvajes, NVIDIA solo declara que el salto de performance versus Pascal es de unas 6 veces. Desde el punto de vista del gaming, los beneficios del modo combinado de render son muy significativos…siempre y cuando los desarrolladores decidan utilizar este modo. Hacer hoy ray tracing con cualquier GPU actual es extremadamente lento con lo cual el hecho de contar con procesadores dedicados al ray tracing dentro de Turing garantiza un salto de rendimiento exponencial. Pero como nadie usa ray tracing por las penalizaciones de rendimiento, la cuestión es que los desarrolladores dejen de simular ray tracing mediante software para directamente hacerlo por hardware y ahi es donde va a residir el éxito de la iniciativa.

Los beneficios son bastante amplios en 3 terrenos: Iluminación, Sombras y Reflexiones. Las tres están basadas en las propiedades de la luz, que es el término más simple del ray trace. Hoy en día se usan múltiples algoritmos que pre-configuran la escena antes del render. Y si bien los algoritmos hacen un buen trabajo, no tienen la precisión del hardware puro, claramente tenemos lugar para mejorar ahi.

Tenemos dos imagenes tomadas del keynote donde muestran una escena hecha por software y luego hecha con la Geforce RTX utilizando el poder del raytracing. Noten las texturas de las sombras al costado izquierdo de la tarjeta Quadro, o bien la calidad de la esfera de vidrio, o bien como se difuma la esfera metálica al tener un cubo de vidrio por delante.

NVIDIA generalmente habla de "iluminacion global" ya que es una de las tareas más pesadas de hacer. Pero tambien las sombras y los reflejos de objetos más pequeños pueden tener beneficios muy notorios.

La contrapartida es que los RT Cores y los Tensor Cores son hardware de función específica y no pueden ser utilizados en otra cosa. En criollo: Si no programamos usando los RT Cores y los Tensor Cores para optimizar el render y vamos por la ruta clásica, gran parte de la potencia de la RTX la estamos desperdiciando. Es una apuesta enorme la de NVIDIA que en vez de diseñar una GTX 1080 más grande y más rápida, opta por patear el tablero y brindar nuevas herramientas con la idea de mejorar el fotorrealismo. Es un cambio de paradigma que muchos analistas comparan con la introducción de Pixel y Vertex Shades en 2001 y 2002 de la era DirectX 8 y 9.

Microsoft juega un papel fundamental poniendo a disposición de forma inmediata el DirectX Raytracing (DXR) para empujar esta iniciativa dentro de los desarrolladores. NVIDIA tiene que venderle a los consumidores el hecho que el rasterizado mixto genera major calidad visual, pero al mismo tiempo hay que hacerle la vida sencilla a los desarrolladores para que produzcan contenido usando el render mixto. Basicamente para NVIDIA el render híbrido es el futuro y estan poniendo toda su energía en ello.

Escribe un comentario