Evolución de las GPUs: del 2D al trazado de rayos e IA

Última actualización: octubre 19, 2025
  • De los primeros estándares 2D (MDA, CGA, VGA) a la GPU moderna con T&L y shaders programables.
  • Shaders unificados, fin de los “hot shaders” y auge de GCN/Kepler hasta Maxwell/Pascal y RDNA.
  • Llegada de núcleos especializados (RT/Tensor), DLSS/FSR, y saltos con Ampere, Ada y RDNA 3.
  • Tendencias: IA, ray tracing más eficiente, cachés grandes, chiplets y posible MCM.

Evolución de las GPUs

Las tarjetas gráficas han cambiado una barbaridad en pocas décadas: de simples controladores de vídeo a auténticos motores de cómputo paralelo para juegos, IA y ciencia. En especial, los últimos 15 años han sido un torbellino: nuevas arquitecturas, memoria más rápida, trazado de rayos en tiempo real y técnicas de reescalado impulsadas por inteligencia artificial.

En estas líneas te propongo un viaje ordenado por su historia, componentes y grandes hitos, un repaso por las claves que han marcado a NVIDIA, ATI/AMD e Intel, y cómo las consolas han influido en el PC. Además, tocaremos tendencias (como el diseño multi-chiplet) y por qué la IA y el ray tracing son ya el presente de la GPU moderna.

¿Qué es una tarjeta gráfica?

Una tarjeta gráfica es el componente encargado de transformar datos en imágenes que acaban en tu monitor; es decir, realiza el renderizado que la CPU delega para ganar agilidad. Puede venir integrada en el procesador o instalarse aparte como tarjeta dedicada, y en ambos casos su corazón es una GPU (unidad de procesamiento gráfico).

En los equipos actuales conviven soluciones integradas como Intel UHD Graphics, Intel Iris Xe o AMD Radeon Vega con modelos dedicados de alto rendimiento como una NVIDIA GeForce RTX 3090 o una AMD Radeon RX 6800, pensadas para juegos exigentes, creación de contenido e incluso cálculo profesional.

Componentes esenciales

El núcleo es la GPU, pero la memoria de vídeo (VRAM) también es protagonista, ya que guarda texturas, geometría, buffers y datos intermedios que el chip necesita a toda velocidad. En paralelo, el sistema de refrigeración (ventiladores, disipadores, heatpipes o cámaras de vapor) evita que el calor arruine el rendimiento, manteniendo frecuencias estables bajo carga.

La elección de la memoria (GDDR o HBM), su cantidad y el ancho de banda marcan diferencias notables. Más ancho de banda reduce cuellos de botella en escenas complejas, mientras que cachés internas inteligentes pueden disminuir la dependencia de la VRAM y mejorar la eficiencia por fotograma.

Tipos de tarjetas gráficas

Integradas

Vienen dentro del procesador o el chipset y comparten recursos con el sistema. Sirven para uso general, multimedia y juegos ligeros. Hoy, soluciones como Intel UHD/Iris Xe y AMD Radeon Vega han subido el listón, aunque siguen lejos de la potencia de una dedicada.

Dedicadas

Son tarjetas con PCB propio, VRAM dedicada y su propio sistema de disipación. Están pensadas para cargas pesadas como AAA, edición de vídeo o IA. Ejemplos clásicos son GeForce RTX 3090 o Radeon RX 6800, capaces de mover altas resoluciones y efectos con soltura.

Híbridas

Mezclan líquido y aire en el mismo conjunto de refrigeración para bajar temperaturas y ruido. Hay modelos como la EVGA GeForce RTX 3090 FTW3 Ultra Hybrid que exprimen el silicio manteniendo márgenes térmicos muy confortables.

De terminales a VGA: las primeras décadas

En los 60 los ordenadores “mostraban” su salida mediante impresoras de línea, hasta que en los 70 llegaron los monitores. A partir de ahí arrancó una senda imparable que llevó a estándares como MDA (1981), CGA y HGC (1982) con mejoras en resolución y color.

En 1986 apareció EGA, que subió el rango de colores y resoluciones; un año más tarde, VGA (1987) popularizó 640×480 y 256 colores. Después llegó la era SVGA, con 1024×768 y más memoria de vídeo, y en 1993 se compactaron formatos preparando el salto a las primeras funciones 3D accesibles.

A mediados de los 90 irrumpieron las tarjetas 2D/3D de Matrox, S3, Creative o ATI, y en 1997 3dfx Voodoo lo cambió todo con efectos como Mip Mapping, Z-Buffer y antialiasing. Para darles más aire apareció el puerto AGP (1997), un bus dedicado que alivió las limitaciones del PCI clásico.

  Qué es Sistema Información

Nace la GPU moderna

En 1999 NVIDIA lanzó GeForce 256, autoproclamada como primera GPU al integrar Transform & Lighting por hardware, descargando de verdad a la CPU. Poco después, en 2001, GeForce 3 inauguró los shaders programables, abriendo el camino a efectos mucho más sofisticados.

A lo largo de los 2000 llegaron hitos como SLI (2004) para sumar potencia con múltiples GPUs, CUDA (2006) para cómputo general, o la supercomputadora Tsubame (2008) basada en GPU. AMD/ATI contraatacó con joyas como Radeon HD 5970 (2009) y más tarde la bestia Radeon R9 295X2 (2014). En paralelo, NVIDIA llevó el gráfico a la nube con GRID (2012), adelantando el juego remoto.

La era de los shaders unificados y la barrera del gigabyte

Xbox 360 fue visionaria en 2005 al usar una GPU ATI con shaders unificados, un concepto que en PC no se materializó hasta 2007 con Radeon HD 2900 XT (ATI) y la serie GeForce 8000 de NVIDIA. La mejora fue enorme: una GeForce 8800 GT podía doblar a la 7900 GT de la generación previa.

En 2008 se consolidó el modelo con GeForce 9000 y Radeon HD 3000, naciendo leyendas de relación precio/rendimiento como GeForce 9600 GT o Radeon HD 3870. Aquella etapa también vio las primeras configuraciones con 1 GB de VRAM, decisivas para juegos más pesados.

NVIDIA apostó entonces por los “hot shaders” (shaders a más frecuencia que el resto del chip): por ejemplo, la 8800 GT marcaba unos 600 MHz de GPU y ~1500 MHz en shaders. ATI, en cambio, sincronizaba GPU y shaders, compensando con más unidades para mantener el tipo en rendimiento.

A partir de ahí se escaló a base de sumar shaders y ancho de banda de memoria: una GeForce GTX 285 llegó a 240 shaders y ~159 GB/s, frente a la 8800 GTX con 128 shaders y ~86,4 GB/s. En el lado rojo, Radeon HD 4890 montaba 800 shaders y 124,8 GB/s, muy por encima de los 320 shaders y ~72 GB/s de la HD 3870.

Con Radeon HD 5000 y GeForce GTX 400 aterrizó DirectX 11, aunque el patrón seguía siendo sumar shaders y ancho de banda. Hubo hitos especiales como las ediciones de 3 GB en la GTX 580, y soluciones muy potentes como la Radeon HD 6970 (1536 shaders y ~176 GB/s), que cerraron el ciclo previo a otro cambio gordo.

Adiós a los “hot shaders”, hola computación asíncrona y más VRAM

AMD abrió nueva etapa con GCN 1.0 en las Radeon HD 7950/7970, una arquitectura preparada para lo que traería DirectX 12, resaltando la computación asíncrona. Eso las penalizó al principio, porque el mercado seguía en DX11, donde NVIDIA rendía mejor.

En paralelo, AMD fue generosa en memoria (3 GB frente a los 2 GB habituales en NVIDIA en la gama alta de entonces), un detalle que, con el tiempo, se agradeció. Por su parte, NVIDIA presentó Kepler y decidió terminar con los “hot shaders”: la GeForce GTX 680 pasó a 1536 shaders a ~1058 MHz, frente a los 512 shaders de la GTX 580 que funcionaban a frecuencias de shader mucho más altas en la generación previa.

La industria del videojuego en consola viró hacia AMD cuando PS4 y Xbox One adoptaron GCN, que siguió refinándose en cinco revisiones y llegó a alimentar PS4 Pro y Xbox One X. Hubo apuestas muy ambiciosas como HBM/HBM2 en la familia Vega: la Radeon RX Vega 64 (GCN 5.0) montaba 4096 shaders y HBM2 para ~483,8 GB/s de ancho de banda.

Maxwell y Pascal: eficiencia y madurez de APIs

Kepler no brilló con DX12 en las GTX 600/700 (salvo las 750/750 Ti, que ya eran Maxwell 1), pero llegó GTX 780 Ti con 2880 shaders y potencia bruta abrumadora. El golpe sobre la mesa real vino con Maxwell: una modesta GTX 970 con 1664 shaders superaba a la 780 Ti, con 4 GB, menor consumo y mejor eficiencia.

El salto de Pascal (GTX 10) asentó de verdad DX12 y Vulkan. Una GeForce GTX 1070 con 1920 shaders y 8 GB aventajó a la potente 980 Ti de 2816 shaders. AMD contestó con Radeon RX Vega 56/64, muy competitivas, pero la GTX 1080 Ti se hizo icónica; incluso la Radeon VII no logró tumbarla.

  ¿Qué es el procesamiento de datos?

Con el tiempo, la 1080 Ti ha demostrado aguantar 4K con dignidad, aunque a nivel arquitectónico ya esté superada. AMD recuperó fuelle real con Radeon RX 5700 XT, carta de presentación de RDNA, que introdujo mejoras estructurales clave.

RDNA y el concepto WGP

RDNA reorganizó el chip alrededor de los WGP (Work Group Processors), agrupando dos unidades de cómputo para alimentar mejor las cargas modernas. También elevó drásticamente las frecuencias (rozando los 2 GHz) con un consumo más comedido, cimentando la base de las siguientes generaciones.

Núcleos especializados: ray tracing e IA

El siguiente gran giro llegó con Turing (RTX 20, 2018). Sobre la GPU clásica, NVIDIA añadió dos bloques especializados: RT Cores para acelerar ray tracing y Tensor Cores para IA/inferencia. Con ellos fueron posibles efectos antes prohibitivos y nuevas técnicas de imagen.

Aunque al principio hubo críticas, AMD siguió la estela con RDNA 2 y aceleración de ray tracing. A nivel de rasterización, RDNA 2 dio un salto: duplicó shaders hasta 5120 en la Radeon RX 6900 XT, generalizó los 16 GB en la gama alta, subió mucho las frecuencias e introdujo una caché L3 masiva que reduce la dependencia del ancho de banda de la VRAM.

Escalado inteligente: DLSS y FSR

Como el ray tracing golpea mucho al rendimiento, NVIDIA lanzó DLSS: la primera versión no convenció, pero la 2.0 fue un éxito al reconstruir imagen con IA sobre Tensor Cores. Según el título, puede duplicar o triplicar FPS sin destrozar la calidad visual.

AMD respondió con FSR y FSR 2, basadas en algoritmos de reconstrucción espaciales/temporales sin IA. Son valiosas por su amplia compatibilidad, pero cuando el juego lo soporta, DLSS 2 suele ofrecer una imagen más limpia y estable, sobre todo en movimiento y detalles finos.

Ampere y Ada: potencia y eficiencia

Con Ampere (RTX 30), NVIDIA aumentó el conteo por SM y subió frecuencias: la RTX 3060 suma 3584 shaders frente a los 1920 de la 2060, además de RT y Tensor de nueva generación. La mejora en bruta y en cómputo especializado fue notable en toda la pila.

Después llegó Ada Lovelace (RTX 40) con una eficiencia espectacular. Una RTX 4060 de 110 W puede superar alrededor de un 20% a una RTX 3060 que consume ~170 W. Y en gama entusiasta, una RTX 4090 aventaja en torno al 40% a la 3090 en rasterización pura, y brilla en trazado de rayos y reconstrucción por IA.

Además, el DLSS 3 añadió generación de fotogramas en la GPU (uno generado por cada dos renderizados de forma tradicional), lo que reduce cuellos de botella de CPU en juegos mal optimizados y mantiene la fluidez con resoluciones altas o ray tracing complejo.

RDNA 3: eficiencia, RT de 2ª generación y chiplets

RDNA 3 afina la base de RDNA 2 con mejoras en rendimiento y eficiencia, RT de segunda generación y núcleos de IA integrados que todavía esperan más usos prácticos en el ecosistema software. Es la primera familia que adopta un enfoque multi-chiplet particular: el núcleo de la GPU sigue monolítico, pero la caché L3 se externaliza en chiplets.

¿La gracia? Reduces área de silicio del die principal, mejoras el rendimiento por coste al ganar en tasa de éxito de oblea y mantienes la latencia de la caché muy controlada. Es una vía intermedia hacia el futuro MCM sin añadir complejidad en los bloques más críticos del chip.

Consolas: un espejo que adelanta tendencias

La historia de consolas y PC se retroalimenta. PS3 apostó por una GPU derivada de GeForce 7000, mientras Xbox 360 se adelantó en 2005 con shaders unificados antes de que llegaran al PC. Más tarde, PS4 y Xbox One consolidaron GCN, y sus revisiones Pro/One X usaron iteraciones más avanzadas de esa misma arquitectura.

  La imagen de mi cámara web está invertida

Ese alineamiento hizo que desarrolladores priorizaran características afines a GCN, beneficiando a AMD en el medio plazo. Con la generación actual (PS5 y Xbox Series) el hardware ya convive con ray tracing y técnicas de reconstrucción temporal que luego vemos trasladadas o inspiradas en PC.

Más allá del juego: cómputo e IA

CUDA abrió la puerta a usar la GPU para mucho más que gráficos: desde simulaciones científicas a entrenamiento de modelos, pasando por vídeo y analítica. Hoy las GPUs dominan el centro de datos para IA, y tanto AMD como NVIDIA cuentan con pilas de software y hardware profesionales para acelerar cargas de trabajo críticas.

En el lado de consumo, además de AMD y NVIDIA, Intel ha entrado con la familia Arc, apostando por un tercer actor en GPU dedicada. Y en móviles, Qualcomm o ARM diseñan GPUs para SoCs, motor de juegos y apps 3D en un mercado que no deja de crecer y condiciona APIs y motores.

Rendimiento en cifras: GFLOPS y algo más

Una forma de ver la progresión es la potencia de cómputo teórica. A grandes rasgos, en 1999 una GeForce 256 rondaba ~0,5 GFLOPS; en 2000, Radeon DDR subió a ~1,1; en 2002, GeForce4 Ti alcanzó ~4; en 2004, Radeon X800 XT llegó a ~6,4; y en 2006, la GeForce 8800 GTX rompió moldes con ~518 GFLOPS.

Con los años la escalada se disparó: Radeon HD 4870 (2008) superó ~1,2 TFLOPS; GeForce GTX 480 (2010) estuvo en ~1,345; GTX 680 (2012) rozó ~3,09; Radeon R9 290X (2014) llegó a ~5,6; GTX 1080 (2016) subió a ~8,2; RX Vega 64 (2018) rondó ~12,7; y RTX 3080 (2020) se fue cerca de ~29,8 TFLOPS.

Aun así, los GFLOPS no lo son todo: influyen la arquitectura, la latencia y ancho de banda de memoria, las cachés, los núcleos especializados (RT/Tensor) y las técnicas de reconstrucción. Dos tarjetas con el mismo cómputo pueden rendir distinto según cómo gestionen las cargas del mundo real.

Mercado, escasez y comunidad

La pandemia y la minería provocaron una escasez histórica de tarjetas, con precios disparados y disponibilidad mínima. Esa tormenta perfecta evidenció la fragilidad de la cadena de suministro y lo crítico del proceso de fabricación de semiconductores de vanguardia.

La rivalidad AMD–NVIDIA sigue intensa y la entrada de Intel Arc añade picante. En paralelo, comunidades como la famosa “PC Master Race” en Reddit se han convertido en punto de encuentro para montar PCs, resolver dudas y celebrar la plataforma; no hace falta un PC de gama alta para ser parte: importa la pasión por aprender y compartir.

Tendencias y lo que viene

El trazado de rayos seguirá refinándose y abaratarse en coste por fotograma. La IA estará más presente, no solo en escalado: veremos más reconstrucción temporal inteligente, antialiasing mejorado y ayudas para aliviar cuellos de botella de CPU con técnicas de frame generation.

El ancho de banda crecerá con GDDR más rápida y HBM donde tenga sentido, y el diseño MCM (multi-chip module) ganará terreno: cuando un die monolítico es inmanejable por área/coste, dividir en chiplets y conectarlos con enlaces de baja latencia es el siguiente paso lógico.

La eficiencia energética será prioridad, sobre todo en gamas medias, portátiles y centros de datos. A la vez, aumentará la resolución objetivo razonable (4K y ultrawide a altos Hz), siempre combinando rasterización clásica, ray tracing selectivo y técnicas de reconstrucción de alta calidad.

Mirando atrás, la evolución ha pasado por estándares de vídeo, primeras 3D, shaders unificados, el fin de los “hot shaders”, el empuje de GCN y Kepler, la eficiencia de Maxwell/Pascal, el nuevo orden con RT/Tensor en Turing, la fuerza bruta de Ampere, la eficiencia de Ada, y el salto estructural de RDNA/3 con WGP, cachés masivas y chiplets. Todo indica que seguiremos divididos entre GPU “clásica” y bloques especializados de ray tracing e IA, con diseños más modulares y técnicas de reconstrucción cada vez más pulidas para exprimir cada vatio y cada milímetro cuadrado de silicio.