Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-21 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.
Historia
La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video.
El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).
Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.2
A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.3 4 5 6
| Año | Modo texto | Modo gráficos | Colores | Memoria | |
|---|---|---|---|---|---|
| MDA | 1981 | 80*25 | - | 1 | 4 KiB |
| CGA | 1981 | 80*25 | 640*200 | 4 | 16 KiB |
| HGC | 1982 | 80*25 | 720*348 | 1 | 64 KiB |
| EGA | 1984 | 80*25 | 640*350 | 16 | 256 KiB |
| IBM 8514 | 1987 | 80*25 | 1024*768 | 256 | - |
| MCGA | 1987 | 80*25 | 320*200 | 256 | - |
| VGA | 1987 | 720*400 | 640*480 | 256 | 256 KiB |
| SVGA | 1989 | 80*25 | 1024*768 | 256 | 1 MiB |
| XGA | 1990 | 80*25 | 1024*768 | 65K | 2 MiB |
La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC.
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)7 con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado8 con sus series de chips gráficos GeForce y Radeon, respectivamente.
Componentes
GPU
La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta gráfica, así como la principal determinante del rendimiento. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en la actualidad oscila entre 500 MHz en las tarjetas de gama baja y 850 MHz en las de gama alta, el número de procesadores shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles. Elementos generales de una GPU:- Shaders: Es elemento más notable de potencia de una GPU, estos shaders unificados reciben el nombre de núcleos CUDA en el caso de nvidia y Procesadores Stream en el caso de AMD. Son una evolución natural de los antiguos pixel shader (encargados de la rasterización de texturas) y vertex shader (encargados de la geometría de los objetos), los cuales anteriormente actuaban de forma independiente. Los shaders unificados son capaces de actuar tanto de vertex shader como de pixel shader según la demanda, aparecieron en el 2007 con los chips G90 de nvidia (Series 8000) y los chips R600 para AMD (Series HD 2000), antigua ATi, incrementando la potencia drásticamente respecto a sus familias anteriores
- ROP: Se encargan de representar los datos procesados por la GPU en la pantalla, además también es el encargado de los filtros como Antialiasing.
Memoria gráfica de acceso aleatorio
Son chips de memoria que almacenan y transportan información entre sí, no son determinantes en el rendimiento máximo de la tarjeta gráfica, pero bien unas especificaciones reducidas pueden limitar la potencia de la GPU. Existen de dos tipos, Dedicada cuando, la tarjeta gráfica o la GPU dispone exclusivamente para sí esas memorias, ésta manera es la más eficiente y la que mejores resultados da; y compartida cuando se utiliza memoria en detrimento de la memoria RAM, ésta memoria es mucho más lenta que la dedicada y por tanto rinde mucho peor, es recurrente en campañas de márketing con mensajes tipo Tarjeta gráfica de "Hasta ~ MB" para engañar al consumidor haciéndole creer que la potencia de esa tarjeta gráfica reside en su cantidad de memoria.- Las características de memoria gráfica de una tarjeta gráfica se expresan en 3 características:
- Capacidad: La capacidad de la memoria determina el número máximo de datos y texturas procesadas, una capacidad insuficiente se traduce en un retardo a espera de que se vacíen esos datos. Sin embargo es un valor muy sobrevalorado como estrategia recurrente de márketing para engañar al consumidor, tratando de hacer creer que el rendimiento de una tarjeta gráfica se mide por la capacidad de su memoria; tal es ésta tendencia, que muchos ensambladores embuten ingentes cantidades de memoria con GPU incompatibles con dicha capacidad, resultando una pérdida notable de la velocidad de dichas memorias, dando como resultado una tarjeta gráfica mucho más lenta que la que contiene una memoria mucho más pequeña y suficiente al sector al que va a pertenecer la tarjeta gráfica y recomendado por el fabricante. Se mide en bytes
- Interfaz de Memoria: También denominado Bus de datos, es la multiplicación resultante del de ancho de bits de cada chip por su número de unidades. Es una característica importante y determinante, junto a la velocidad de la memoria, a la cantidad de datos que puede transferir en un tiempo determinado, denominado ancho de banda. Una analogía al ancho de banda se podría asociar al ancho de una autopista o carriles y al número de vehículos que podrían circular a la vez. La interfaz de memoria se mide en bits.
- Velocidad de Memoria: Es la velocidad a la que las memorias pueden transportar los datos procesados, por lo que es complemento a la interfaz de memoria para determinar el ancho de banda total de datos en un tiempo determinado. Continuando la analogía de la circulación de los vehículos de la autopista, la velocidad de memoria se traduciría en la velocidad máxima de circulación de los vehículos, dando resultado a un mayor transporte de mercancía en un mismo periodo de tiempo. La velocidad de las memorias se mide en Hertzios (su frecuencia efectiva) y se van diseñando tecnologías con más velocidad, se destacan las adjuntas en la siguiente tabla:
| Tecnología | Frecuencia efectiva (MHz) | Ancho de banda (GB/s) |
|---|---|---|
| GDDR | 166 - 950 | 1,2 - 30,4 |
| GDDR2 | 533 - 1000 | 8,5 - 16 |
| GDDR3 | 700 - 1700 | 5,6 - 54,4 |
| GDDR4 | 1600 - 1800 | 64 - 86,4 |
| GDDR5 | 3200 - 7000 | 24 - 448 |
- Ancho de banda: Es la tasa de datos que pueden transportarse en una unidad de tiempo. Un ancho de banda insuficiente se traduce en un importante limitador de potencia de la GPU. Habitualmente se mide en "Gigabytes por segundo" (GB/s).
Por ejemplo, tenemos una tarjeta gráfica con 256 bits de interfaz de memoria y 4200 MHz de frecuencia efectiva y necesitamos hallar su ancho de banda:
Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.
RAMDAC
El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, y nunca inferior a 60).9 Dada la creciente popularidad de los monitores de señal digital, el RAMDAC está quedando obsoleto, puesto que no es necesaria la conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad.Espacio que ocupan las texturas almacenadas
El espacio que ocupa una imagen representada en el monitor viene dada en función de su resolución y su profundidad de color, es decir, una imagen sin comprimir en formato estándar Full HD con 1920x1080 píxeles y 32 bits de profundidad de color ocuparía 66.355.200 bits, es decir, 8,294 MiBSalidas
Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:- SVGA/Dsub-15: Estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. Se conecta mediante pines. Su utilización continúa muy extendida a día de hoy, aunque claramente muestra una reducción frente al DVI en los últimos años.
- DVI: Sustituto del anterior, pero digital, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales o proyectores. Se conecta mediante pines. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI, pues el DVI no es capaz de transmitir audio.
- HDMI: Tecnología propietaria transmisora de audio y vídeo digital de alta definición cifrado sin compresión en un mismo cable. Se conecta mediante patillas de contacto. No esta pensado inicialmente para monitores, sino para Televisiones, por ello no apaga la pantalla cuando deja de recibir señal y debe hacerse manualmente en caso de monitores.
- DisplayPort: Puerto para tarjetas gráficas creado por VESA y rival del HDMI, transfiere vídeo a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañas para anclar el conector impidiendo que se desconecte el cable accidentalmente. Cada vez más tarjetas gráficas van adoptando este sistema, aunque a día de hoy, sigue siendo su uso minoritario, existe una versión reducida de dicho conector llamada Mini DisplayPort, muy usada para tarjetas gráficas con multitud de salidas simultáneas, como pueden ser 5.
- S-Video: implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de vídeo NTSC/PAL, simplemente se está quedando obsoleto.
- Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA. Completamente en desuso para tarjetas gráficas, aunque sigue siendo usado para TV.
- Vídeo por componentes: Sistema analógico de transmisión de vídeo de alta definición, utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). Anteriormente usado en PCs y estaciones de trabajo de gama alta, ha quedador relegado a TV y videoconsolas.
- DA-15 conector RGB usado mayoritariamente en los antiguos Apple Macintosh. Completamente en desuso.
- Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA). Completamente obsoleto
Interfaces con la placa base
| Bus | Anchura (bits) | Frecuencia (MHz) | Ancho de banda (MB/s) | Puerto |
|---|---|---|---|---|
| ISA XT | 8 | 4,77 | 8 | Paralelo |
| ISA AT | 16 | 8,33 | 16 | Paralelo |
| MCA | 32 | 10 | 20 | Paralelo |
| EISA | 32 | 8,33 | 32 | Paralelo |
| VESA | 32 | 40 | 160 | Paralelo |
| PCI | 32 - 64 | 33 - 100 | 132 - 800 | Paralelo |
| AGP 1x | 32 | 66 | 264 | Paralelo |
| AGP 2x | 32 | 133 | 528 | Paralelo |
| AGP 4x | 32 | 266 | 1000 | Paralelo |
| AGP 8x | 32 | 533 | 2000 | Paralelo |
| PCIe x1 | 1*32 | 25 / 50 | 100 / 200 | Serie |
| PCIe x4 | 1*32 | 25 / 50 | 400 / 800 | Serie |
| PCIe x8 | 1*32 | 25 / 50 | 800 / 1600 | Serie |
| PCIe x16 | 1*32 | 25 / 50 | 1600 / 3200 | Serie |
| PCIe x16 2.0 | 1*32 | 25 / 50 | 3200 / 6400 | Serie |
- Slot MSX : bus de 8 bits usado en los equipos MSX
- ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC.
- Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga 1500.
- Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga 4000
- NuBus usado en los Apple Macintosh
- Processor Direct Slot usado en los Apple Macintosh
- MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.
- EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.
- VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz.
- PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz, permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.
- AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.
- PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda de aquel. Sufre de constantes revisiones multiplicando su ancho de banda, ya existiendo la versión 2.0 y pronto, la 3.0. No debe confundirse con PCI-X, versión de PCI.
Dispositivos refrigerantes
Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:- Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de un metal muy conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que a mayor demanda de refrigeración, mayor debe ser la superficie del disipador
- Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador, siempre que nos refiramos al ventilador sólo, y produce ruido al tener partes móviles.
Alimentación
Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, la insuficiencia energética se encuentra en la que puede proporcionar el puerto PCIe que sólo es capaz de aportar una potencia por sí sólo de 75 W.12 Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)13 que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.14
Tipos antiguos de tarjetas gráficas
Tarjeta MDA
"Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KiB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto.
Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su día) un puerto de comunicación para la impresora ¡Una asociación más que extraña a día de hoy!
Tarjeta CGA
"Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el carácter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KiB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto.Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de carácter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow").
Tarjeta HGC
"Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KiB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KiB para el modo gráfico (1 bit x 720 x 348) y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos.Diseñadores, Fabricantes y ensambladores
| Diseñadores de GPU | ||
|---|---|---|
| ATi/AMD | nVIDIA | |
| Ensambladores de Tarjetas | GECUBE | POINT OF VIEW |
| CLUB3D | CLUB3D | |
| POWERCOLOR | EVGA | |
| MSI | MSI | |
| XFX | GAINWARD | |
| ASUS | ASUS | |
| SAPPHIRE | ZOTAC | |
| GIGABYTE | GIGABYTE | |
| HIS | ECS ELITEGROUP | |
| DIAMOND | PNY | |
| HIS | SPARKLE | |
| - | GALAXY | |
| - | PALIT | |
- Diseñadores de GPU: diseñan y generan exclusivamente la GPU. Los dos más importantes son:
- GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados nVIDIA y AMD.
- Fabricantes de GPU: Son quienes fabrican y suministran las unidades extraidas de las obleas de chips a los ensambladores. TSMC y Global Foundities son claros ejemplos.
- Ensambladores: integran las GPUs proporcionadas por los fabricantes con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip tengan formas o conexiones diferentes o puedan dar ligeras diferencias de rendimientos, en especial tarjetas gráficas modificadas u overclokeadas de fábrica.
API para gráficos
A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son:- Direct3D: lanzada por Microsoft en 1996, forma parte de la librería DirectX. Funciona sólo para Windows, ya que es privativa. Utilizado por la mayoría de los videojuegos comercializados para Windows. Actualmente van por la versión 11
- OpenGL: creada por Silicon Graphics a principios de los años 1990; es gratuita, libre y multiplataforma. Utilizada principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Actualmente está disponible la versión 4.1
Efectos gráficos
Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas pueden ser:- Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.
- Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros.
- HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite Antialiasing.
- Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.
- Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.
- Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.
- Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.
- Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante.
- Teselado: Consiste en multiplicar el número de polígonos para representar ciertas figuras geométricas y no se vean totalmente planas. Esta característica fue incluida en la API DirectX 11
Errores comunes
- Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPU y adaptadores de gráficos van en tarjeta ni son el único determinante de su calidad y rendimiento. Es decir, las GPU sí determinan el rendimiento máximo de la tarjeta, pero su rendimiento puede ser capado por tener otros elementos que no estén a su altura, por ejemplo un ancho de banda pequeño.
- Considerar el término tarjeta de vídeo como privativo del PC y compatibles. Esas tarjetas se usan en equipos no PC e incluso sin procesador Intel o AMD y sus chips en videoconsolas.
- Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip gráficos de PC en el mercado son NVIDIA y AMD (anteriormente ATi Tecnologies). Esto se debe a que se encargan solamente, de diseñar los chip gráficos (GPU). Luego, empresas como TSMC o Global Fundities fabrican las GPU y más tarde son ensambladas en PCBs con memorias por ASUS, POV, XFX, Gigabyte, Sapphire y demás ensambladoras para su venta al público.
- Saliendo del círculo de PCs, para otros dispositivos como Smartphones, la mayoría de las GPU vienen integradas en "System on Chip" junto al procesador y el controlador de memoria.
GeForce
GeForce es la denominación que tienen las tarjetas gráficas que cuentan con unidades de procesamiento gráfico (GPU) desarrolladas por la empresa estadounidense NVIDIA. Su introducción en el mercado posicionó a la entonces casi desconocida firma, a ser la compañía líder del sector. Actualmente, la serie GeForce ha conocido trece generaciones a lo largo de su existencia. Además existen versiones profesionales de estas unidades, conocidas con el nombre de Quadro.Varios fabricantes utilizan estos procesadores para crear tarjetas gráficas, entre las cuales cabe destacar GIGABYTE, ASUS, EVGA, BFG, MSI, XFX o PNY entre otros. La competencia directa de GeForce es ATI Technologies, con sus series Radeon.
Generaciones GeForce
GeForce 256
- GeForce 256 (32/64 MB SDR)
- GeForce 256 (32/64 MB DDR)
| Año de lanzamiento | 1999 |
| Versión DirectX | 7.0 |
| Número de transistores | 23 millones |
- Procesador de 256 bits
- Aparece el GPU
- Soporte hardware de Transform & Lighting
- Soporte de Cube Environment Mapping (cube mapping)
- Implementación de memoria DDR
GeForce 2
- GeForce2 MX 100 (32 MB SDR)
- GeForce2 MX 200 (32/64 MB SDR/DDR)
- GeForce2 MX (32 MB SDR)
- GeForce2 MX 400 (32/64 MB SDR/DDR)
- GeForce2 GTS (32/64 MB DDR)
- GeForce2 PRO (32/64 MB DDR)
- GeForce2 Ti VX (64 MB DDR)
- GeForce2 Ti (64 MB DDR)
- GeForce2 Ultra (64 MB DDR)
La segunda generación del procesador NVIDIA vino marcada por un enorme éxito comercial y tecnológico. El GeForce 2 fue el procesador doméstico de gráficos más potente de su tiempo desbancando efectivamente a la competencia. La serie MX, de bajo coste, está entre las tarjetas gráficas más vendidas de la historia. Una versión prematura de GPU para ordenadores portátiles, el GeForce 2 Go, señaló la introducción de NVIDIA en este sector.
| Año de lanzamiento | 2000 |
| Versión DirectX | 8.0 |
| Número de transistores | 60 millones |
- Motores independientes de hardware Transform & Lighting de segunda generación
- Rasterizador shading integrado (Considerado una versión "antigua" de los shaders actuales)
- Procesador de vídeo de alta definición integrado (HDTV)
- Controlador de memoria DDR (excepto MX)
GeForce 3
- GeForce3 (64/128 MB DDR)
- GeForce3 Ti 200 (64/128 MB DDR)
- GeForce3 Ti 500 (64/128 MB DDR)
| Año de lanzamiento | 2001 |
| Versión DirectX | 8.0 |
| Número de transistores | 57 millones |
- Vertex Shader y Pixel Shader programables
- Optimización del bus de memoria (LightSpeed Memory Architecture)
- Incorporación de multisampling antialiasing
GeForce 4
- GeForce4 MX 420 (64 MB SDR)
- GeForce4 MX 440SE (64 MB SDR/DDR)
- GeForce4 MX 440 8x (64/128 MB DDR)
- GeForce4 MX 460 (64 MB DDR)
- GeForce4 MX 4000 (64/128 MB DDR)
- GeForce PCX 4300 (128 MB DDR)
- GeForce4 Ti 4200 (64/128 MB DDR)
- GeForce4 Ti 4200 8x (128 MB DDR)
- GeForce4 Ti 4400 (128 MB DDR)
- GeForce4 Ti 4800 SE (128 MB DDR)
- GeForce4 Ti 4600 (128 MB DDR)
- GeForce4 Ti 4800 (128 MB DDR)
| Año de lanzamiento | 2002 |
| Versión DirectX | 8.1 |
| Número de transistores | 63 millones |
- 2 unidades Vertex Shader programables (estructura de pipeline 4x2)
- Pixel shader 1.3 (Por no soportar PS 1.4 no se considera una GPU compatible con DirectX 8.1)
- Nativa en slot AGP 4x de 1,5 V (versiones muy limitadas se manufacturaron en tipo PCI)
- Soporte de visualización dual (NView)
- Controlador mejorado de memoria hasta 650 MHz DDR (LightSpeed Memory Architecture 2)
- Primera generación en soportar el bus AGP 8x (últimas versiones)
GeForce FX (5)
- GeForce FX 5200(128/256 MB DDR)
- GeForce FX 5200 Ultra(256 MB DDR)
- GeForce PCX 5300(256 MB DDR)
- GeForce FX 5500(128/256 MB DDR)
- GeForce FX 5600 XT(128/256 MB DDR)
- GeForce FX 5600(64/128 MB DDR)
- GeForce FX 5600 Ultra(256 MB DDR)
- GeForce FX 5600 Ultra Rev.2(256 MB DDR)
- GeForce FX 5700 VE(128,256 MB DDR)
- GeForce FX 5700 LE(128,256 MB DDR)
- GeForce FX 5700(256 MB DDR)
- GeForce FX 5700 Ultra(256 MB DDR2)
- GeForce FX 5700 Ultra GDDR3(256 MB GDDR3)
- GeForce PCX 5750(256 MB GDDR3)
- GeForce FX 5800(256 MB DDR2)
- GeForce FX 5800 Ultra(256 MB DDR2)
- GeForce FX 5900 XT(256 MB DDR)
- GeForce FX 5900(128/256 MB DDR)
- GeForce FX 5900 Ultra(256 MB DDR)
- GeForce PCX 5900(256 MB DDR)
- GeForce FX 5950 Ultra(256 MB DDR)
- GeForce PCX 5950(256 MB DDR)
En la gama baja, las GeForce FX5200 / FX5600 rendían generalmente por alto de sus competidoras Radeon y, lo mejor, el rendimiento por píxel de la GeForce FX5200 resultaba inferior al de la tarjeta que supuestamente iba a sustituir, la serie GeForce4 MX basada en DirectX 7 y sin soporte de Pixel Shaders.
Posteriormente, la introducción de las FX5700 y su equivalente Ultra trataron de enfrentarse a la potente serie Radeon 9600 de ATI, obteniendo resultados dispares. Mientras el rendimiento por pipeline de las FX5700 era técnicamente superior a su contrapartida Radeon, arrastraban todos los defectos de la deficiente implementación del lenguaje de shaders 2.0 de Microsoft que presentaba la serie FX.
NVIDIA se adelantó al mercado desarrollando versiones de sus procesadores FX5200, FX5700 y FX5900 en el bus PCI-Express; para el que no existía entonces una gama de productos. Fueron respectivamente los modelos PCX5300, PCX5750 y PCX5900.
Los importantes problemas de temperatura junto al enorme tamaño del microprocesador en sí impidieron a NVIDIA desarrollar una GPU para equipos portátiles basada en los procesadores más potentes de la serie FX, por lo que sólo existieron dos productos portátiles: GeForce FX5100 Go y FX5200 Go, ambos basados en el FX5200 de sobremesa.
| Año de lanzamiento | 2003 |
| Versión DirectX | 9.0 ó 9.0b |
| Número de transistores | aprox. 125 millones |
- Primer procesador en usar memoria DDR 2 (posteriormente hasta GDDR 3)
- Soporte Vertex Shader 2.0+ y Pixel Shader 2.0+
- Codificador de TV integrado
- Implementación mejorada de compresión de texturas y técnicas-Z
- Hasta 16 texturas por píxel
GeForce 6
- GeForce 6200(128/256 MB GDDR2)
- GeForce 6200TC(16/32/64/128/256 MB GDDR2)
- GeForce 6200LE(128/256 MB GDDR2)
- GeForce 6200AGP(128/256/512 MB GDDR2)
- GeForce 6500(128/256 MB GDDR2)
- GeForce 6600LE(128/256 MB GDDR2)
- GeForce 6600(128/256/512 MB GDDR2)
- GeForce 6600DDR2(256/512 MB GDDR2)
- GeForce 6600GT(128/256 MB GDDR3)
- GeForce 6700XL(128 MB GDDR3)
- GeForce 6800LE(256 MB GDDR3)
- GeForce 6800XT(256 MB GDDR3)
- GeForce 6800(256 MB GDDR3)
- GeForce 6800GTO(256 MB GDDR3)
- GeForce 6800GS(256 MB GDDR3)
- GeForce 6800GT(256 MB GDDR3)
- GeForce 6800 Ultra(512 MB GDDR3)
- GeForce 6800 Ultra Extreme(256 MB GDDR3)
Se produjeron tres familias de la sexta generación, la 6202, 666 y la 69. La sexta generación, coincidiendo con el auge de la industria de los equipos portátiles, es la que más modelos presenta para este sector. Existen el GeForce Go 6100, 6150, 6200, 6400, 6600 y el 6800. Este último representa el procesador gráfico para ordenadores portátiles más potente creado hasta 2005 se calcula que desempeña sobre el 70% que su homónimo de escritorio.
Posteriormente, NVIDIA integró una GPU (la NV44, también conocida como GeForce 6200 TurboCache) en uno de sus chipsets. Estas GPU integradas se conocen como GeForce 6100 y 6150 las cuales tienen un rendimiento de 1.200-1.300 3DMarks03, indicador suficiente para darse una idea de su rendimiento.
Geforce 6 es la última generación que es soportada por los controladores de Nvidia para Windows 98/ME.
| Año de lanzamiento | 2004 |
| Versión DirectX | 9.0c |
| Número de transistores | 222 millones |
- Primer procesador en soportar Vertex Shader 3.0 y Pixel Shader 3.0
- Arquitectura de 16 pipelines paralelos (en modelos 6800 Ultra y GT)
- Introducción del soporte multiprocesador mediante SLI
- Mejoras sustanciales en los shaders programables
- Decodificación de vídeo por hardware (PureVideo (NVIDIA)).
- Mejoras en filtrado anisótropo (hasta 16x) y técnicas antialias (8x)
- Tratamiento de datos de 128 bits en pipeline
- Desentrelazado de vídeo adaptativo
- Implementación en hardware de buffers FP16 capaces de hacer varias operaciones como combinación y filtrado. Estos buffers permitieron a NVIDIA implementar un nuevo tipo de iluminación denominado HDRL (High Dynamic Range lightning).
GeForce 7
- GeForce 7100 GS(128/512 MB DDR2)
- GeForce 7200 GS(64/128/256/512 MB DDR2)
- GeForce 7300 SE(128/256/512 MB DDR)
- GeForce 7300 LE(128/256/512 MB DDR2)
- GeForce 7300 GS(128/256/512 MB DDR2)
- GeForce 7300 GT(256/512 MB DDR2/GDDR3)
- GeForce 7500 LE(256/512 MB DDR2)
- GeForce 7600 GS(256/512 MB DDR2/GDDR3)
- GeForce 7600 GT(256/512 MB DDR2/GDDR3)
- GeForce 7600 GT 80 nm(256/512 MB DDR2/GDDR3)
- GeForce 7650 GS(256 MB DDR2)
- GeForce 7800 GS(256 MB GDDR3)
- GeForce 7800 GT(256 MB GDDR3)
- GeForce 7800 GTX(256 MB GDDR3)
- GeForce 7800 GTX 512(512 MB GDDR3)
- GeForce 7900 GS(256 MB GDDR3)
- GeForce 7900 GT(256/512 MB GDDR3)
- GeForce 7900 GTO(512 MB GDDR3)
- GeForce 7900 GTX(512 MB GDDR3)
- GeForce 7950 GT(256/512 MB GDDR3)
- GeForce 7950 GX2(512 X 2 MB GDDR3)
Se ha considerado en comunidades de alto rango tecnológico que NVIDIA desarrollo esta nueva familia de GPUs como una GeForce 6 mejorada y optimizada para mejor rendimiento frente a los inminentes cambios de sistemas operativos y lenguajes de programación para juegos.
En esta serie también se agrega otra tarjeta: la 7950 GT para bus de AGP. Esto da un gran avance en tecnología para el puerto que ya se creía obsoleto. Al igual que en la versión PCI-E, la 7950 GT cuenta con la GPU G71 de última generación para el puerto AGP con un núcleo base a 550 MHz y memoria a 1.300 MHz, lo que la convierte en la tarjeta más avanzada para AGP por parte de NVIDIA.
El poder de NVIDIA en cuestiones de mercado, quedó patente cuando Sony le pidió que desarrollara el chip gráfico para su consola PlayStation 3. El RSX, nombre de este chip para Sony, se basa en la arquitectura del G71(GeForce 7900 GTX) , aumentado de MHz, y desarrollando su potencial real, al ser un circuito cerrado.
| Año de lanzamiento | 2005 |
| Versión DirectX | 9.0c |
| Número de transistores | 302 millones (G70), 281 millones (G71) |
- Nombre código del GPU : G70 (Se ve un cambio en el nombre código de la GPU -de NVxx a Gxx-)
- Arquitectura de 24 pixel pipelines paralelos
- Arquitectura de 7 vertex pipelines paralelos
- Bus de Transferencia: PCI-Express y AGP 8x/4x
- Tecnologías CineFX e IntelliSample de cuarta generación
- Decodificación de vídeo H.264, MPEG-2 y WMV por hardware (PureVideo)
- Soporte de técnicas TSAA/TMAA (Transparency Supersampling/Multisampling Antialiasing)
- El rendimiento de una 7800 GTX supondría un incremento en torno al 25-35% frente al modelo 6800 Ultra o incluso algo más en la medida en que escalamos resoluciones.
GeForce 8
- GeForce 8300 GS(512 MB DDR2)
- GeForce 8400 GS(128/256/512 MB DDR2)
- GeForce 8400 GS Rev.2(128/256/512 MB DDR2)
- GeForce 8500 GT(256/512/1024 MB DDR2)
- GeForce 8600 GS(256/512 MB DDR2)
- GeForce 8600 GT(256/512/1024 MB DDR2/GDDR3)
- GeForce 8600 GTS(256/512 MB GDDR3)
- GeForce 8800 GS(384/768 MB GDDR3)
- GeForce 8800 GTS (G80)( 320/640 MB GDDR3)
- GeForce 8800 GTS 112 (G80)(640 MB GDDR3)
- GeForce 8800 GT(256/512/1024 MB GDDR3)
- GeForce 8800 GTS (G92)(512 MB GDDR3)
- GeForce 8800 GTX(768 MB GDDR3)
- GeForce 8800 Ultra(768 MB GDDR3)
Con su lanzamiento el 8 de noviembre de 2006, la generación de GeForce 8 (nombre en clave G80) fue la primera serie de GPUs en soportar plenamente Direct3D 10. Consiste en una arquitectura nueva, fabricada en 80nm. Una característica principal es la de tener su arquitectura shader totalmente unificada. Originalmente sólo la 8800GTX fue lanzada al mercado, tardando algo más el modelo 8800GTS y hasta casi los 6 meses para los modelos de rango medio/bajo (8300GS, 8400GS, 8500GT, 8600GS, 8600GT y 8600GTS).
A finales de ese mismo año 2007, se realizó una revisión del chip G80, que se denominó chip G92. Éste paso a fabricarse de los 80nm a los 65nm en los modelos 8800GS, 8800GT y 8800GTS.
| Año de lanzamiento | 2006 |
| Versión DirectX | 10.0 |
| Número de transistores | 681 millones |
| Tecnología de fabricación | 80 nm |
- Arquitectura unificada, completamente diferente a los diseños anteriores.
- Sustancial mejora en los algoritmos de AF y de AA, mejorando considerablemente la calidad de imagen comparada a los pobres resultados de las serie 6 y 7, poniéndose a la par de ATi y su familia Radeon X1000.
- Bus de 384 bits (con 768 MiB de RAM) nunca usado hasta la fecha.
- El GPU trae un IHS para ser protegido de las instalaciones de HSFs, por ejemplo. La última vez que NVIDIA usó esto fue con el NV30.
- El tope de gama (8800 GTX y 8800 Ultra) requieren 2 conectores PCI-E de poder con 2 tomas de poder cada uno (4 tomas en total)
- PCB de 24 cm, el más largo jamás visto en una placa para consumo masivo (después de la 3dfx Voodoo 5 6000, que nunca se comercializó), causando problemas en varios equipos por su longitud.
GeForce 9
- GeForce 9300 GS(256 MB DDR2)
- GeForce 9400 GT(256/512/1024 MB GDDR3)
- GeForce 9500 GT(256/512/1024 MB DDR2 y GDDR3)
- GeForce 9600 GSO(384/768/1536 MB GDDR3)
- GeForce 9600 GSO 512(512 MB GDDR3)
- GeForce 9600 GT Green Edition(512/1024 MB GDDR3)
- GeForce 9600 GT(512/1024 MB GDDR3)
- GeForce 9800 GT Green Edition(512/1024 MB GDDR3)
- GeForce 9800 GT(512/1024 MB GDDR3)
- GeForce 9800 GTX(512 MB GDDR3)
- GeForce 9800 GTX+(512/1024 MB GDDR3)
- GeForce 9800 GX2(512 x 2 MB GDDR3)
La serie se compone de prácticamente la misma gama de modelos que en su anterior generación, entre los que destacan la 9600GT o la 9800GTX. También habría que destacar el modelo 9800GX2 ya que utiliza una doble GPU y un doble bus de memoria de 256Bits (uno por cada GPU).
| Año de lanzamiento | 2007 |
| Versión DirectX | 10.0 |
| Número de transistores | 754 millones |
| Tecnología de fabricación | 65 nm |
- Resoluciones de hasta 2.560 · 1.600
- Tecnología PureVideo® HD
- Tecnología HybridPower™
- Tecnología SLI® (SLI y 3-Way SLI)
- Compatibilidad con PCI-E 2.0
- Shader Model 4.0, y OpenGL 2.1
- Soporte para el lenguaje de programación CUDA
| Reloj central (MHz) | Reloj de las unidades de sombreado (MHz) | Reloj de la memoria (MHz) | Cantidad de memoria | Interfaz de memoria | Ancho de banda de memoria (GiB/s) | Tasa de relleno de texturas (miles de millones/s) | |
| 9800 GX2 | 600 | 1.500 | 1.000 | 1 GiB | 512 bits | 128 | 76,8 |
| 9800 GTX | 675 | 1.688 | 1.100 | 512 MiB | 256 bits | 70,4 | 43,2 |
| 9600 GT | 650 | 1.625 | 900 | 512 MiB / 1 GiB | 256 bits | 57,6 | 20,8 |
| 9600 GSO | 550 | 1.375 | 800 | 384 MiB | 192 bits | 38,4 | 26,4 |
GeForce 100
- GeForce G100(512 MB DDR2)
- GeForce GT 120(512 MB DDR2)
- GeForce GT 130(1536 MB DDR2)
- GeForce GT 140(1024 MB GDDR3)
- GeForce GTS 150(1024 MB GDDR3)
| Año de lanzamiento | 2009 |
| Versión DirectX | 10.0 |
| Número de transistores | De 210 a 754 millones |
| Tecnología de fabricación | 55 nm |
- Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
- Tecnología PureVideo® HD
- Tecnología HybridPower™
- Tecnología PhysX™ en modelos seleccionados
- Tecnología SLI® (SLI y 3-Way SLI)
- Compatibilidad con PCI-E 2.0
- Soporta Shader Model 4.0 y OpenGL 2.1
- Soporte para el lenguaje de programación CUDA
GeForce GTX 200
- GeForce GTX 260 192 SP(896 MB GDDR3)
- GeForce GTX 260 216 SP(896 MB GDDR3)
- GeForce GTX 280(1024 MB GDDR3)
| Año de lanzamiento | 2008 |
| Versión DirectX | 10.0 |
| Número de transistores | 1.400 millones |
| Tecnología de fabricación | 65 nm |
- Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
- Tecnología PureVideo® HD
- Tecnología HybridPower™
- Tecnología SLI® (SLI y 3-Way SLI)
- Tecnología PhysX™ en modelos seleccionados
- Compatibilidad con PCI-E 2.0
- Soporta Shader Model 4.0 y OpenGL 2.1
- Soporte para el lenguaje de programación CUDA
Actualización
- GeForce 205(512 MB DDR2)
- GeForce G 210(512 MB DDR2/GDDR3)
- GeForce GT 220(512/1024 MB DDR2/GDDR3)
- GeForce GT 230 v.1(512/1024 MB GDDR3)
- GeForce GT 230 v.2(1536 MB DDR2)
- GeForce GT 240(512/1024 MB GDDR3/GDDR5)
- GeForce GTS 240(1024 MB GDDR3)
- GeForce GTS 250(512/1024 MB GDDR3)
- GeForce GTX 260 216 Cores (55 nm)(896 MB GDDR3)
- GeForce GTX 275(896 MB GDDR3)
- GeForce GTX 285(1024 MB GDDR3)
- GeForce GTX 295(896 x 2 MB GDDR3) (EVGA NVIDIA GeForce GTX 295)
| Año de lanzamiento | 2009 |
| Versión DirectX | 10.0 |
| Número de transistores | 1.400 millones |
| Tecnología de fabricación | 55 nm |
GeForce 300
- GeForce G310(512 MB DDR2)
- GeForce G315(512 MB GDDR3)
- GeForce GT 320(1024 MB GDDR3)
- GeForce GT 330(1024/1536/2048 MB DDR2/GDDR3)
- GeForce GT 340(512/1024 MB GDDR5)
| Año de lanzamiento | 2009 |
| Versión DirectX | 10.1 |
| Número de transistores | De 260 a 754 millones |
| Tecnología de fabricación | 40 nm |
- Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
- Tecnología PureVideo® HD
- Tecnología HybridPower™
- Tecnología PhysX™ en modelos seleccionados
- Compatibilidad con PCI-E 2.0
- Soporta Shader Model 4.1 y OpenGL 3.2
- Soporte para el lenguaje de programación CUDA
GeForce 400
- GeForce GTX 480 (1536 MB GDDR5)
- GeForce GTX 470 (1280 MB GDDR5)
- GeForce GTX 465 (1024 MB GDDR5)
- GeForce GTX 460 (1024 y 768 MB GDDR5)
- GeForce GTS 460 SE (1024 MB GDDR5)
- GeForce GTS 450 (1024 MB GDDR5)
- GeForce GTS 440 (1024 MB GDDR3 y 512 MB GDDR5)
- GeForce GT 430 (2048 y 1024 MB GDDR3, se especula una versión con GDDR5)
| Año de lanzamiento | 2010 |
| Versión DirectX | 11.0 |
| Número de transistores | 3000 millones |
| Tecnología de fabricación | 40 nm |
- Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
- NVIDIA SLI® Ready
- Tecnología PureVideo® HD
- Tecnología PhysX™
- GeForce 3D Vision Ready
- GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales)
- Compatibilidad con PCI-E 2.0 x16
- Soporta Shader Model 5.0 y OpenGL 4.0
- Soporte para el lenguaje de programación CUDA
GeForce 500
- GeForce GTX 590 (1536 MB x2 GDDR5)
- GeForce GTX 580 (1536 MB GDDR5)
- GeForce GTX 570 (1280 MB GDDR5)
- GeForce GTX 560 Ti (1024 MB GDDR5)
- GeForce GTX 560 (1024 MB GDDR5)
- GeForce GTS 550 Ti (1024 MB GDDR5)
- GeForce GT 520 (1024 MB GDDR3)
El renovado chip Fermi es más grande: incluye 512 procesadores stream, agrupados en 16 grupos de multiprocesadores corriente (cada uno con 32 núcleos CUDA), y es fabricado por TSMC en un proceso de 40 nm. El 24 de marzo de 2011 fue presentado el modelo de más alta gama, la tarjeta de doble GPU Geforce GTX 590(512 x2 shaders, 48 x2 ROPs y 2,49 Tflop de poder de cálculo).
| Año de lanzamiento | 2010 |
| Versión DirectX | 11.0 |
| Número de transistores | 3000 millones |
| Tecnología de fabricación | 40 nm |
- Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
- NVIDIA SLI® Ready
- Tecnología PureVideo® HD
- Tecnología PhysX™
- GeForce 3D Vision Ready
- GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales)
- Compatibilidad con PCI-E 2.0 x16
- Soporta Shader Model 5.0, OpenGL 4.1 y OpenCL 1.0
- Soporte para el lenguaje de programación CUDA
Radeon
Radeon es la denominación genérica de los procesadores gráficos producidos por ATI Technologies desde el año 2000, herederos de la serie Rage de la misma compañía. Durante los años 2000 se fue convirtiendo en la principal competencia de nVIDIA en el mercado de procesadores gráficos, tanto en el sector doméstico, incluyendo PCs de sobremesa y portátiles (modelos Mobility), como en el profesional (modelos FireGL) y en la fabricación de procesadores gráficos para consolas domésticas. La serie Radeon evolucionó a lo largo de tres generaciones coincidentes con las versiones de DirectX a las cuales se adaptaban.Generaciones de APIs
DirectX 7
El primer chip de ATI con soporte completo de DirectX 7 fue el R100, lanzado en 2000. Utilizado inicialmente en el modelo Radeon 256, hubo algunas variantes, como el RV100 (Radeon VE/7000) y el RV200 (Radeon 7500). Las primeras Mobility Radeon utilizaron estos chips. Estos chips, no pudieron alcanzar ni en rendimiento, ni en éxito, a los equivalentes en NVIDIA: el NV10 (Geforce 256) y NV15(Geforce 2).DirectX 8.1
El R200 fue el chip de ATI que implementaba las funciones relativas a DirectX 8.1, destacando entre otras tecnologías los pixel y vertex shader. El primer modelo que hizo uso de este chip fue la Radeon 8500, puesta a la venta en 2001. Algunas variantes de este chip fueron el RV250 (Radeon 9000), una versión de coste reducido y un poco más lenta que la original en casi todo, por tener la mitad de relleno en multitexturas; y el RV280 (Radeon 9200/9250), una simple revisión del RV250 para añadirle AGP 8X. Los modelos Mobility Radeon de esta generación seguían el mismo patrón de nombrado. Aquí ATI se labro el respeto de la industria, y estas tarjetas pusieron en aprieto a NVIDIA hasta la salida del NV25, aunque ellos habían sacado antes una gráfica con soporte DX 8, la NV20 (Geforce 3).DirectX 9
El paso a la tecnología DirectX 9 dio lugar al chip R300, que vio la luz en 2002. Con este chip, ATI rebasó a nVIDIA (si bien es cierto que Nvidia se tomó la revancha en las versiones b y c de DirectX con los nuevos procesadores de las series 6xxx y 7xxx) y se convirtió en líder del mercado durante varios años. El primer modelo en implementar el chip fue la Radeon 9500. Una variación del chip fue el RV350, fabricado en un tamaño de 130 nm, por el contrario de los 150 nm del R300. Los modelos Radeon 9600 implementaron dichas modificaciones. Otras variaciones fueron el R350 (Radeon 9800) y el R360 (Radeon 9800XT). Asimismo, el RV350 también tuvo varias versiones, como RV360, RV370 y RV380, los cuales se utilizaron en los modelos Radeon 9550, 9600 XT, X300 y X600. Los modelos Mobility Radeon hicieron uso de los chips RV3x0DirectX 9.0b
La serie Radeon X800 R420 está basada en el mismo tipo de tecnología encontrada en la serie anterior, esta vez con soporte para compresión 3Dc para normal maps, un controlador de memoria mejorado (256 bit) y demás. La X800 XT PE fue la tarjeta de vídeo más rápida del momento, pero ATI enfrentó severos problemas para poderlas producir en masa, por lo que su costo era muy elevado. Tiempo después sale al mercado la nueva serie X850, utilizando los nuevos chips PCI-E R480. Ofrecían un rendimiento ligeramente superior al de las X800, pero esta vez eran más fáciles de obtener, ya que ATI podía fabricarlas más fácilmente.DirectX 9.0c
Basadas en el chip R520 y luego R580-, con soporte para shaders 3.0. Controlador de memoria interno de 512 bit (256 bit externo). Tienen función Avivo. Se concentran más en pixel shaders que en pixel pipelines (Poseen 48 pixel shader processors y 16 pixel pipelines). Esto les permite tener más potencia que las tarjetas competidoras en juegos que hacen uso extensivo de shaders.Aparece la Radeon X1950XTX, la primera tarjeta en utilizar las nuevas memorias GDDR4.
También hace su aparición la Radeon X1950PRO, la primera tarjeta que no requiere el cable externo Crossfire. En su lugar, utiliza unos "puentes" similares a los que utiliza Nvidia con su tecnología SLI.
DirectX 10
A inicios del año 2007 aparece a la luz el primer GPU de ATI en darle soporte a DX10, con un nombre codigo de R600 fue la base de la serie Radeon HD 2000.Cuenta con shaders unificada y es compatible con Direct3D 10.0 y con Shader Model 4.0, junto con OpenGL 2.1 . El primer producto de la línea, la Radeon HD 2900 XT, se puso en marcha el 14 de mayo de 2007.
DirectX 10.1
A mediados de noviembre de 2007 aparece la revisión RV670 de la serie del chip R600 fabricado en 55 nm con 666 millones de transistores. Concretamente la tarjeta gráfica HD 3870 (512 MB, GDDR 4) trabaja a unos 775 MHz de frecuencia en Núcleo y 2.25 Ghz Memoria. Da soporte para las APIs DirectX 10.1 y OpenGl 2.0. Incluye salida HDMI y puede ser configurada en formato CrossFire (Tecnología por la cual dos o más tarjetas iguales pueden ser instaladas en la misma placa base con el consiguiente aumento de rendimiento gráfico). El menor tamaño de su GPU incide directamente en el coste de producción, lo cual abarata el producto al consumidor y lo que es más importante para la firma: aseguran un éxito empresarial difícilmente superable por la competencia, al acaparar la atención de las multinacionales ensambladoras de computadoras (Hp, Dell, Acer, etc.).2008.Se produce el nuevo lanzamiento, la tarjeta HD 3870 X2 con doble GPU incorporada. En la siguiente prueba benchmark parece batir al más poderoso lanzamiento actual en gráficas: NVIDIA Geforce 8800 Ultra. Se considera que la HD 3870 X2 suele ser más barata que su oponente.
Las siguientes gráficas de ATI en soportar la versión 10.1 de la API de Microsoft es la serie HD 4000, centrada principalmente en los modelos 4650, 4670, 4830, 4850 y 4870. Estas dos últimas tienen versiones con doble núcleo de GPU (X2), y todas las mencionadas pueden ser montadas en Crossfire para un óptimo rendimiento. También hay que destacar que la serie 4 supuso un duro golpe a Nvidia desde su lanzamiento debido al gran rendimiento sobre todo de las gráficas 4670 (al nivel de la 9600GS), 4850 (al nivel de la 9800GTX+, más tarde denominada GTS 250) y la 4870, dando el mismo rendimiento que la GTX 260 en su revisión 216 SP a 55nm por un precio muy ajustado. (llegando a costar 60, 90 y 120 euros respectivamente)
DirectX 11
En Septiembre del 2009, Ati lanza el GPU Cypress a 40nm, compuesto por 1600 stream processors, 2150 millones de transistores y 32 ROPs. La HD 5870 tiene un rendimiento muy aproximado a la GTX 295 y la HD 5850 supera el rendimiento de la GTX 285, la MonoGPU que tenía la corona de rendimiento antes de la salida de las mismas.Un mes después, Ati sacaría el GPU Juniper, que vendría a sustituir en rendimiento a la serie 4800, esta estaría formada por la HD 5770 y la HD 5750 a un precio muy razonable y con un bus de 128 bits, la mitad que la serie 4800, pero teniendo el mismo ancho de banda efectivo dado que usa memorias GDDR5 en vez de GDDR3. Las GDDR5 son capaces de funcionar a velocidades muchisimo mayores, rindiendo lo mismo con la mitad del bus de las Radeon 4800.
Precios Nvidia
AMD - ATI
| Nombre | Precio | Marca | |||||
![]() | T.Gráfica Gigabyte AMD HD5450 512Mb GDDR2 - VGA - HDMI - DP - Low Profile Modelo: GV-R545D2-512D |
| Gigabyte | | |||
| |||||||
![]() | T.Gráfica Asus Radeon 5450 SILENT/DI/1Gb GDDR3 V2 - Low Profile Modelo: 90-C1CP2U-L0UANAYZ |
| Asus | | |||
| |||||||
![]() | T.Gráfica MSI R5450-MD1GD3H/LP 1024Mb GDDR3 - DVI - HDMI Modelo: 912-V234-014 |
| MSI | | |||
| |||||||
![]() | T.Gráfica Sapphire 6450 512Mb GDDR3 HDMI - DVI-D -VGA Modelo: 11190-01-20G |
| Sapphire | | |||
| |||||||
![]() | T.Gráfica Sapphire Radeon HD6450 1Gb GDDR3 Modelo: 11190-02-20G |
| Sapphire | | |||
| |||||||
![]() | Tarjeta gráfica Sapphire 5450 - 1Gb - PCIe - HDMI - Pasiva Modelo: 11166-02-20R |
| Sapphire | | |||
| |||||||
![]() | T.Gráfica ASUS EAH5450/DI/1Gb GDDR3 - Low Profile Modelo: 90-C1CNX0-L0UANAYZ |
| Asus | | |||
| |||||||
![]() | T.Gráfica ASUS EAH5450 SILENT/DI/512Mb GDDR2 - Low Profile Modelo: 90-C1CP2A-J0UANABZ 90-C1CP2A-J0UANAYZ - REV 1.01 |
| Asus | | |||
| |||||||
![]() | T.Gráfica Gigabyte AMD HD6450 1Gb GDDR3 - DVI - VGA - HDMI - Low Profile Modelo: GV-R645OC-1GI |
| Gigabyte | | |||
| |||||||
![]() | T. Gráfica Gigabyte Radeon 5450 1GB DDR3 Modelo: R545SGI |
| Gigabyte | | |||
| |||||||
![]() | T. Gráfica GIGABYTE ATI HD6570 1GB GDDR3 128BIT DVI/VGA/HDMI Modelo: GV-R657OC-1GI |
| Gigabyte | | |||
| |||||||
![]() | T.Gráfica Radeon HD6570 2Gb GDDR3 Modelo: 11191-02-20G |
| Sapphire | | |||
| |||||||
![]() | T.Gráfica Sapphire Radeon HD6570 1Gb GDDR3 - LP Modelo: 11191-00-20G |
| Sapphire | | |||
| |||||||
![]() | T.Gráfica XFX AMD HD 6670 1Gb GDDR3 Modelo: HD-667X-ZNF2 |
| XFX | | |||
![]() | T.Gráfica Asus Radeon 5570 SILENT/DI 1Gb GDDR2 Modelo: 90-C1CP80-L0UAN0YZ |
| Asus | | |||
| |||||||
![]() | Sapphire ATi AMD HD5670 1GB GDDR5 PCI-E DVI-I / HDMI / Display Port Modelo: 11168-00-20R |
| Sapphire | | |||
![]() | T.Gráfica Sapphire Radeon HD6670 1Gb GDDR5 Modelo: 11192-01-20G |
| Sapphire | | |||
| |||||||
![]() | T.Gráfica Sapphire HD6750 512 Mb GDDR5 HDMI - DVI-I - DP Lite Modelo: 11186-06-20G |
| Sapphire | | |||
| |||||||
![]() | T. Gráfica Asus Radeon EAH3850 Magic - HTDP - 512Mb - PCIe Modelo: EAH3850 Magic |
| Asus | | |||
| |||||||
![]() | T.Gráfica Sapphire HD6770 512Mb GDDR5 HDMI - DVI-I - DP Modelo: 11189-06-20G |
| Sapphire | | |||
| |||||||









































