La tarjeta de video (también adaptador de video [1] , tarjeta de video [2] , adaptador de gráficos [1] , tarjeta gráfica , tarjeta gráfica , acelerador de gráficos [3] ) es un dispositivo que convierte una imagen gráfica almacenada como contenido de una computadora . s (o el propio adaptador) en un formato adecuado para su posterior visualización en la pantalla del monitor . Por lo general, la tarjeta de video se fabrica en forma de placa de circuito impreso ( placa de extensión ) y se inserta en la ranura de expansión de la placa base ., universales o especializados ( AGP [4] , PCI Express ) [5] [6] .
Las tarjetas de video ubicadas en la placa del sistema también están muy extendidas , tanto en la forma de un chip de GPU separado y discreto , como como parte integral del puente norte del conjunto de chips o CPU ; en el caso de una CPU, la GPU incorporada (integrada [7] ) no puede, estrictamente hablando, llamarse tarjeta de video .
Las tarjetas de video no se limitan a la simple salida de imágenes, tienen un procesador de gráficos integrado que puede realizar un procesamiento adicional, eliminando esta tarea del procesador central de la computadora [8] . Por ejemplo, las tarjetas gráficas Nvidia y AMD ( ATi ) representan la canalización de gráficos OpenGL y DirectX y Vulkan en hardware [9] .
También hay una tendencia a utilizar la potencia informática de la GPU para resolver tareas no gráficas (por ejemplo, minería de criptomonedas ).
Whirlwind , construida entre 1944 y 1953, se considera la primera computadora equipada con un dispositivo de visualización de imágenes . El adaptador de video de la computadora Whirlwind podía mostrar hasta 6250 puntos por segundo con direcciones de 2048 × 2048 posiciones, o hasta 550 dígitos, y también estaba equipado con un lápiz óptico [10] .
En marzo de 1973, salió a la luz la minicomputadora Xerox Alto , a la que se le puede llamar la primera computadora personal [11] . Alto tenía una interfaz gráfica con una metáfora de ventana y escritorio , para lo cual estaba equipado con un controlador de pantalla [12][ significado del hecho? ] , que permitió mostrar una imagen monocromática con una resolución de 606 × 808 píxeles y un monitor de retrato.
En 1975 salió a la venta el Altair 8800 . Inicialmente, no estaba equipado con ninguna E / S, a excepción de un conjunto de interruptores de palanca y LED en el panel frontal. Se suponía que estaba conectado a un teletipo o terminal de texto. Sin embargo, en 1976, salió a la venta una tarjeta de video [13] Cromemco Dazzler , que permitía mostrar una imagen en color formada en la memoria de la computadora en la pantalla de un televisor doméstico convencional [14] . La primera versión permitía mostrar una imagen de hasta 128×128 píxeles, la próxima generación, hasta 756×484.
El adaptador de video MDA ( Monochrome Display Adapter ) fue lanzado por IBM en 1981 para IBM PC [15] . Admitía una resolución de 720x350 píxeles y funcionaba solo en modo texto, mostrando hasta 25 líneas en la pantalla. No podía transmitir ningún color o información gráfica [1] . Hercules en 1982 lanzó un desarrollo posterior del adaptador MDA, el adaptador de video HGC ( Hercules Graphics Controller ) , que admitía dos páginas gráficas, pero aún no permitía trabajar con color.
La primera tarjeta gráfica en color para PC fue la CGA ( Adaptador de gráficos en color ), lanzada por IBM en 1981 . Podría funcionar en modo texto, mostrando 16 colores de caracteres, o en modo gráfico, mostrando imágenes de cuatro colores en baja resolución (320 × 200). El modo de alta resolución de 640x200 era monocromático. En el desarrollo de esta tarjeta, en 1984, apareció EGA ( English Enhanced Graphics Adapter ), un adaptador de gráficos mejorado, con una paleta ampliada a 64 colores [1] . La resolución se ha mejorado a 640×350. Una característica de estos adaptadores era que usaban la ranura de bus ISA , que tiene una arquitectura abierta, en relación con la cual el usuario podía cambiar independientemente la tarjeta de video a la deseada [1] .
Las interfaces con el monitor de todos estos tipos de adaptadores de video eran digitales, MDA y HGC transmitían solo si el punto estaba encendido o no y una señal de brillo adicional para el atributo de texto "brillante", similar a CGA en tres canales (rojo, verde, azul) transmitía la señal de video principal, y adicionalmente podía transmitir una señal de luminancia (16 colores en total), EGA disponía de dos líneas de transmisión para cada uno de los colores primarios, es decir, cada color primario podía mostrarse a pleno brillo, 2 /3 o 1/3 de brillo completo, lo que dio un total de 64 colores como máximo.
En 1987 aparece un nuevo adaptador gráfico MCGA ( English Multicolor Graphics Adapter ), en el que los ingenieros de IBM lograron aumentar el modo texto a 50 líneas, y el modo gráfico a 262.144 colores, por lo que se hizo necesario cambiar de señal digital a analógica . para el monitor Luego, IBM fue aún más lejos y unos meses más tarde lanzó VGA ( English Video Graphics Array ), que se convirtió en el estándar de facto para los adaptadores de video durante muchos años. En modo gráfico, su resolución era de 640x480 y se destacaba por el hecho de que la relación de la cantidad de píxeles horizontal y verticalmente coincidía con la relación de aspecto estándar (para ese momento) de la pantalla del monitor: 4:3. Desde 1991, apareció el concepto de SVGA (Super VGA), una extensión de VGA con la adición de modos superiores. El número de colores mostrados simultáneamente a una resolución de 800x600 aumenta a 65 536 (Color de alta densidad, 16 bits) y 16 777 216 (Color verdadero, 24 bits) [1] . El soporte para VBE aparece en las funciones de servicio (Extensión BIOS VESA - Extensión BIOS estándar VESA ). SVGA ha sido aceptado como el estándar de adaptador de video de facto desde aproximadamente mediados de 1992 , luego de la adopción del estándar VBE versión 1.0 por parte de VESA . Hasta ese momento, casi todos los adaptadores de video SVGA eran incompatibles entre sí.
La interfaz gráfica de usuario , que apareció en muchos sistemas operativos , estimuló una nueva etapa en el desarrollo de adaptadores de video [1] . Aparece el concepto de "graphics accelerator" (acelerador de gráficos). Estos son adaptadores de video que realizan algunas funciones gráficas a nivel de hardware. Estas funciones incluyen: mover grandes bloques de imagen de un área de la pantalla a otra (por ejemplo, al mover una ventana), rellenar áreas de la imagen, dibujar líneas, arcos, fuentes, compatibilidad con un cursor de hardware, etc. impulso directo al desarrollo de un dispositivo tan especializado Resultó que la interfaz gráfica de usuario es, sin duda, conveniente, pero su uso requiere recursos informáticos considerables del procesador central, y el acelerador de gráficos solo está diseñado para eliminar la mayor parte de los cálculos para la visualización final de la imagen en la pantalla.
El término acelerador 3D en sí significa formalmente una tarjeta de expansión adicional que realiza funciones auxiliares para acelerar la formación de gráficos tridimensionales . Mostrar el resultado como una imagen 2D y transferirlo al monitor no es tarea del acelerador 3D. Casi nunca se encuentran aceleradores 3D en forma de un dispositivo separado. Casi todas las tarjetas de video (excepto las altamente especializadas), incluidos los adaptadores de gráficos integrados como parte de los procesadores y la lógica del sistema , realizan aceleración de hardware para mostrar gráficos bidimensionales y tridimensionales .
La aceleración de hardware de la formación de imágenes gráficas se incluyó originalmente en las características de muchas computadoras personales , sin embargo, el primer modelo de PC de IBM tenía solo modos de texto y no tenía la capacidad de mostrar gráficos. Aunque las primeras tarjetas de video para computadoras IBM compatibles con PC con soporte para aceleración de hardware de gráficos 2D y 3D aparecieron bastante temprano. Entonces , en 1984, IBM comenzó a fabricar y vender tarjetas de video del estándar PGC . PGC fue diseñado para uso profesional, primitivas 2D y 3D aceleradas por hardware, y fue una solución principalmente para aplicaciones CAD . IBM PGC tuvo un costo extremadamente alto. El precio de esta tarjeta de video era mucho más alto que la computadora en sí, por lo que tales soluciones no recibieron una distribución significativa. Había tarjetas de video y aceleradores 3D de otros fabricantes en el mercado de soluciones profesionales.
La distribución de aceleradores 3D asequibles para computadoras compatibles con PC de IBM comenzó en 1994 . La primera tarjeta gráfica compatible con visualización de gráficos 3D acelerada por hardware fue Matrox Impression Plus , lanzada en 1994 (usando el chip Matrox Athena ). Más tarde ese año, Matrox presenta el nuevo chip Matrox Storm y una tarjeta gráfica basada en Matrox Millennium.
En 1995, S3 Graphics , que en ese momento era un reconocido y prometedor fabricante de tarjetas de video con aceleración de gráficos de trama 2D, lanzó uno de los primeros aceleradores 3D producidos en masa basados en el chipset S3 ViRGE . Sin embargo, el uso de estas tarjetas de video en escenarios reales mostró un rendimiento mediocre y, por lo tanto, era imposible llamarlos aceleradores de gráficos 3D en el sentido literal. Al mismo tiempo, las tarjetas de video Matrox Mistique y ATI 3D Rage mostraron los mejores resultados [16] .
En el mismo año, varias empresas ya están lanzando nuevos chips gráficos con soporte para aceleración de hardware de generación de gráficos 3D. Entonces, Matrox lanza el MGA-2064W, Number Nine Visual Technology celebra el lanzamiento de la GPU Imagine 128-II, Yamaha presenta los chips YGV611 y YGV612, 3DLabs lanza el Glint 300SX y Nvidia lanza el NV1 (que también se lanza bajo un acuerdo con SGS-THOMSON bajo el nombre STG2000). En el mismo año, en base a estas soluciones, se lanza una gran cantidad de tarjetas de video de varios fabricantes con soporte para aceleración de gráficos 3D.
Un verdadero avance en el mercado de aceleradores 3D y tarjetas de video con gráficos 3D acelerados por hardware fue en 1996. Este año fue el año de la introducción masiva y la popularización de gráficos 3D de hardware en computadoras compatibles con IBM PC. Este año hay nuevas soluciones gráficas de 3DLabs, Matrox, ATI Technologies , S3 , Rendition , Chromatic Research , Number Nine Visual Technology , Trident Microsystems , PowerVR . Aunque este año hay muchos aceleradores 3D y tarjetas de video completas con funciones de aceleración de gráficos 3D basadas en estas GPU, el evento principal es el lanzamiento de aceleradores 3D basados en el conjunto de chips 3Dfx Voodoo Graphics . 3dfx Interactive, que anteriormente producía aceleradores 3D especializados para máquinas recreativas , introdujo un conjunto de chips para el mercado de computadoras compatibles con PC de IBM. La velocidad y la calidad de la representación de escenas 3D creadas por las tarjetas Voodoo Graphics estaban al nivel de las máquinas de juego , y la mayoría de los fabricantes de tarjetas de video comenzaron a lanzar aceleradores 3D basados en el conjunto Voodoo Graphics, y pronto la mayoría de los fabricantes de juegos de computadora admitieron Voodoo Graphics y lanzaron nuevos juegos . para computadoras compatibles con IBM PC con un nivel completamente nuevo de gráficos 3D. Ha habido una explosión de interés en los juegos 3D y, en consecuencia, en los aceleradores 3D.
Desde 1998 se viene desarrollando la tecnología SLI (Scan Line Interleave) (empresa 3dfx, tarjeta Voodoo2 ) , que permite utilizar la potencia de varias tarjetas de video interconectadas para procesar una imagen tridimensional.
Aceleradores de video profesionalesLas tarjetas gráficas profesionales son tarjetas de video orientadas a trabajar en estaciones gráficas y uso en paquetes matemáticos y gráficos de modelado 2D y 3D ( AutoCAD , MATLAB ), los cuales son muy cargados al momento de calcular y dibujar modelos de objetos diseñados.
Los núcleos de los aceleradores de vídeo profesionales de los principales fabricantes, AMD y NVIDIA , "desde dentro" se diferencian poco de sus homólogos gaming. Han unificado sus GPU durante mucho tiempo y las usan en diferentes áreas. Fue este movimiento el que permitió a estas firmas sacar del mercado a las empresas involucradas en el desarrollo y promoción de chips gráficos especializados para aplicaciones profesionales.
Se presta especial atención al subsistema de memoria de video , ya que este es un componente particularmente importante de los aceleradores profesionales, que soporta la carga principal cuando se trabaja con modelos gigantes; En particular, además de cantidades notablemente grandes de memoria para tarjetas comparables, las tarjetas de video del segmento profesional pueden usar memoria ECC [17] .
Por separado, están los productos Matrox , cuyos aceleradores altamente especializados, a partir de 2017, se utilizaron para la codificación de video, el procesamiento de señales de TV y el trabajo con gráficos 2D complejos.
La tarjeta de video consta de las siguientes partes [3] :
El procesador de gráficos ( ing. Unidad de procesamiento de gráficos (GPU) - lit .: "unidad de procesamiento de gráficos") se dedica al cálculo de la imagen de salida ( representación ), procesamiento de gráficos 2D y 3D [3] . Los procesadores gráficos no son muy inferiores en complejidad a la unidad central de procesamiento de una computadora y, a menudo, la superan tanto en la cantidad de transistores como en el poder de cómputo, debido a la gran cantidad de unidades informáticas universales. Sin embargo, la arquitectura de GPU de la generación anterior suele suponer la presencia de varias unidades de procesamiento de información , a saber: una unidad de procesamiento de gráficos 2D, una unidad de procesamiento de gráficos 3D, a su vez, generalmente dividida en un núcleo geométrico (más un caché de vértice) y una unidad de rasterización. (más un caché de textura) y etc.
Además del bus de datos, el segundo cuello de botella de cualquier adaptador de vídeo es el ancho de banda ( ancho de banda en inglés ) de la memoria del propio adaptador de vídeo. Además, inicialmente el problema surgió no tanto por la velocidad de procesamiento de datos de video (a menudo hay un problema de "hambre" informativa del controlador de video , cuando procesa datos más rápido de lo que tiene tiempo para leer / escribir desde / hacia video memoria), sino debido a la necesidad de acceder a ellos desde los lados del procesador de video, CPU y RAMDAC . El hecho es que a altas resoluciones y una gran profundidad de color, para mostrar una página de la pantalla en el monitor, es necesario leer todos estos datos de la memoria de video y convertirlos en una señal analógica, que irá a el monitor, tantas veces por segundo como cuadros muestra el monitor por segundo. Tomemos el volumen de una página de la pantalla con una resolución de 1024x768 píxeles y una profundidad de color de 24 bits (True Color), esto es 2,25 MB. A una velocidad de fotogramas de 75 Hz, es necesario leer esta página desde la memoria del adaptador de video 75 veces por segundo (los píxeles leídos se transfieren al RAMDAC y convierte los datos digitales sobre el color del píxel en un señal analógica que se envía al monitor), y no puede demorarse ni omitir un píxel, por lo tanto, el ancho de banda de memoria de video requerido nominalmente para esta resolución es de aproximadamente 170 MB / s, y esto no tiene en cuenta el hecho de que el controlador de video necesita escribir y leer datos de esta memoria. Para una resolución de 1600x1200x32 bits a la misma velocidad de cuadro de 75 Hz, el ancho de banda requerido nominal ya es de 550 MB/s. En comparación, el procesador Pentium II tenía una velocidad máxima de memoria de 528 MB/s. El problema podría resolverse de dos maneras: usar tipos especiales de memoria que permitan que dos dispositivos lean simultáneamente o instalar una memoria muy rápida.
Tipos de memoria de video [18] :
La cantidad de RAM para tarjetas de video varía de 4 KB (por ejemplo, en MDA) a 48 GB (por ejemplo, NVIDIA Quadro RTX 8000 ) [19] . Dado que el acceso a la memoria de video GPU y otros componentes electrónicos debe proporcionar el alto rendimiento deseado de todo el subsistema de gráficos en su conjunto, se utilizan tipos de memoria de alta velocidad especializados, como SGRAM , VRAM de doble puerto , WRAM y otros . Desde aproximadamente 2003, la memoria de video, por regla general, se basaba en la tecnología DDR de la memoria SDRAM , con el doble de frecuencia efectiva (la transferencia de datos se sincroniza no solo en el flanco ascendente de la señal del reloj, sino también en el flanco descendente). Y en el futuro DDR2 , GDDR3 , GDDR4 , GDDR5 y en el momento de 2016 [20] GDDR5X . Con el lanzamiento de la serie AMD Fury de tarjetas de video de alto rendimiento, junto con la memoria GDDR ya bien establecida en el mercado , comenzó a utilizarse un nuevo tipo de memoria HBM , que ofrece un ancho de banda significativamente mayor y simplifica la propia tarjeta de video. debido a la ausencia de la necesidad de cableado y desoldar chips de memoria. La tasa máxima de transferencia de datos (ancho de banda) de la memoria de la tarjeta de video alcanza los 480 GB / s para el tipo de memoria GDDR5X (por ejemplo, NVIDIA TITAN X Pascal [21] ) y 672 GB / s para el tipo de memoria GDDR6 (por ejemplo, TITAN RTX [22] ).
La memoria de video se usa para el almacenamiento temporal, además de los datos de la imagen en sí, y otros: texturas , sombreadores , búfer de vértices , búfer Z (distancia de los elementos de la imagen en gráficos 3D ) y datos del subsistema de gráficos similares (con la excepción, para el la mayor parte, de datos de BIOS de vídeo, memoria interna de GPU, etc.) y códigos.
RAM de vídeoLa memoria de video realiza la función de un búfer de cuadros , que almacena una imagen generada y modificada constantemente por la GPU y mostrada en el monitor (o en varios monitores). La memoria de video también almacena elementos intermedios de la imagen que son invisibles en la pantalla y otros datos. En este momento (2021) hay 7 tipos de memoria para tarjetas de video : DDR , GDDR2 , GDDR3 , GDDR4 , GDDR5 , GDDR6 y HBM . Además de la memoria de video ubicada en la tarjeta de video, los procesadores gráficos generalmente usan parte de la memoria total del sistema de la computadora en su trabajo, cuyo acceso directo está organizado por el controlador del adaptador de video a través del bus AGP o PCI-e . En el caso de utilizar la arquitectura Uniform Memory Access , parte de la memoria del sistema del ordenador se utiliza como memoria de vídeo.
El controlador de video es responsable de formar la imagen en la memoria de video, instruye a RAMDAC para que genere señales de escaneo para el monitor y procesa las solicitudes del procesador central. Además, suele haber un controlador de bus de datos externo (por ejemplo, PCI o AGP), un controlador de bus de datos interno y un controlador de memoria de video. El ancho del bus interno y el bus de memoria de video suele ser mayor que el externo (64, 128 o 256 bits versus 16 o 32), RAMDAC también está integrado en muchos controladores de video.
Los adaptadores gráficos (AMD, nVidia) suelen tener al menos dos controladores de video que funcionan de forma independiente y controlan una o más pantallas al mismo tiempo.
Se utiliza un convertidor de digital a analógico (DAC; RAMDAC - Random Access Memory Digital-to-Analog Converter ) para convertir la imagen generada por el controlador de video en niveles de intensidad de color suministrados a un monitor analógico. La posible gama de colores de la imagen está determinada únicamente por los parámetros RAMDAC. La mayoría de las veces, RAMDAC tiene cuatro bloques principales: tres convertidores de digital a analógico, uno para cada canal de color (rojo, verde, azul - RGB) y SRAM para almacenar datos de corrección gamma. La mayoría de los DAC tienen una profundidad de bits de 8 bits por canal: produce 256 niveles de brillo para cada color primario, lo que da un total de 16,7 millones de colores (y debido a la corrección gamma es posible mostrar los 16,7 millones de colores originales en una cantidad mucho mayor). espacio de color más grande). Algunos RAMDAC tienen 10 bits por canal (1024 niveles de brillo), lo que le permite mostrar inmediatamente más de mil millones de colores, pero esta característica prácticamente no se usa. Para admitir un segundo monitor, a menudo se instala un segundo DAC.
Transmisor de señal digital TMDS ( señalización diferencial de transición minimizada ) sin conversiones DAC. Se utiliza para conexiones DVI-D, HDMI, DisplayPort. Con la difusión de los monitores LCD y los paneles de plasma, ha desaparecido la necesidad de transmitir una señal analógica; a diferencia de los CRT , ya no tienen un componente analógico y funcionan internamente con datos digitales. Para evitar conversiones innecesarias, Silicon Image desarrolla TMDS.
La ROM de video (Video ROM) es una memoria de solo lectura (ROM) que contiene el BIOS de la tarjeta de video , fuentes de pantalla , tablas de servicio, etc. El controlador de video no usa directamente la ROM, solo el procesador central accede a ella.
El BIOS garantiza la inicialización y el funcionamiento de la tarjeta de video antes de cargar el sistema operativo principal , establece todos los parámetros de bajo nivel de la tarjeta de video, incluidas las frecuencias operativas y los voltajes de suministro de la GPU y la memoria de video, y los tiempos de la memoria. VBIOS también contiene datos del sistema que el controlador de video puede leer e interpretar durante la operación (dependiendo del método de división de responsabilidad entre el controlador y el BIOS). Muchas tarjetas están equipadas con ROM reprogramable eléctricamente ( EEPROM , Flash ROM ) que permiten al usuario sobrescribir el BIOS de video mediante el uso de un programa especial.
El primer obstáculo para aumentar la velocidad de un sistema de video es la interfaz de datos a la que está conectado el adaptador de video. No importa qué tan rápido sea el procesador del adaptador de video, la mayoría de sus capacidades no se utilizarán si no se proporcionan los canales apropiados para el intercambio de información entre él, el procesador central, la memoria RAM de la computadora y los dispositivos de video adicionales.
El principal canal de transferencia de datos es, por supuesto, el bus de interfaz de la placa base, a través del cual se intercambian datos con el procesador central y la memoria RAM. El primer bus utilizado en la PC de IBM fue XT-Bus , tenía un ancho de 8 bits de datos y 20 bits de dirección y trabajaba a una frecuencia de 4,77 MHz . Luego vino el bus ISA (Industry Standard Architecture - arquitectura estándar de la industria), respectivamente, tenía un ancho de bits de 8/16 bits y operaba a una frecuencia de 8 MHz. El rendimiento máximo fue de poco más de 5,5 MiB/s. Esto fue más que suficiente para mostrar información textual y juegos con gráficos de 16 colores.
Otro gran avance fue la aparición del bus MCA (Micro Channel Architecture) en la nueva serie de computadoras PS/2 de IBM. Ya tenía una profundidad de bits de 32/32 bits y un ancho de banda máximo de 40 Mb/s. Pero el hecho de que la arquitectura MCI fuera cerrada (propiedad de IBM) hizo que otros fabricantes buscaran otras formas de aumentar el rendimiento del canal de acceso principal al adaptador de video.
Con la llegada de los procesadores de la serie 486 , se propuso utilizar el bus local del propio procesador para conectar dispositivos periféricos, como resultado nació VLB (VESA Local Bus - bus local del estándar VESA). Con un reloj de procesador externo que oscilaba entre 25 MHz y 50 MHz y 32 bits de ancho, el VLB proporcionó un rendimiento máximo de aproximadamente 130 MiB/s. Esto ya era más que suficiente para todas las aplicaciones existentes, además, la capacidad de usarlo no solo para adaptadores de video, la presencia de tres ranuras de conexión y la retrocompatibilidad con ISA (VLB es solo otro conector de 116 pines detrás de la ranura ISA) le garantizó una vida lo suficientemente larga y el soporte de muchos fabricantes de chipsets para placas base y periféricos, incluso a pesar de que en frecuencias de 40 MHz y 50 MHz parecía problemático asegurar el funcionamiento incluso de dos dispositivos conectados a él debido a una excesivamente alta carga en las etapas del procesador central (después de todo, la mayoría de los circuitos de control iban del VLB al procesador directamente, sin ningún almacenamiento en búfer).
Y, sin embargo, teniendo en cuenta el hecho de que no solo el adaptador de video comenzó a requerir una alta velocidad de intercambio de información, y la imposibilidad obvia de conectar todos los dispositivos al VLB (y la necesidad de una solución multiplataforma que no se limite solo a PC), el bus PCI (Peripheral Component Interconnect - integración de componentes externos) apareció, en primer lugar, en las placas base para procesadores Pentium. En términos de rendimiento en la plataforma de PC, todo permaneció igual: con una velocidad de reloj de bus de 33 MHz y una profundidad de bits de 32/32 bits, proporcionó un rendimiento máximo de 133 MiB / s, lo mismo que VLB. Sin embargo, fue más conveniente y, al final, reemplazó el bus VLB en las placas base para procesadores de clase 486.
Con la llegada del procesador Pentium II y el serio reclamo de la PC en el mercado de las estaciones de trabajo de alto rendimiento, así como la llegada de los juegos 3D con gráficos complejos, quedó claro que el ancho de banda PCI tal como existía en la plataforma de la PC (típicamente 33 MHz y profundidad de bits de 32 bits), pronto no será suficiente para satisfacer las demandas del sistema. Por lo tanto, Intel decidió hacer un bus separado para el subsistema de gráficos, actualizó ligeramente el bus PCI, proporcionó al nuevo bus resultante acceso a memoria separado con soporte para algunas solicitudes específicas de adaptador de video y lo llamó AGP (Accelerated Graphics Port - puerto de gráficos acelerado) . El bus AGP tiene 32 bits de ancho y opera a 66 MHz. La primera versión del conector admitía los modos de transferencia de datos 1x y 2x, la segunda, 4x, la tercera, 8x. En estos modos, se transfieren una, dos, cuatro u ocho palabras de 32 bits por ciclo, respectivamente. Las versiones de AGP no siempre eran compatibles entre sí debido al uso de diferentes voltajes de suministro en diferentes versiones. Para evitar daños al equipo, se utilizó una llave en el conector. El rendimiento máximo en modo 1x es de 266 MiB/s. La salida de los adaptadores de video basados en buses PCI y AGP es insignificante, ya que el bus AGP ha dejado de cumplir con los requisitos de potencia de las nuevas PC y, además, no puede proporcionar la fuente de alimentación necesaria. Para resolver estos problemas, se ha creado una extensión de bus PCI : PCI Express versiones 1.0, 1.1, 2.0, 2.1, 3.0 y la última 4.0. Esta es una interfaz serial, a diferencia de AGP, su rendimiento puede alcanzar varias decenas de Gb / s. Por el momento, ha habido un rechazo casi total del bus AGP a favor de PCI Express. Sin embargo, vale la pena señalar que algunos fabricantes todavía ofrecen tarjetas de video con interfaces PCI y AGP; en muchos casos, esta es una forma bastante simple de aumentar drásticamente el rendimiento de una PC obsoleta en algunas tareas gráficas.
Los adaptadores de video MDA, Hercules, EGA y CGA estaban equipados con un conector D - Sub de 9 pines . Ocasionalmente, también había un conector de video compuesto coaxial , que le permitía enviar una imagen en blanco y negro a un receptor de televisión o monitor equipado con una entrada de video de baja frecuencia.
Los adaptadores de video VGA y posteriores generalmente tenían solo un conector VGA ( D-Sub de 15 pines ). Ocasionalmente, las primeras versiones de los adaptadores VGA también tenían un conector de generación anterior (9 pines) para compatibilidad con monitores más antiguos. La elección de la salida de trabajo se estableció mediante los interruptores en la placa del adaptador de video.
Las placas están equipadas con conectores DVI o HDMI , o DisplayPort en una cantidad de uno a tres (algunas tarjetas de video ATI de última generación están equipadas con seis conectores).
Los puertos DVI y HDMI son etapas evolutivas en el desarrollo del estándar de transmisión de señal de video, por lo tanto, se pueden usar adaptadores para conectar dispositivos con este tipo de puertos (el conector DVI al conector D-Sub es una señal analógica, el conector HDMI al conector DVI-D jack es una señal digital que no admite protección técnica de derechos de autor ( Protección de copia digital de alto ancho de banda , HDCP ) , por lo tanto , sin la posibilidad de transmitir audio multicanal e imágenes de alta calidad). El puerto DVI-I también incluye señales analógicas, lo que le permite conectar un monitor a un conector D-SUB más antiguo (DVI-D no lo permite).
DisplayPort le permite conectar hasta cuatro dispositivos, incluidos dispositivos de audio, concentradores USB y otros dispositivos de E/S.
Las salidas de S-Video compuesto y por componentes también se pueden colocar en la tarjeta de video ; también entrada de video (referido como ViVo )
El sistema de enfriamiento está diseñado para mantener la temperatura del procesador de video y (a menudo) la memoria de video dentro de límites aceptables.
En la especificación de una tarjeta de video, el desarrollador brinda la posibilidad de personalizarla para los fabricantes. Por ejemplo, los fabricantes pueden elegir la capacidad y el tipo de condensadores (POSCAP, SP-CAP, MLCC). Las pruebas insuficientes o el uso de componentes más baratos pueden provocar un funcionamiento inestable de las tarjetas de video. [23]
Las tarjetas de video que están integradas en el conjunto lógico del sistema de la placa base o son parte de la CPU generalmente no tienen su propia memoria de video y utilizan parte de la memoria RAM de la computadora para sus necesidades ( UMA - Unified Memory Access ).
Las características técnicas importantes que caracterizan a una tarjeta de video incluyen un sistema de enfriamiento integrado, si se implementa, y conectores para interfaces de transferencia de datos [24] [25] .
La clase de adaptadores gráficos de más alto rendimiento. Por regla general, está conectado al bus de datos PCI Express de alta velocidad . Anteriormente, había tarjetas de video conectadas a buses AGP (un bus de intercambio de datos especializado para conectar solo tarjetas de video), PCI , VESA e ISA . Las tarjetas de video se conectan a través del bus PCI Express y todos los demás tipos de conexiones están obsoletos. En las computadoras con una arquitectura diferente a la compatible con IBM, había otros tipos de conexiones de tarjetas de video.
Es posible que la tarjeta discreta no se extraiga necesariamente del dispositivo (por ejemplo, en las computadoras portátiles, la tarjeta discreta a menudo se suelda a la placa base). Se llama discreto debido al hecho de que está hecho en forma de un chip (o conjunto de chips) separado y no forma parte de otros componentes de la computadora (a diferencia de las soluciones gráficas que están integradas en los chips lógicos del sistema de la placa base o directamente en el procesador central) . La mayoría de las tarjetas gráficas discretas tienen su propia memoria de acceso aleatorio (VRAM), que a menudo puede tener velocidades de acceso más rápidas o un bus de acceso más rápido que la memoria RAM normal de la computadora. Aunque anteriormente existían tarjetas de video que usaban toda o parte de la memoria RAM principal para almacenar y procesar información gráfica, las tarjetas de video usan su propia memoria de video. Además, a veces (pero muy raramente) hay tarjetas de video cuya RAM no está instalada en forma de chips de memoria separados, sino que es parte del chip gráfico (en forma de cristales separados o en el mismo chip con el procesador de gráficos).
Implementadas como un conjunto de chips separado en lugar de como parte de otros chips, las tarjetas gráficas discretas pueden ser bastante complejas y mucho más poderosas que los gráficos integrados. Además, al tener su propia memoria de video, las tarjetas de video discretas no tienen que compartir RAM con otros componentes de la computadora (principalmente con el procesador central). La RAM propia le permite no desperdiciar la RAM principal para almacenar información que no necesita el procesador central y otros componentes de la computadora. Por otro lado, el procesador de video no tiene que esperar en la fila para acceder a la memoria RAM de la computadora, a la que pueden acceder tanto el procesador central como otros componentes en este momento. Todo esto tiene un efecto positivo en el rendimiento de las tarjetas gráficas discretas en comparación con los gráficos integrados.
Tecnologías como SLI de Nvidia y CrossFire de AMD permiten que varios adaptadores de gráficos se ejecuten en paralelo para la misma tarea.
Los adaptadores de gráficos integrados no tienen su propia memoria y usan la memoria RAM de la computadora, lo que afecta negativamente el rendimiento. Aunque Intel Iris Graphics desde la generación de procesadores Broadwell tiene a su disposición 128 megabytes de caché L4, pueden tomar el resto de la memoria de la RAM de la computadora [26] . Las soluciones de gráficos integrados se utilizan en dispositivos portátiles debido a su bajo consumo de energía. Su rendimiento ya está en un nivel lo suficientemente alto y te permite jugar juegos tridimensionales simples.
Las GPU integradas están ubicadas en el mismo chip que la CPU (por ejemplo, Intel HD Graphics o Intel Iris Graphics ), las generaciones anteriores (por ejemplo, Intel GMA ) se ubicaron como un chip separado.
Las soluciones híbridas se utilizan cuando se requiere eficiencia energética y alto rendimiento de gráficos, lo que le permite usar el adaptador de gráficos integrado en las tareas diarias y usar el adaptador de gráficos discreto solo donde se necesita.
Antes de la llegada de los gráficos híbridos, los fabricantes incorporaban un adaptador discreto además del integrado, cambiar entre ellos requería un reinicio, lo que no era muy fácil de usar. Los adaptadores híbridos solo usan el adaptador de gráficos integrado para la salida de pantalla, pero algunos cálculos se pueden transferir a una tarjeta gráfica discreta en lugar de realizarlos por sí mismos. Para el usuario, cambiar entre adaptadores de video se vuelve invisible. Ejemplos de tales soluciones son la tecnología Optimus de Nvidia y DualGraphics de AMD.
GPGPU (Ing. Computación de propósito general para unidades de procesamiento de gráficos, cálculos no especializados en procesadores de gráficos): el uso del procesador de gráficos de una tarjeta de video para computación paralela. Los adaptadores gráficos pueden tener hasta varios miles de procesadores, lo que hace posible resolver algunas tareas en las tarjetas gráficas mucho más rápido que en los procesadores centrales. Las aplicaciones que usan esta tecnología se escriben usando tecnologías como OpenCL o CUDA .
El término eGPU se refiere a una tarjeta gráfica discreta ubicada fuera de la computadora [27] . Se puede usar, por ejemplo, para aumentar el rendimiento en aplicaciones 3D en computadoras portátiles.
Por lo general , PCI Express es el único bus adecuado para este propósito. El puerto puede ser ExpressCard , mPCIe (PCIe ×1, hasta 5 o 2,5 Gb/s, respectivamente) o un puerto Thunderbolt 1, 2 o 3 (PCIe × 4, hasta 10, 20 o 40 Gb/s, respectivamente) [28 ] [29] .
En 2016 , AMD intentó estandarizar las GPU externas [30] .
A nivel de software, el procesador de vídeo utiliza una u otra interfaz de programación de aplicaciones (API) para su organización de cálculos (cálculos de gráficos tridimensionales ).
Los primeros aceleradores principales utilizaron Glide , una API de gráficos 3D desarrollada por 3dfx Interactive para tarjetas de video basadas en GPU patentadas de Voodoo Graphics.
Luego, las generaciones de aceleradores en las tarjetas de video se pueden contar por la versión de DirectX que admiten. Existen las siguientes generaciones:
Con el lanzamiento de DirectX 11 y la llegada del modelo de soporte API Feature Level (FLxx), la mayoría de las tarjetas de video ya no están vinculadas a una versión específica de DirectX .
Además, el funcionamiento correcto y completamente funcional del adaptador de gráficos se garantiza mediante el controlador de video , un software especial proporcionado por el fabricante de la tarjeta de video y cargado durante el inicio del sistema operativo. El controlador de video actúa como una interfaz entre el sistema que ejecuta aplicaciones y el adaptador de video. Al igual que el BIOS de video , el controlador de video organiza y controla mediante programación el funcionamiento de todas las partes del adaptador de video a través de registros de control especiales a los que se accede a través del bus correspondiente.
Un controlador de dispositivo generalmente admite una o más tarjetas y debe escribirse específicamente para un sistema operativo (SO) específico.
La mayoría de los dispositivos requieren controladores patentados para utilizar todas las funciones. Estos controladores para sistemas operativos populares generalmente se envían con el dispositivo y, a menudo, están disponibles para su descarga gratuita desde el sitio web del fabricante. Hay varios controladores de tarjetas de video de código abierto en desarrollo , pero muchos de ellos solo pueden usar la funcionalidad principal de las tarjetas.
La minería en una tarjeta de video es el proceso de minería de criptomonedas utilizando unidades de procesamiento de gráficos (GPU). Para la minería de criptomonedas se utilizan tarjetas de video en lugar de procesadores, porque procesan más información en menos tiempo. Su único inconveniente es el alto consumo de electricidad, pero el alto rendimiento compensa fácilmente esta debilidad [31] .
Para la minería, se utilizan tarjetas de video discretas completas, no se utilizan chips integrados en el procesador. También hay artículos en la red sobre minería en una tarjeta de video externa, pero esto tampoco funciona en todos los casos y no es la mejor solución [32] .
diccionarios y enciclopedias | |
---|---|
En catálogos bibliográficos |
compatibles con PC | Estándares para adaptadores de video y monitores||
---|---|---|
Adaptadores de vídeo | ||
Resolución de la pantalla | ||
Opciones de pantalla ancha | ||
Otro |