miércoles, 16 de mayo de 2012

Introducción


Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
Daremos Cuenta en este informe varios puntos importantes en esta investigación sobre la tarjeta de video, al igual que las ventajas y desventajas. En este informe quedara claro el funcionamiento y las evoluciones técnicas  de la tarjeta al transcurrir los años.

martes, 15 de mayo de 2012

Historia


La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficas como el Motorola, permiten comenzar a dotar a los equipos basados en bus-S 100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video. El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).



lunes, 14 de mayo de 2012

La primera tarjeta gráfica fue desarrollada por IBM en 1981.



La MDA (Monochrome Display Adapter) trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.


       
LA CGA (Color Graphics Adapter) surgió como alternativa a la MDA en 1981. Su ventaja era que daba la posibilidad de crear gráficos, por otra parte el precio de la tarjeta era elevadísimo, aunque como contrapunto esta tarjeta daba la posibilidad de conectarse a una televisión normal, eliminando así la compra del monitor. Además se disponía de salida RGB, lo que hacia se dividía el color de un punto de la pantalla en sus partes proporcionales de Rojo, Azul y Verde. La imagen creada comparada con la MDA era de calidad inferior, lo que no se debía a la resolución menor, sino a que la distancia entre puntos del monitor CGA era mayor.



La HGC (Hercules Graphics Card) era un controlador de gráficos de computadora que, por su popularidad, se convirtió en un estándar de pantalla de computadora extensamente soportado. Era común en los compatibles del IBM PC conectados con un monitor monocromático (verde, ámbar, o blanco y negro). Soportaba un modo de texto de alta resolución y un solo modo de gráficos.


EGA (Enhanced Graphics Adapter), la especificación estándar de IBM PC para visualización de gráficos, situada entre CGA y VGA en términos de rendimiento gráfico (es decir, amplitud de colores y resolución). Introducida en 1984 por IBM para sus nuevos IBM Personal Computer/AT, EGA tenía una profundidad de color de 16 colores y una resolución de hasta 640×350 píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales e incluía el generador de direcciones de vídeo Motorola 6845.



 En 1990 IBM desarrolló la VGA (Video Graphics Array) tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super Video Graphics Array), con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores de una paleta de 262. Supusieron un nuevo paso en la consecución de gráficos de alta calidad, son ambas compatibles con las tarjetas anteriormente mencionadas y por lo tanto el software desarrollado pudo ser utilizado sin problemas.



 En 1997, 3dfx lanzó el chip gráfico Voodoo. A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.

En 2006, NVIDIA y ATI se repartían el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente.





domingo, 13 de mayo de 2012

Componentes de las tarjetas de video


GPU

La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta gráfica, así como la principal determinante del rendimiento. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en la actualidad oscila entre 500 MHz en las tarjetas de gama baja y 850 MHz en las de gama alta, el número de procesadores shaders y el número de pipelines (vertex yfragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.


sábado, 12 de mayo de 2012

Los Shaders


Es elemento más notable de potencia de una GPU, estos shaders unificados reciben el nombre de núcleos CUDA en el caso de nvidia y Procesadores Stream en el caso de AMD. Son una evolución natural de los antiguos pixel shader (encargados de la rasterización de texturas) y vertex shader (encargados de la geometría de los objetos), los cuales anteriormente actuaban de forma independiente. Los shaders unificados son capaces de actuar tanto de vertex shader como de pixel shader según la demanda, aparecieron en el 2007 con los chips G90 de nvidia (Series 8000) y los chips R600 para AMD (Series HD 2000), antigua Ati, incrementando la potencia drástica mente respecto a sus familias anteriores

viernes, 11 de mayo de 2012

ROP


Los ROP (Render Output Processors, procesadores de salida de render) realizan el trabajo destacado, llevan a cabo una comprobación final para asegurarse de que sólo los fragmentos visibles serán renderizados como píxeles hacia el bufer de salida. Después de eso, se aseguran de que la salida de los diversos shaders se mezclará de forma correcta, y de que se aplicarán las mezclas adicionales debidas a la iluminación. En esta etapa también se realiza el proceso de anti-aliasing antes de que el frame de imagen final se envie al buffer de frames, listo para ser mostrado. 

jueves, 10 de mayo de 2012

RAMDAC


El RAMDAC (Random Access Memory Digital-to-Analog Converter ó convertidor digital-analógico de RAM) es el encargado de transformar las señales digitales con las que trabaja el ordenador en una salida analógica que pueda ser interpretada por el monitor. Esta compuesto de tres DACs rápidos con una pequeña SRAM usada en adaptadores gráficos para generar una señal analógica (generalmente una amplitud de voltaje) para posteriormente mostrarla en un monitor a color. El número de color lógico de la memoria de pantalla es puesto en las direcciones de entrada de la SRAM. Este valor se descompone en tres valores separados que corresponden a los tres componentes (rojo, verde, y azul) del color físico deseado. Cada componente del valor alimenta a un DAC separado, cuya salida analógica va al monitor, y en última instancia a uno de sus tres cañones de electrones (o sus equivalente en las pantallas sin tubo de rayos catódicos).

miércoles, 9 de mayo de 2012

Diseñadores

Diceñadores de GPU: Son quienes fabrican y suministran las GPU de los cuales Los importantes son

AMD  



Anterior mente conocido como ATI


Nvidia



Intel


otras empresas que podemos encontrar que tambien fabrican GPU son 

 
Y














martes, 8 de mayo de 2012

Efectos Gráficos


Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas pueden ser:
 Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.

 HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite Antialiasing.



 Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.


Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.


Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.


Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.


Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más refractante.