Análisis – ASUS STRIX GeForce GTX 1080 Ti 11GB GDDR5X

 

Hoy presentamos en OCKD un nuevo análisis de una tarjeta gráfica GeForce GTX 1080 Ti de NVIDIA, aunque en este caso se trata del modelo ASUS STRIX GeForce GTX 1080 Ti 11GB GDDR5X, uno de los modelos de gama alta de conocido fabricante, que además integra una solución de disipación de muy alto nivel.

El corazón de esta tarjeta gráfica viene siendo el silicio NVIDIA GP102, el cual cuenta con 3584 núcleos CUDA en una configuración de 88 ROPs y 224 TMUs. La tarjeta gráfica incorpora 11GB de memoria GDDR5X a 11Ghz de base con un bus de 352 Bit, velocidades que se mantienen en este modelo personalizado.

Pero antes de ver a la tarjeta con detalle, veamos como siempre las especificaciones oficiales que podemos encontrar en la web de ASUS:

 

  • Motor Gráfico
    NVIDIA GeForce GTX 1080 TI
  • Bus
    PCI Express 3.0
  • OpenGL
    OpenGL®4.5
  • Memoria de Video
    GDDR5X 11GB
  • Frecuencia del Reloj
    Modo OC – Reloj GPU acelerado: 1708 MHz , Reloj base GPU: 1594 MHz
    Modo Gaming (por defecto) – Reloj GPU acelerado: 1683 MHZ , Reloj base GPU: 1569 MHz
  • Núcleo CUDA
    3584
  • Frecuencia de la Memoria
    11100 MHz (Modo OC)
    11010 MHz (Gaming Mode) (Default)
  • Interfaz de Memoria
    352-bit
  • Resolución
    Max. resolución digital: 7680×4320
  • Interfaz
    Salida DVI: Sí x 1 (DVI-D)
    Salida HDMI: Sí x 2 (HDMI 2.0)
    DisplayPort : Sí x 2 (Regular DP)
    Soporte HDCP: Sí
  • Conector alimentación
    2 x 8 contactos
  • Accesorios
    1 x Tiras de Velcro ROG
    1 x Cable de corriente
  • Software
    ASUS GPU Tweak II y driver
    Utilidad Aura (gráfica)
  • Dimensiones
    11.73 ” x 5.28 ” x 2.07 ” pulgadas
    29.8 x 13.4 x 5.25 cm.
  • Notas
    . Para ofrecer una disipación más eficiente, el disipador de la ASUS STRIX-GTX1080TI ocupa 2.5 ranuras, comprueba el espacio disponible en tu equipo antes de adquirir este producto.
    . La velocidad NVIDIA Boost Clock puede variar en función de las condiciones del sistema.
    Visita http://www.geforce.com/ para obtener una información más detallada