GizComputer

Presentada la Nvidia Tesla P100 con memoria HBM2

Nvidia ha anunciado el lanzamiento de sus gráficas Tesla P100 para Centros de Datos, tanto con sus modelos con interfaz PCI-Express con 16 GB y 12 GB de memoria HBM2, como su variante dotada de la interfaz NVLink optimizada para servidores con 16 GB de memoria HBM2, por lo que en total son tres Tesla P100 disponibles. AMD (mira sus nuevas gráficas) fue la pionera en llegar al mercado con la memoria HBM (integrada en sus Radeon Fury), y anunció la segunda generación (HBM2), sin embargo, ha sido Nvidia la primera en traer esta nueva memoria al mercado.

Tesla P100

El modelo Tesla P100 se resideñó desde los componentes hasta el software para ofrecer innovación en cada aspecto. Cada tecnología de vanguardia proporciona un gran avance del rendimiento para fomentar la creación del nodo de computación más rápido del mundo.

Eficacia sin precedentes con la memoria apilada HBM2

Tesla P100 integra estrechamente la computación y los datos en el mismo lugar al agregar un chip en una oblea como sustrato (CoWoS®, por sus siglas en inglés) con la tecnología HBM2, para proporcionar un rendimiento de memoria 3 veces más alto en relación con la arquitectura NVIDIA Maxwell™. Esto proporciona un salto generacional en el proceso de presentación de solución para aplicaciones con muchos datos.

Características de la Tesla P100

La GPU Tesla P100 emplea el silicio Pascal GP100, tope de gama de la compañía que en su versión completa ofrece 3840 CUDA Cores junto a 240 TMUs, acompañada de hasta 16 GB de memoria HBM2 junto a 8 controladoras de memoria de 512 bits. Esto se traduce en una interfaz de memoria de 4096 bits que dará un ancho de banda de 720 GB/s en el mejor de los casos. Este silicio está fabricado a una litografía de 16nm FinFet, es por ello que es de esperar una mejora drástica en el rendimiento disminuyendo aún más su consumo energético respecto a la anterior generación.

La Nvidia Tesla P100 ofrece un rendimiento simple de 9.3 TFLOPs (vs 10.6 Mod. NVLink) y doble de 4.7 TFLOPs (vs 5.3) donde el modelo de 16 GB de memoria HBM2 alcanza un ancho de banda de 720 GB/s mientras que el de 12 GB alcanza los 540 GB/s. En ambos casos, las GPUs se refrigeran de forma pasiva, y eso que estamos ante un TDP de 250W.

Salir de la versión móvil