sábado, 16 de diciembre de 2017

NVIDIA® Tesla® V100





NVIDIA® Tesla® V100 es la GPU para centros de datos actualmente más avanzada para la aceleración de IA, HPC (High Performance Computing) y gráficos. Impulsado por NVIDIA Volta ™, la última arquitectura de GPU, Tesla V100 ofrece el rendimiento de hasta 100 CPU en una sola GPU, lo que permite a los científicos de datos, investigadores e ingenieros enfrentar los desafíos que alguna vez se creyeron imposibles.



El fabricante anunció un nuevo acelerador basado en la última arquitectura de la compañía para la GPU Volta , llamada Tesla V100. La novedosa característica principal del chip es lo que Nvidia llama "Tensor Core". Según Nvidia, los Tensor Cores pueden hacer que Tesla V100 sea hasta 12 veces más rápida para aplicaciones de aprendizaje profundo en comparación con el acelerador Tesla P100 anterior de la compañía.



Tecnología basada en álgebra de Tensores y flujo de Tensores.

Un tensor es un objeto matemático representado por una matriz de componentes que son funciones de las coordenadas de un espacio. Google creó su propio marco de aprendizaje automático que usa tensores porque los tensores permiten crear redes neuronales altamente escalables. Esto hace que sea aplicable en desarrollos de aplicaciones de Inteligencia Artificial (IA).



Para ello Nvidia ha desarrollado la tecnología “Tensor core” que son núcleos especializados en cálculos de álgebra de tensores. Esta GPU viene equipada con 640 “Tensor cores”, con un resultado de 125 TeraFLOPS de capacidad de aprendizaje profundo (Deep Learning Performance) reduciendo sustancialmente los tiempos de cálculo respecto de otras tecnologías.

Mediante la unión de núcleos CUDA y Tensor Cores (o núcleos Tensor) en una arquitectura unificada, un servidor simple con una Tesla V100 puede sustituir cientos de servidores de CPU básicos por HPC (computación de alto rendimiento) y Deep Learning (aprendizaje profundo).

El nuevo modo de máxima eficacia permite a los data centers conseguir hasta un 40% mas de capacidad de cálculo por rack respecto de las potencias actuales. En este modo, V100 confiere hasta un 80% más de rendimiento con la mitad del consumo de energía.

La memoria RAM usada en V100 es HBM2 confiere anchos de banda de 900 GB/s lo que supone 1,5 veces más ancho de banda que las GPU Pascal.

Tipos de tarjetas Tesla V100:

Hay dos tipos de tarjetas en función de su conectividad:


-Tesla V100 PCIe: Con conexión PCI express:











-Tesla V100 SXM2..

















Cada conexión confiere diferentes velocidades de proceso y de tráfico de datos, según el modo de trabajo.

-Con rendimientos de doble precisión (Double-Precision Performance) la PCIe rinde 7 TFLOPS frente a los 7,8 de la conexión SXM2.

-En Single-Precision Performance, PCIe tiene capacidades de cálculo de 14 TFLOPS mientras que en SXM2 alcanza los 15,7 TFLOPS.


-Los rendimientos de los Tensores son 112 TFLOPS en PCIe respecto de los 125 TFLOPS de SXM2.