NVIDIA®
Tesla® V100 es la GPU para centros de datos actualmente más avanzada para la aceleración de IA, HPC (High Performance
Computing) y gráficos. Impulsado por NVIDIA Volta ™, la última
arquitectura de GPU, Tesla V100 ofrece el rendimiento de hasta 100
CPU en una sola GPU, lo que permite a los científicos de datos,
investigadores e ingenieros enfrentar los desafíos que alguna vez se
creyeron imposibles.
El
fabricante anunció un nuevo acelerador basado en la última
arquitectura de la compañía para la GPU Volta , llamada Tesla V100.
La novedosa característica principal del chip es lo que Nvidia llama
"Tensor Core". Según Nvidia, los Tensor Cores pueden hacer
que Tesla V100 sea hasta 12 veces más rápida para aplicaciones de
aprendizaje profundo en comparación con el acelerador Tesla P100
anterior de la compañía.
Tecnología
basada en álgebra de Tensores y flujo de Tensores.
Un tensor es un objeto matemático representado por una matriz de
componentes que son funciones de las coordenadas de un espacio.
Google creó su propio marco de aprendizaje automático que usa
tensores porque los tensores permiten crear redes neuronales
altamente escalables. Esto hace que sea aplicable en desarrollos de
aplicaciones de Inteligencia Artificial (IA).
Para
ello Nvidia ha desarrollado la tecnología “Tensor core” que son
núcleos especializados en cálculos de álgebra de tensores. Esta
GPU viene equipada con 640 “Tensor cores”, con un resultado de
125 TeraFLOPS de capacidad de aprendizaje profundo (Deep Learning Performance) reduciendo sustancialmente los tiempos de cálculo
respecto de otras tecnologías.
Mediante
la unión de núcleos CUDA y Tensor Cores (o núcleos Tensor) en una
arquitectura unificada, un servidor simple con una Tesla V100 puede
sustituir cientos de servidores de CPU básicos por HPC (computación
de alto rendimiento) y Deep Learning (aprendizaje profundo).
El
nuevo modo de máxima eficacia permite a los data centers conseguir
hasta un 40% mas de capacidad de cálculo por
rack respecto de las potencias actuales. En este modo, V100 confiere
hasta un 80% más de rendimiento con la mitad del consumo de energía.
La
memoria RAM usada en V100 es HBM2 confiere
anchos de banda de 900 GB/s
lo que supone 1,5 veces más ancho de banda que las GPU Pascal.
Tipos
de tarjetas Tesla V100:
Hay
dos tipos de tarjetas en función de su conectividad:
-Tesla
V100 PCIe: Con conexión PCI express:
Cada conexión confiere diferentes velocidades de proceso y de tráfico de datos, según el modo de trabajo.
-Con
rendimientos de doble precisión (Double-Precision Performance) la
PCIe rinde 7 TFLOPS frente a los 7,8 de la conexión SXM2.
-En
Single-Precision Performance, PCIe tiene capacidades de cálculo de
14 TFLOPS mientras que en SXM2 alcanza los 15,7 TFLOPS.
-Los
rendimientos de los Tensores son 112 TFLOPS en PCIe respecto de los
125 TFLOPS de SXM2.