NVIDIA presenta su último hardware

La nueva GPU NVIDIA A100, para uso intensivo en la nube

0
60

La diversidad de aplicaciones de procesamiento intensivo que se ejecutan en la nube modernos ha impulsado la explosión de la computación en la nube acelerada por GPU de NVIDIA. Tales aplicaciones incluyen entrenamiento e inferencia de aprendizaje profundo, de inteligencia artificial, análisis de datos, computación científica, genómica, análisis de video de borde y servicios 5G, renderizado de gráficos, juegos y muchos más. Para ello, las GPU de NVIDIA proporcionan la potencia necesaria para acelerar numerosas cargas de trabajo complejas e impredecibles que se ejecutan en los centros de datos en la nube de hoy en día. En esta dirección se presentó el GPU NVIDIA A100 basada en la nueva arquitectura de GPU NVIDIA Ampere.

Jensen Huang, fundador y CEO de NVIDIA.

Las GPU de NVIDIA son los principales motores informáticos que impulsan la revolución de la inteligencia artificial, proporcionando tremendas aceleraciones para las cargas de trabajo de inferencia y entrenamiento de inteligencia artificial”, dijo Jensen Huang, fundador y CEO de NVIDIA durante la presentación de la nueva GPU NVIDIA A100 basada en la nueva arquitectura de GPU NVIDIA Ampere.

“Además, aceleran muchos tipos de aplicaciones y sistemas de análisis de datos y HPC, lo que le permite analizar, visualizar y convertir los datos en conocimientos de forma eficaz. Las plataformas informáticas aceleradas de NVIDIA son fundamentales para muchas de las industrias más importantes y de más rápido crecimiento del mundo”, señaló durante la presentación se realizó durante el discurso de apertura de NVIDIA GTC 2020.

GPU NVIDIA A100 Tensor Core
Explicó que “la GPU NVIDIA A100 Tensor Core es parte de la nueva arquitectura de GPU NVIDIA Ampere y se basa en las capacidades de la GPU anterior NVIDIA Tesla V100, pero agrega muchas características nuevas y ofrece un rendimiento significativamente más rápido para cargas de trabajo de análisis de datos, IA y HPC”.

Publicidad

A100 proporciona un escalado sólido para aplicaciones de aprendizaje profundo y cómputo de GPU (Unidad de procesos gráficos) que se ejecutan en estaciones de trabajo de una y varias GPU, servidores, clústeres, centros de datos en la nube, sistemas en el borde y supercomputadoras. La GPU A100 permite construir centros de datos elásticos, versátiles y de alto rendimiento.

La GPU A100 además incluye “una nueva y revolucionaria capacidad de partición y virtualización de GPU de múltiples instancias que es particularmente beneficiosa para los proveedores de servicios en la nube” dijo el CEO de NVIDIA. Y agregó: “cuando se configura para la operación MIG, el A100 permite a los CSP mejorar las tasas de utilización de sus servidores GPU, entregando hasta 7 veces más instancias GPU sin costo adicional. El aislamiento robusto de fallas les permite particionar una sola GPU A100 de forma segura”.

A100 agrega un nuevo y poderoso Tensor Core de tercera generación que aumenta el rendimiento sobre V100 al tiempo que agrega soporte completo para los tipos de datos DL y HPC, junto con una nueva función de dispersión que ofrece una duplicación adicional del rendimiento.

Las nuevas operaciones TensorFloat-32 (TF32) Tensor Core en A100 brindan una ruta fácil para acelerar los datos de entrada / salida FP32 en marcos DL y HPC, ejecutándose 10 veces más rápido que las operaciones V100 FP32 FMA o 20 veces más rápido con escasez. Para DL de precisión mixta FP16 / FP32, el A100 Tensor Core ofrece 2.5 veces el rendimiento de V100, aumentando a 5 veces con escasez.

Volúmenes de transmisión de datos
La GPU NVIDIA A100 está diseñada no solo para acelerar grandes cargas de trabajo complejas, sino también para acelerar de manera eficiente muchas cargas de trabajo más pequeñas. A100 permite la construcción de centros de datos que pueden adaptarse a la demanda de cargas de trabajo impredecibles, al tiempo que proporcionan un aprovisionamiento de cargas de trabajo detallado, una mayor utilización de la GPU y un TCO mejorado.

Según Jensen Huang, “en los últimos 18 meses, los investigadores han sido testigos de un enorme aumento de rendimiento de 25,5 veces para las plataformas basadas en Arm en la informática de alto rendimiento, gracias a los esfuerzos combinados de los ecosistemas Arm y NVIDIA

“Muchos ingenieros merecen un aplauso por este aumento, pues han conseguido que el núcleo Arm Neoverse de a los sistemas una mejora estimada de 2,3 veces sobre los diseños del año pasado”. Explicó que ”las GPU A100 Tensor Core de NVIDIA obtuvieron sus mayores ganancias en una sola generación”, dijo el CEO.

Los resultados abarcan aplicaciones, incluidas GROMACS, LAMMPS, MILC, NAMD y Quantum Espresso, que son claves para ayudar en el descubrimiento de fármacos, una de las principales prioridades durante la pandemia. Las empresas y los investigadores que superan los límites en áreas como la dinámica molecular y la química cuántica pueden aprovechar estas aplicaciones para impulsar avances no solo en la ciencia básica sino en campos como la salud.

NVIDIA acelera el brazo en HPC
La GPU NVIDIA A100 Tensor Core ofrece una aceleración sin precedentes en todas las escalas para impulsar los centros de datos elásticos de mayor rendimiento del mundo para IA, análisis de datos y HPC. Desarrollado por la arquitectura NVIDIA Ampere, A100 es el motor de la plataforma del centro de datos NVIDIA. A100 proporciona un rendimiento hasta 20 veces mayor que la generación anterior y se puede dividir en siete instancias de GPU para ajustarse dinámicamente a las demandas cambiantes.

A100 es parte de la solución completa de centro de datos de NVIDIA que incorpora componentes básicos en hardware, redes, software, bibliotecas y modelos y aplicaciones de IA optimizados de NGC. Al representar la plataforma de HPC y AI de extremo a extremo más poderosa para centros de datos, permite a los investigadores entregar resultados del mundo real e implementar soluciones en producción a escala.

Los modelos de IA están aumentando en complejidad a medida que asumen desafíos de siguiente nivel, como la IA conversacional. Entrenarlos requiere una enorme capacidad de procesamiento y escalabilidad”, finalizó Jensen Huang.

Dejar respuesta

Por favor introduce tu comentario
Por favor introduce tus comentarios