AMD impulsa las soluciones IA desde los centros de datos hasta las PCs

111
AMD Advancing AI event in San Jose California, Wednesday, December 6, 2023.

AMD lanzó múltiples productos en el evento Advancing AI, incluidos los aceleradores de IA para centros de datos AMD Instinct Serie MI300, la ROCm 6 open software stack con optimizaciones significativas y nuevas funciones compatibles con Modelos de Lenguaje de Gran Tamaño (LLM) y los procesadores Ryzen Serie 8040 con Ryzen AI.

El fabricante de procesadores estuvo acompañado por líderes de la industria como Microsoft, Meta, Oracle, Dell Technologies, HPE, Lenovo, Supermicro, Arista, Broadcom y Cisco. Estas compañías mostraron cómo están trabajando con AMD para ofrecer soluciones avanzadas de IA que abarcan desde la nube hasta las empresas y las PCs.

«La IA es el futuro de la computación y AMD está en una posición única para impulsar la infraestructura integral que definirá esta era, desde instalaciones masivas en la nube hasta clústeres empresariales, dispositivos y PCs inteligentes habilitados para IA», afirmó la Lisa Su, presidenta y CEO de AMD.

«Estamos observando una fuerte demanda de nuestras nuevas GPU Instinct MI300, que son los aceleradores de mayor rendimiento del mundo para IA generativa. También estamos generando un impulso significativo para nuestras soluciones de IA para centros de datos con las mayores compañías de nube, los principales proveedores de servidores de la industria y las startups de IA más innovadoras con las que estamos trabajando estrechamente para llevar rápidamente al mercado soluciones Instinct MI300 que acelerarán drásticamente el ritmo de la innovación en todo el ecosistema de IA1».

Publicidad

Centro de datos IA de la nube a los centros de datos empresariales y supercomputadoras
Las empresas de TI que acompañaron a AMD en el evento destacaron la fuerte adopción y el creciente impulso de los aceleradores de IA para centros de datos AMD Instinct.

  • Microsoft detalló cómo está desplegando los aceleradores AMD Instinct MI300X para alimentar la nueva Serie de Azure ND MI300x v5 Virtual Machine (VM) optimizadas para cargas de trabajo de IA.
  • Meta compartió que la compañía está añadiendo aceleradores AMD Instinct MI300X a sus centros de datos en combinación con ROCm 6 para potenciar las cargas de trabajo de inferencia de IA y reconoció las optimizaciones de ROCm 6 que AMD ha realizado en la familia de modelos Llama 2.
  • Oracle desveló sus planes para ofrecer soluciones informáticas OCI bare metal con aceleradores AMD Instinct MI300X, así como sus planes para incluir aceleradores AMD Instinct MI300X en su próximo servicio de IA generativa.

Los mayores proveedores de infraestructuras de centros de datos han anunciado planes para integrar los aceleradores AMD Instinct MI300 en sus carteras de productos. Dell anunció la integración de los aceleradores AMD Instinct MI300X con su solución de servidor PowerEdge XE9680 para ofrecer un rendimiento innovador para cargas de trabajo de IA generativa en un formato modular y escalable para los clientes. HPE anunció planes para incorporar aceleradores AMD Instinct MI300 a sus ofertas empresariales y de HPC. Lenovo compartió sus planes de incorporar los aceleradores AMD Instinct MI300X a la plataforma Lenovo ThinkSystem para ofrecer soluciones de IA en sectores como el comercio minorista, la fabricación, los servicios financieros y de salud. Supermicro ha anunciado sus planes de ofrecer las GPU AMD Instinct MI300 en toda su cartera de soluciones de IA. Asus, Gigabyte, Ingrasys, Inventec, QCT, Wistron y Wiwynn también tienen previsto ofrecer soluciones basadas en aceleradores AMD Instinct MI300.

Proveedores especializados en IA en la nube como Aligned, Arkon Energy, Cirrascale, Crusoe, Denvr Dataworks y Tensorwaves tienen previsto proporcionar ofertas que ampliarán el acceso a las GPU AMD Instinct MI300X para desarrolladores y startups de IA.

Lanzamiento de una plataforma de software IA abierta
AMD ha destacado los importantes avances en la ampliación del ecosistema de software compatible con los aceleradores de centros de datos AMD Instinct.

AMD presentó la última versión de la open software stack de código abierto para las GPU AMD Instinct, ROCm 6, que se ha optimizado para la IA generativa, en particular los modelos de lenguaje de gran tamaño. ROCm 6 ofrece soporte para nuevos tipos de datos, optimizaciones avanzadas de gráficos y kernels, librerías optimizadas y algoritmos de atención de última generación que, junto con MI300X, proporcionan un aumento del rendimiento de ~8x la latencia total en la generación de texto en Llama 2 en comparación con ROCm 5 ejecutado en MI250.

Databricks, Essential AI y Lamini, tres startups de IA que construyen modelos emergentes y soluciones de IA, se unieron a AMD en el escenario para discutir cómo están aprovechando los aceleradores AMD Instinct MI300X y la ROCm 6 open software stack para ofrecer soluciones de IA diferenciadas para clientes empresariales.

OpenAI añade soporte para los aceleradores AMD Instinct a Triton 3.0, proporcionando soporte inmediato para los aceleradores AMD que permitirá a los desarrolladores trabajar a un mayor nivel de abstracción en hardware AMD.

Liderazgo continuo en el avance de los PC con IA
Con millones de PC con IA enviados hasta la fecha, AMD anunció nuevos procesadores móviles líderes con el lanzamiento de los últimos AMD Ryzen Serie 8040 que ofrecen aún más capacidad de cálculo de IA. También lanzó Ryzen AI 1.0 Software, un software stack que permite a los desarrolladores desplegar fácilmente aplicaciones que utilizan modelos preentrenados para añadir capacidades de IA para Windows. AMD también reveló que las próximas CPU «Strix Point» de próxima generación, cuyo lanzamiento está previsto para 2024, incluirán la arquitectura XDNA 2 para ofrecer más de 3x de rendimiento de computación de IA en comparación con la generación anterior, lo que permitirá nuevas experiencias de IA generativa. Microsoft también se unió para hablar de cómo están trabajando estrechamente con AMD en futuras experiencias de IA para PC con Windows.

Serie AMD Instinct MI300
“Los aceleradores de la Serie AMD Instinct MI300 están diseñados con nuestras tecnologías más avanzadas, ofreciendo un rendimiento líder y estarán en implementaciones empresariales y en la nube a gran escala”, dijo Victor Peng, presidente de AMD. «Al aprovechar nuestro liderazgo en hardware, software y enfoque de ecosistema abierto, los proveedores de nube, fabricantes de equipos originales, y fabricantes de diseño original (OEM y ODM por sus siglas en inglés) están llevando al mercado tecnologías que permiten a las empresas adoptar e implementar soluciones impulsadas por IA”.

Los clientes que aprovechan la última cartera de aceleradores AMD Instinct incluyen a Microsoft, que recientemente anunció la nueva Serie de máquinas virtuales (VM) Azure ND MI300x v5, optimizadas para cargas de trabajo de IA y con tecnología de aceleradores AMD Instinct MI300X. Además, se espera que El Capitan, una supercomputadora impulsada por una unidad de procesamiento acelerado AMD Instinct MI300A y alojada en el Laboratorio Nacional Lawrence Livermore, sea la segunda supercomputadora de clase exaescala impulsada por AMD, que ofrezca más de dos exaflops de rendimiento de doble precisión cuando esté completamente implementada.

AMD Instinct MI300X
Los aceleradores AMD Instinct MI300X funcionan con la nueva arquitectura AMD CDNA 3. En comparación con los aceleradores AMD Instinct MI250X de la generación anterior, MI300X ofrece casi un 40% más de unidades de cómputo, 1,5 veces más capacidad de memoria, 1,7 veces más ancho de banda de memoria teórico máximo, así como soporte para nuevos formatos matemáticos como FP8 y sparsity; todo orientado a cargas de trabajo de IA y HPC.

Los LLM actuales continúan aumentando en tamaño y complejidad, y requieren cantidades masivas de memoria y computación. Los aceleradores AMD Instinct MI300X cuentan con 192 GB de capacidad de memoria HBM3, así como un ancho de banda de memoria máximo de 5,3 TB/s2 para ofrecer el rendimiento necesario para cargas de trabajo de IA cada vez más exigentes. La plataforma AMD Instinct es una plataforma de IA generativa construida sobre un diseño OCP estándar de la industria con ocho aceleradores MI300X para ofrecer una capacidad de memoria HBM3 de 1,5 TB líder en la industria. El diseño estándar de la industria de la plataforma AMD Instinct permite a los socios OEM diseñar aceleradores MI300X en ofertas de IA existentes y simplificar la implementación y acelerar la adopción de servidores basados en aceleradores AMD Instinct.

AMD Instinct MI300A
AMD Instinct MI300A, APU para centros de datos enfocada en HPC e IA, aprovecha el apilado 3D y la arquitectura AMD Infinity de cuarta generación para ofrecer un rendimiento líder en cargas de trabajo críticas ubicadas en la convergencia de HPC e IA. Las APU MI300A combinan núcleos de GPU AMD CDNA 3 de alto rendimiento, los últimos núcleos de CPU basados en AMD “Zen 4” x86 y 128 GB de memoria HBM3 de próxima generación, para ofrecer 1,9 veces el rendimiento por vatio en cargas de trabajo de computación de alto rendimiento FP32 e IA, en comparación con la generación anterior AMD Instinct MI250X.

La eficiencia energética es de suma importancia para las comunidades de HPC e IA; sin embargo, estas cargas de trabajo requieren un gran uso de datos y recursos. Las APU AMD Instinct MI300A se benefician de la integración de núcleos de CPU y GPU en un solo paquete, lo que brinda una plataforma altamente eficiente y, al mismo tiempo, proporciona el rendimiento informático para acelerar el entrenamiento de los últimos modelos de IA. AMD está marcando el ritmo de la innovación en eficiencia energética con el objetivo 30×25 de la compañía de ofrecer una mejora de 30 veces la eficiencia energética en procesadores y aceleradores de servidores para capacitación en IA y HPC entre 2020 y 2025.

Software ROCm y socios de Ecosystem
AMD anunció la última plataforma de software abierto AMD ROCm 6, así como el compromiso de la compañía de contribuir con bibliotecas de última generación a la comunidad de código abierto, impulsando su visión sobre el desarrollo de software de IA. El software ROCm 6 representa un avance significativo para las herramientas de AMD, ya que aumenta el rendimiento de aceleración de IA en aproximadamente 8 veces cuando se ejecuta en aceleradores de la Serie MI300 en la generación de texto Llama 2 en comparación con el hardware y software de la generación anterior. Además, ROCm 6 agrega soporte para varias características clave nuevas para la IA generativa, incluidas FlashAttention, HIPGraph y vLLM, entre otras.

Como tal, AMD está en una posición única para aprovechar los modelos, algoritmos y marcos de software de IA de código abierto más utilizados, como Hugging Face, PyTorch, TensorFlow y otros.

DEJA UNA RESPUESTA

Por favor introduce tu comentario
Por favor introduce tus comentarios