AMD presentó su visión completa para una plataforma de IA totalmente integrada y anunció una innovadora infraestructura abierta y escalable para inteligencia artificial, diseñada sobre estándares de la industria, durante su evento Advancing AI 2025, realizada el jueves 12 de junio en San José, California.
Durante la conferencia, Lisa Su, presidenta y CEO de AMD, se reunió con clientes y socios, como Meta, Microsoft, Oracle y OpenAI, para mostrar cómo AMD está impulsando todo el espectro de la IA, reuniendo GPU, CPU, soluciones de red y software abierto líderes para brindar una flexibilidad y un rendimiento inigualables.
Sam Altman, CEO de OpenAI, fue el invitado sorpresa del evento. En su conversación con Lisa Su, Altman habló sobre su visión de la IA para el futuro e indicó que en el 2030 hará cosas que hoy no nos imaginamos, por ejemplo, tareas complejas. Asimismo, indicó que se necesita mayor capacidad de cómputo para seguir desarrollando a la inteligencia artificial y porque el crecimiento de los usuarios a nivel mundial es impresionante.

Altman precisó que el desarrollo de la IA es un trabajo en conjunto con todos los actores de la industria TI.
AMD y sus socios destacaron:
- Cómo están construyendo el ecosistema abierto de IA con los nuevos aceleradores AMD Instinct Serie MI350.
- El continuo crecimiento del ecosistema AMD ROCm.
- Los potentes diseños abiertos de AMD a escala de rack y su roadmap que promete un rendimiento líder en IA más allá de 2027.
“AMD está impulsando la innovación en IA a un ritmo sin precedentes, como lo demuestra el lanzamiento de nuestros aceleradores AMD Instinct Serie MI350, los avances en nuestras soluciones de próxima generación ‘Helios’ a escala de rack y el creciente impulso de nuestra pila de software abierto ROCm”, dijo Lisa Su. “Estamos entrando en la próxima fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo cada vez mayor de AMD en un amplio ecosistema de socios de hardware y software que están colaborando para definir el futuro de la IA”.
La compañía anunció un amplio portafolio de hardware, software y soluciones para impulsar todo el espectro de la IA:
Presentó los GPU Instinct Serie MI350, estableciendo un nuevo estándar en rendimiento, eficiencia y escalabilidad para la IA generativa y la computación de alto rendimiento. La Serie MI350, que incluye los modelos Instinct MI350X y MI355X, ofrece un aumento de 4x en capacidad de cómputo de IA en comparación con la generación anterior y un salto generacional de 35x en inferencia, abriendo camino a soluciones transformadoras de IA en diversas industrias.
Además, el MI355X proporciona importantes mejoras en relación costo-rendimiento, generando hasta un 40% más de tokens por dólar en comparación con soluciones competidoras.
AMD demostró su infraestructura de IA a escala de rack de extremo a extremo, ya implementada con los aceleradores AMD Instinct Serie MI350, procesadores AMD EPYC de 5ª generación y las NICs AMD Pensando Pollara en despliegues de hiperescala como Oracle Cloud Infrastructure (OCI). Esta solución estará disponible en la segunda mitad de 2025.
Ante un auditorio compuesto por socios de negocios y canales, así como de la prensa internacional, AMD presentó a su próxima generación de racks denominada «Helios». Este estará construido con los GPU de próxima generación AMD Instinct Serie MI400, que se espera ofrezcan hasta 10x más rendimiento en la ejecución de inferencias en modelos Mixture of Experts en comparación con la generación anterior. Además, incluirá los procesadores AMD EPYC «Venice» basados en la arquitectura «Zen 6» y las NIC AMD Pensando «Vulcano».
AMD mostró también la última versión de la pila de software de IA de código abierto de AMD, ROCm 7, que ha sido diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, al mismo tiempo que mejora significativamente la experiencia de los desarrolladores en todos los aspectos.
ROCm 7 incluye soporte mejorado para marcos estándar de la industria, compatibilidad ampliada con hardware y nuevas herramientas de desarrollo, controladores, API y bibliotecas destinadas a acelerar el desarrollo y la implementación de IA.
Otro de los importantes anuncios fue Instinct Serie MI350, el mismo que superó el objetivo de AMD a cinco años de mejorar la eficiencia energética en el entrenamiento de IA y los nodos de computación de alto rendimiento en 30x, logrando finalmente una mejora de 38x.
Además, AMD presentó un nuevo objetivo para 2030: aumentar 20x la eficiencia energética a escala de rack tomando como referencia el año base 2024. Esto permitirá que un modelo típico de IA, que hoy requiere más de 275 racks para ser entrenado, pueda hacerlo en menos de un solo rack completamente utilizado para 2030, utilizando un 95% menos de electricidad. Más detalles están disponibles en esta publicación de blog de Sam Naffziger, vicepresidente sénior y miembro corporativo de AMD.
La compañía también anunció la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto. Diseñada específicamente para el desarrollo rápido y de alto rendimiento en IA, esta plataforma ofrecerá a los usuarios acceso a un entorno en la nube completamente gestionado, con herramientas y flexibilidad para iniciar proyectos de IA y escalarlos sin límites. Con ROCm 7 y AMD Developer Cloud, AMD está eliminando barreras y ampliando el acceso a la computación de próxima generación. Colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok están demostrando el poder de soluciones abiertas y codesarrolladas.
Ecosistema de socios de AMD
Actualmente, siete de las 10 principales empresas de desarrollo de modelos y compañías de IA están ejecutando cargas de trabajo de producción en aceleradores Instinct. Entre estas empresas se encuentran Meta, OpenAI, Microsoft y xAI, quienes se unieron a AMD y otros socios en el evento Advancing AI para discutir cómo están colaborando con AMD en soluciones de IA para entrenar los modelos de IA más avanzados de la actualidad, potenciar la inferencia a gran escala y acelerar la exploración y el desarrollo de IA:
Meta detalló cómo el Instinct MI300X está ampliamente implementado para la inferencia de Llama 3 y Llama 4. El ejecutivo de Meta expresó su entusiasmo por el MI350, destacando su capacidad de cómputo, rendimiento por TCO (costo total de propiedad) y memoria de próxima generación. Meta continúa colaborando estrechamente con AMD en roadmaps de IA, incluyendo planes para la plataforma Instinct Serie MI400.
El CEO de OpenAI, Sam Altman, habló sobre la importancia de optimizar de manera integral el hardware, el software y los algoritmos, así como de la estrecha colaboración de OpenAI con AMD en infraestructura de IA, con investigaciones y modelos GPT en producción sobre Azure utilizando MI300X, además de una colaboración profunda en el diseño de las plataformas de la Serie MI400.
Por su parte, Oracle Cloud Infrastructure (OCI) se encuentra entre los primeros líderes de la industria en adoptar la infraestructura abierta de IA a escala de rack de AMD con GPU AMD Instinct MI355X. OCI aprovecha los CPU y GPU de AMD para ofrecer un rendimiento equilibrado y escalable en clústeres de IA, y anunció que ofrecerá clústeres de IA a escala zetta acelerados por los últimos procesadores AMD Instinct, con hasta 131,072 GPU MI355X, permitiendo a los clientes construir, entrenar e inferir IA a gran escala.
Microsoft anunció que el Instinct MI300X ahora está impulsando modelos tanto propietarios como de código abierto en producción en Azure.
Cohere compartió que sus modelos Command, de alto rendimiento y escalables, están implementados en el Instinct MI300X, proporcionando inferencia de LLM de nivel empresarial con alto rendimiento, eficiencia y privacidad de datos.
Red Hat describió cómo su colaboración ampliada con AMD permite entornos de IA listos para producción, con GPU AMD Instinct en Red Hat OpenShift AI, ofreciendo procesamiento de IA potente y eficiente en entornos híbridos de nube.