Tecnología

AMD redefine el futuro de la IA: nueva generación de GPU, software abierto y ecosistema a escala de rack

Durante su evento Advancing AI 2025, AMD presentó una ambiciosa visión para el futuro de la inteligencia artificial, basada en una plataforma integral, abierta y escalable. Destacó que es la única compañía que impulsa todo el espectro de la IA, combinando GPU, CPU, redes y software abierto para ofrecer “flexibilidad y rendimiento inigualables». La compañía anunció nuevos avances clave: las GPU Instinct Serie MI350, que ofrece un aumento de 4 veces en la capacidad de procesamiento de IA, la última versión del software de código abierto ROCm 7, y su próxima infraestructura de IA a escala de rack, conocida como Helios. Cobertura especial desde San Jose, California.

Durante el evento, AMD anunció una amplia cartera de hardware, software y soluciones para impulsar todo el espectro de la IA. En primer término, presentó las GPU Instinct Serie MI350, presentadas como un nuevo referente en rendimiento, eficiencia y escalabilidad en IA generativa y computación de alto rendimiento. Compuesta por las GPU y plataformas Instinct MI350X y MI355X, ofrece un aumento de 4 veces en la capacidad de procesamiento de IA, generación tras generación, y un salto generacional de 35 veces en inferencia, destacó la compañía. 

«La serie MI350 -disponible en q3 2025- ofrece un salto generacional masivo de 4 veces en cómputo de IA para acelerar tanto el entrenamiento como la inferencia, con una memoria de 388GB, la más avanzada de la indutria. Ahora podemos ejecutar modelos de hasta 520 mil millones de parametros en una sola GPU», dijo Lisa Su, CEO de AMD, en su exposición.

La ejecutiva destacó que la serie MI350 también usa la misma plataforma estándar de la industria que la MI300 y la MI325. «Esto es realmente importante porque hace que sea muy fácil implementar la serie MI350 en la infraestructura de centros de datos existente», señaló.

«Estamos generando hasta un 30% más tokens por segundo en comparación con el B200, e incluso igualando el rendimiento del GB200, que es significativamente más caro y complejo, aún cuando la competencia utiliza su más reciente pila de software propietaria. Esto revela que tenemos un hardware realmente sólido, algo que siempre supimos, pero también demuestra que los frameworks de software abierto han progresado enormemente, al punto de superar a ecosistemas cerrados y específicos de ciertos proveedores».

Lisa Su, CEO de AMD.

Asimismo, aseguró que se compara las especificaciones de esta serie con la competencia, soporta 1.6x más flops en una amplia gama de tipos de datos de IA. «Especialmente, si miramos FP6 y FP64, tenemos el doble de rendimiento. Esto significa que tenemos un rendimiento líder en la industria en ambos extremos del espectro, ya sea hablando de modelos de IA de vanguardia o simulaciones cinetíficas a gran escala o aplicaciones de ingeniería», señaló.

“Desde la perspectiva de la inferencia, ofrecer hasta un 40% más de tokens por dólar es una propuesta de valor clave. Tenemos un rendimiento muy sólido con precios ventajosos para nuestros clientes, lo que permite inferir más tokens por dólar a un coste significativamente menor”. 

Andrew Dieckmann, CVP & GM Data Centers GPU Business de AMD.

La serie Instinct MI350 superó el objetivo quinquenal de AMD de mejorar la eficiencia energética del entrenamiento de IA y los nodos de computación de alto rendimiento en 30 veces, logrando una mejora de 38 veces. AMD también reveló un nuevo objetivo para 2030: lograr un aumento de 20 veces en la eficiencia energética a escala de rack con respecto al año base 2024, lo que permitirá que un modelo típico de IA que hoy requiere más de 275 racks se entrene en menos de un rack completamente utilizado para 2030, con un consumo de electricidad del 95 % menor.

“Creemos que, gracias a la colaboración con todos nuestros socios clave, se logró el equilibrio de diseño ideal entre complejidad y fiabilidad, ofreciendo todas las ventajas de rendimiento que ofrecemos en el mercado”. 

Andrew Dieckmann.

“Ofrecemos un rendimiento y una eficiencia de entrenamiento significativamente superiores en comparación con nuestra generación anterior. En el pre entrenamiento, el MI355X ofrece un rendimiento 2.5x superior en una variedad de tamaños de modelo y formatos de datos. Y en el ajuste fino, ofrecemos hasta 2.9x más rendimiento, lo que permite ciclos de iteración más rápidos y reduce el tiempo desde el desarrollo hasta la implementación del modelo», destacó Andrew Dieckmann, CVP & GM Data Centers GPU Business de AMD, durante una sesión previa al lanzamiento oficial realizado por Lisa Su.

Asimismo, el ejecutivo aseguró que, “en comparación con la competencia, el MI355X ofrece un rendimiento de primera clase, según los últimos estándares de la industria de ML Perf v5.0. Durante el pre entrenamiento, comparamos el rendimiento del B200 con una amplia gama de tamaños de modelo y formatos de datos. Existe una comparación entre ambos modelos, un  GB200 y un B200, con un rendimiento muy competitivo en comparación con los últimos resultados publicados”

Infraestructura abierta a escala de rack: llega Helios

AMD también demostró una infraestructura de IA integral a escala de rack con estándares abiertos, que ya se está implementando con aceleradores AMD Instinct Serie MI350, procesadores AMD EPYC de 5.ª generación y tarjetas de red AMD Pensando Pollara en implementaciones hyperscalers como Oracle Cloud Infrastructure (OCI), y que se espera que esté ampliamente disponible en el segundo semestre de 2025. 

Uno de los anticipos clave del evento fue el del rack de IA de próxima generación, llamado «Helios», que se basará en las GPU AMD Instinct Serie MI400 de próxima generación, las CPU AMD EPYC «Venice» basadas en «Zen 6» y las tarjetas de red AMD Pensando «Vulcano»

“Helios está diseñado para ofrecer hasta diez veces más rendimiento en los modelos más avanzados, y será el acelerador de IA de mayor rendimiento, tanto para entrenamiento a gran escala como para inferencia», aseguró Dieckmann.

“Siete de los diez principales clientes de IA utilizan ahora GPU AMD Instinct. Nuestra familia de socios y usuarios finales crece mes a mes. Ofrecemos un rendimiento inigualable, un sólido ecosistema de software abierto y ventajas competitivas en precio y rendimiento”.

En su presentación, también previa a la sesión general ofrecida por Su, Soni Jiandani, SVP & GM Networking Technology and Solutions Group de AMD, se refirió a las tarjetas de red Pensando Pollara 400 AI NIC, diseñada para acelerar las aplicaciones que se ejecutan en redes back-end, alcanzando velocidades Ethernet de hasta 400 Gbps:

Pollara

“La red es esencial para construir sistemas de IA a escala de rack. Escalar a ese nivel sería imposible sin productos de red sólidos y abiertos. Por lo tanto, Pollara ofrece hoy una mejora del 15% en los tiempos de finalización de trabajos, una disponibilidad del clúster un 10% superior y un coste total de propiedad un 16% inferior en comparación con la competencia”. Y agregó que «con la arquitectura a escala de rack Helios, estamos llevando la tecnología al siguiente nivel, mediante una rápida innovación en escala, fiabilidad y rendimiento. Todo ello con un ecosistema verdaderamente abierto”.

Software abierto y soporte para desarrolladores

La compañía destacó, además, que la última versión de su open-source AI software stack, ROCm 7, está diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, a la vez que mejora drásticamente la experiencia del desarrollador en todos los ámbitos. Ofrece soporte mejorado para frameworks estándar de la industria, mayor compatibilidad de hardware y nuevas herramientas de desarrollo, controladores, API y bibliotecas para acelerar el desarrollo y la implementación de IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *