Tecnología

AMD lanza una nueva GPU y CPU EPYC en línea con NVIDIA

El Instinct MI200 es casi cinco veces más rápido que el NVIDIA A100 para HPC, pero en teoría es solo un 20% más rápido para AI.

Un año atras me quejé que la GPU AMD MI100 recientemente anunciada era excelente para HPC pero inadecuada para la mayoría de las cargas de trabajo de IA. Ahora AMD ha anunciado el Instinct MI200 actualizado, diseñado en gran parte para satisfacer las necesidades del programa Exascale del DOE de EE. UU. El chip tiene un rendimiento HPC sorprendentemente rápido y un rendimiento teórico de inteligencia artificial decente. AMD también realizó una actualización de la CPU EPYC, con una enorme memoria caché V 3D apilada para un rendimiento HPC más rápido, con una estructura de caché coherente que puede conectar cuatro MI200 a la CPU EPYC. Vamos a ver.

¿Qué ha anunciado AMD?

Bueno, técnicamente la empresa no ha anunciado estas nuevas plataformas; predijeron que ocuparían un lugar central antes de SuperComputing ’21, que se celebrará en St. Louis, del 14 al 19 de noviembre. Y dado que Oak Ridge National Labs ya está instalando estos chips en el sistema HPE Cray Frontier Exascale, bueno, tenían que decir alguna cosa. Pero si bien algunos detalles y precios aún no están disponibles, todavía hay muchas noticias para entusiasmar a la comunidad de HPC y AI.

EPYC con V-Cache

Comencemos con la CPU EPYC Milan actualizada. Muchas aplicaciones de HPC e IA tienen un ancho de banda de memoria limitado. Al triplicar la memoria caché de la CPU con memoria 3D apilada a 804 MB por zócalo, AMD está experimentando una mejora promedio del 50% en aplicaciones de HPC «específicas» como EDA, ingeniería mecánica y dinámica de fluidos computacional. De hecho, la empresa demostró un rendimiento 60% mejor para la aplicación de verificación Synopsys. Dado que muchas (la mayoría) de las aplicaciones de HPC se facturan por la cantidad de núcleos en un servidor, el aumento del rendimiento por núcleo reduce drásticamente el costo total de propiedad de los sistemas diseñados. Sin embargo, los precios de AMD no se publicaron. El nuevo “MilanX” se lanzará en el primer trimestre de 2022.

READ  Parler vuelve a la App Store

Pero si aún necesita más rendimiento, …

Entonces echa un vistazo a esta nueva GPU de dos datos, el Instinct MI200. El equipo de diseño sabía quiénes serían sus primeros clientes, ya que los sistemas Frontier y El Capitan Exascale para el DOE de EE. UU. Ya habían sido otorgados a HPE y AMD cuando el chip aún estaba en la mesa de dibujo. Aunque AMD dejó escapar que el chip consumiría unos 550 vatios (!), Ofrecerá casi cinco veces el rendimiento de coma flotante de 64 bits para cargas de trabajo HPC en comparación con la NVIDIA A100, por lo que el rendimiento por vatio seguirá siendo sorprendente.

En cuanto al rendimiento de la IA, AMD cerró la brecha considerable con NVIDIA, al menos en términos de rendimiento teórico, basado en un punto flotante de 16 FLOPS que es un 20% más grande que NVIDIA A100. Decimos «teórico» porque AMD aún no está listo para publicar resultados de pruebas de inteligencia artificial como el paquete MLPerf. Y sospechamos que al equipo de software de Instinct le llevará algo de tiempo optimizar los modelos de IA, los kernels y la pila de desarrollo de ROCm, así que no contenga la respiración. Pero creemos que el rendimiento atraerá a los desarrolladores a comenzar el viaje para construir un ecosistema de inteligencia artificial alrededor de AMD.

Vale la pena mencionar otras dos características. Uno es el rendimiento y la coherencia de la memoria del nuevo tejido Infinity que interconecta las GPU con MilanX y probablemente con Milán. La coherencia de la caché simplifica enormemente la gestión de la memoria para los desarrolladores de software, mejora el rendimiento de las aplicaciones y permite modelos de IA de miles de millones o billones de parámetros. Y, por supuesto, el rendimiento de estos enlaces directos acabará con las arquitecturas de GPU basadas en PCIe.

La otra tecnología nueva se llama Puente de distribución elevada (EFB), que reemplaza al transpositor de silicio tradicional. EFB promete una mayor escalabilidad y menores costos al aprovechar los procesos estándar de «flip chip» para simplificar el ensamblaje.

AMD anunció en la conferencia de analistas que no ha presentado ningún punto de referencia a MLCommons. Esperamos que lo hagan en la próxima ronda de evaluación comparativa, pero no sería sorprendente que la empresa decidiera no hacerlo. Cerrar la brecha con NVIDIA para IA es tanto un desafío de software como el silicio, y llevará tiempo. Sin embargo, AMD compartió cifras brutas de rendimiento de Flop para corroborar sus afirmaciones de marketing de que la nueva plataforma es potencialmente casi 5 veces más rápida que NVIDIA. Potencialmente.

Mirando más allá de los FLOPS en bruto para algunas comparaciones de rendimiento real, el MI200 parece tener entre 1,5 y 3 veces el rendimiento de la GPU NVIDIA para HPC. Desafortunadamente, no se han publicado datos sobre el rendimiento de las aplicaciones de IA.

Conclusiones

Claramente, AMD está cumpliendo la promesa de la directora ejecutiva Lisa Su de desarrollar su negocio de centro de datos en HPC. MilanX y MI200 se combinan para ofrecer un excelente rendimiento y escalabilidad de HPC, que se probará en los sistemas Exascale que se están construyendo y planificando.

Por otro lado, la IA parece haber sido relegada a una prioridad más baja una vez más, tanto en la CPU EPYC en comparación con Intel Sapphire Rapids como en la GPU en comparación con NVIDIA. Si bien es bueno ver el punto flotante de 16 bits un 20% mejor, FLOPS es un indicador de bajo rendimiento en mundo impulsado por software de IA optimizada aceleración.

Dicho esto, no puedo discutir la priorización de AMD: dado que NVIDIA se centra más en la inteligencia artificial, ha creado una vulnerabilidad en HPC que AMD pretende explotar.

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar