AMD ha presentado la 4ª generación de sus procesadores AMD EPYC y ha compartido nuevas actualizaciones sobre su acelerador AMD Instict de próxima generación y la habilitación de ‘software’ para Inteligencia Artificial (IA) generativa.
Así lo ha anunciado la compañía tecnológica en su evento ‘Data Center and AI Technology Premiere’, en el que ha mostrado sus nuevos productos, las estrategias de que espera llevar a cabo y los socios con los que planea «dar forma al futuro de la informática».
Durante este encuentro también han participado ejecutivos de compañías como Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure y PyTorch; empresas con las que AMD ha llevado a cabo diferentes alianzas tecnológicas, con el fin de impulsar la próxima generación de CPU de alto rendimiento y soluciones del acelerador de IA de alto rendimiento.
AMD presenta novedades como la 4ª generación de sus CPUs EPYC y el acelerador AMD Instict de última generaciónhttps://t.co/C7nA3TGFxF pic.twitter.com/ayRPSbv8Cq
— Portaltic.es (@Portaltic) June 14, 2023
De hecho, tal y como ha afirmado la presidenta y consejera delegada de AMD, Lisa Su, con la nueva familia de procesadores EPYC de cuarta generación, la compañía ha dado un paso «significativo» en su estrategia de centros de datos.
En concreto, será capaz de ofrecer nuevas soluciones para cargas de trabajo para la nube y de computación técnica. Asimismo, la directiva también ha anunciado que aportarán nuevas «instancias públicas y despliegues internos» con los mayores proveedores de ‘cloud’.
«Estamos centrados en acelerar el despliegue de las plataformas de IA de AMD a escala en el data center», ha apostillado Su, al tiempo que ha señalado que el despliegue estará liderado por el lanzamiento de sus aceleradores Instinct MI300, previsto para finales de este año, junto con el ecosistema de ‘software’ de IA para empresas optimizado para su ‘hardware’.
4ª GENERACIÓN DE LOS PROCESADORES EPYC
AMD ha compartido actualizaciones de la nueva familia de procesadores EPYC de 4ª generación. En concreto, estos procesadores están diseñados para ofrecer a los clientes la especialización de carga de trabajo necesaria para «abordar las necesidades únicas de las empresas». Así, la compañía ha destacado que estos procesadores incluyen mejoras en el rendimiento y la eficiencia energética.
Una de las cooperaciones de AMD con AWS está relacionada con el uso de estos procesadores. Tal y como se ha detallado en el evento, la próxima generación de instancias de Amazon Elastic Compute Cloud (Amazon EC2) M7a, estará impulsada por procesadores AMD EPYC de 4ª generación.
La compañía también ha dado a conocer la nueva generación de procesadores AMD EPYC 97X4, conocidos como ‘Bergamo’. Estas CPUs disponen de 128 núcleos Zen 4c por salida, lo que garantiza una mayor densidad de vCPU y un mayor rendimiento para aplicaciones que se ejecutan en la nube.
Al respecto, Meta ha explicado que han optimizado estas CPU EPYC 97X4 para adaptarlas a los requisitos de eficiencia energética y densidad computacional de la compañía. Como resultado, la empresa liderada por Mark Zuckenberg, ha puesto en valor la capacidad de estos procesadores para sus distintas redes sociales, como Instagram y WhatsApp. Según ha apuntado, esto se debe al «impresionante rendimiento» en comparación con la generación anterior de procesadores EPYC «en varias cargas de trabajo».
Finalmente, AMD también ha presentado la 4ª generación de procesadores AMD EPYC con tecnología AMD 3D V-Cache. En palabras del fabricante estadounidense, esta es la CPU de servidor x86 de «mayor rendimiento del mundo» para la informática técnica.
En cuanto al uso de estas plataformas,, Microsoft ha aprovechado su intervención en este encuentro para anunciar la disponibilidad general de las instancias Azure HBv4 y HX para impulsarse por procesadores AMD EPYC de cuarta generación con tecnología AMD 3D V-Cache.
PLATAFORMA AMD IA
El fabricante también ha comentado cuál ha sido su estrategia como plataforma de IA, con la que persigue el objetivo de brindar a los clientes una cartera de productos de ‘hardware’ «desde la nube hasta el extremo», con colaboración de ‘software’ de la industria para desarrollar soluciones de la IA «escalables y generalizadas».
En este marco, AMD ha presentado nuevos detalles de la familia de aceleradores para IA generativa AMD Instict Serie MI300, compuesta por el que define como el acelerador «más avanzado del mercado», debido a que se basa en la arquitectura de AMD CDNA de última generación.
Esta arquitectura es capaz de admitir hasta 192 GB de memoria HBM3 para ofrecer la eficiencia de cómputo y memoria necesaria, de cara al entrenamiento de modelos de lenguaje de gran tamaño (LLM) para cargas de trabajo de IA generativa.
De hecho, tal y como ha explicado la compañía, gracias a esta tecnología los clientes pueden ajustar grandes modelos de lenguaje, como Falcon-40 del Technology Innovation Institute que utiliza parámetros 40B, «en un único acelerador MI300X5».
Siguiendo esta línea, AMD también ha presentado la plataforma AMD Instict, que reúne ocho aceleradores MI300X en un diseño estándar del sector. Con esta plataforma, la compañía ofrece una solución práctica para la inferencia y el entrenamiento de IA. Esta plataforma se distribuirá entre sus principales clientes a partir del tercer trimestre de este año.
ECOSISTEMA DE ‘SOFTWARE’ ROCM
Al hilo de las nuevas tecnologías para la IA generativa, AMD ha lanzado al mercado el ecosistema de ‘software’ ROCm con una plataforma de ‘software’ «abierta, probada y preparada», pensada para su uso en aceleradores de centros de datos.
Para el desarrollo de esta plataforma, AMD ha contado con las colaboraciones de líderes del sector como PyTorch. En concreto, esta fundación colaboró para integrar de forma completa el ‘software’ ROCm con soporte inmediato para PyTorch 2.0. con la versión 5.4.2 en todos los aceleradores de AMD Instict.
DPU AMD PENSANDO
Otra de las cuestiones que ha tratado AMD en el evento es su cartera de redes. En la que ha incluido la DPU AMD Pensando, un procesador programable optimizado para ejecutar una pila de ‘software’ que ofrece servicios en la nube de procesamiento, de red, de almacenamiento y de seguridad.
Según ha detallado la compañía, la DPU AMD Pensando se está desplegando a escala en socios que trabajan con la nube como IBM Cloud, Microsoft Azure y Oracle Compute.
Por otra parte, continuando con las DPU, la tecnológica ha destacado su próxima hoja de ruta de DPU, a la que ha llamado ‘Giglio’, que tiene como objetivo ofrecer un mayor rendimiento y eficiencia y que estará disponible a finales de este año.
AMD ha cerrado su evento con el anuncio del kit de desarrollo de ‘software’ en silicio AMD Pensando (SSDK), que ofrece a los clientes la posibilidad de desarrollar rápidamente servicios para desplegarlos en la DPU programable AMD Pensando.
Otras Noticias: