AMD anuncia la CPU EPYC 4th Gen y la habilitación de software para IA Generativa
En el marco del evento “Data Center and AI Technology Premiere”, anunció los nuevos CPU EPYC y comparte detalles sobre el acelerador AMD Instinct de última generación y la habilitación de software para IA Generativa. Cobertura especial desde San Francisco.
Con la presencia de Lisa Su, CEO de AMD, la compañía anunció los productos, la estrategia y los socios del ecosistema que “darán forma al futuro de la informática”, destacando cómo la compañía impulsará la próxima fase de innovación del centro de datos.
AMD presentó una serie de actualizaciones para su familia EPYC de cuarta generación, diseñadas para ofrecer a los clientes la especialización de la carga de trabajo necesaria para abordar las necesidades únicas de las empresas.
La compañía destacó cómo el procesador AMD EPYC de cuarta generación continúa impulsando el rendimiento de liderazgo y la eficiencia energética.
«Estamos expandiendo nuestro portafolio con nuestros data centers de próxima generación y nuestras ofertas de Inteligencia Artificial. Desde el lanzamiento de Epyc en 2017, nos enfocamos en construir el mejor CPU para data center de la industria. Epyc se ha convertido en el procesador más eficiente y con la mejor performance del mercado», expresó Su.
AMD presentó los procesadores AMD EPYC 97X4 de cuarta generación (anteriormente con el nombre en código «Bergamo»). Con 128 núcleos “Zen 4c” por socket, estos procesadores brindan la mayor densidad de vCPUi, además de prometer un rendimiento líder en la industria para aplicaciones que se ejecutan en la nube, al igual que su eficiencia energética.
Habilitación de mejores productos con informática técnica
La compañía aseguró que los procesadores AMD EPYC de cuarta generación con tecnología AMD 3D V-Cache es la CPU de servidor x86 de mayor rendimiento del mundo para informática técnica. Con hasta 96 núcleos «Zen 4» y más de 1 GB de caché L3, los nuevos procesadores AMD EPYC de cuarta generación pueden acelerar significativamente para el desarrollo de productos, entregando hasta el doble de trabajos de diseño por día usando menos servidores y optimizando la eficiencia energética.
AMD AI Platform: la visión omnipresente de la IA
AMD también dio a conocer una serie de anuncios que muestran cómo está avanzando en su estrategia de plataforma AI, brindando a los clientes una cartera de productos de hardware desde la nube hasta el borde y el punto final, con una profunda colaboración de software de la industria, para desarrollar soluciones de inteligencia artificial escalables y generalizadas.
«La gente me pregunta continuamente cuáles son las oportunidades que trae la Inteligencia Artificial», comentó la CEO de AMD. «Estamos en una etapa muy temprana en el desarrollo de esta tecnología. Los aceleradores de data centers con Inteligencia Artificial han crecido por 30 billones de dólares este año, y esperamos que llegue a 150 billones para 2027. La demanda crece cada vez más».
AMD también reveló nuevos detalles de la familia de aceleradores AMD Instinct MI300 Series, incluida la presentación del acelerador AMD Instinct MI300X, presentado como el acelerador más avanzado del mundo para IA generativa. El MI300X se basa en la arquitectura del acelerador AMD CDNA 3 de próxima generación y admite hasta 192 GB de memoria HBM3 para proporcionar la eficiencia de cómputo y memoria necesaria para la inferencia de modelos de lenguaje grande y las cargas de trabajo generativas de IA.
“Con la gran memoria de AMD Instinct MI300X, los clientes ahora pueden adaptar modelos de lenguaje grande como Falcon-40B, un modelo de 40 mil millones de parámetros, en un solo acelerador de GPU MI300X”, sostuvo a través de un comunicado.
AMD también presentó AMD Infinity Architecture Platform, que reúne ocho aceleradores MI300X en un diseño estándar de la industria para lo último en capacitación e inferencia generativa de IA. El MI300X está muestreando a clientes clave a partir del tercer trimestre. AMD también anunció que AMD Instinct MI300A, el primer acelerador de APU del mundo para cargas de trabajo de HPC e IA, ahora se está mostrando a los clientes.
AMD presentó además el ecosistema de software ROCm para aceleradores de centros de datos, destacando la preparación y las colaboraciones con líderes de la industria para reunir un ecosistema de software de IA abierto.
«Son muchos los casos de personas y compañías que están usando la IA para acelerar los sistemas de próxima generación. Para eso necesitamos un buen hardware, pero también un excelente ecosistema de software. Con mucho entusiasmo presentamos el ecosistema de software ROCm», destacó Lisa Su.
Una sólida cartera de redes para la nube y la empresa
AMD mostró también una sólida cartera de redes, que incluye AMD Pensando DPU, AMD Ultra Low Latency NIC y AMD Adaptive NIC. Las DPU AMD Pensando combinan una sólida pila de software con «seguridad de confianza cero» y un procesador de paquetes programable de liderazgo para crear la DPU más inteligente y de mayor rendimiento del mundo.
AMD destacó la próxima generación de su DPU con nombre en código «Giglio», que tiene como objetivo brindar un mejor rendimiento y eficiencia energética a los clientes, en comparación con los productos de la generación actual, cuando se espera que esté disponible a fines de 2023.
AMD también anunció el AMD Pensando Software-in-Silicon Developer Kit (SSDK), que brinda a los clientes la capacidad de desarrollar o migrar rápidamente servicios para implementarlos en la DPU programable AMD Pensando P4 en coordinación con el amplio conjunto de funciones existente ya implementado en AMD. Plataforma Pensando. AMD Pensando SSDK permite a los clientes poner a trabajar el poder de la DPU líder de AMD Pensando y adaptar la virtualización de red y las características de seguridad dentro de su infraestructura, en coordinación con el rico conjunto existente de características ya implementadas en la plataforma Pensando.
Fuente: IT Seller