viernes, 31 de octubre de 2025

AMD ROCm 7.1.0 ya es oficial y promete hasta 3,5 veces más rendimiento

ROCm 7.1.0 llega como la nueva versión de AMD para competir de tú a tú con CUDA en el terreno de la Inteligencia Artificial y el cómputo de alto rendimiento para con sus GPU y aceleradores. Nos encontramos con una versión que sorprende, ya que es más madura, más rápida y más flexible, donde además se amplía el soporte de hardware, se introduce nuevos tipos de precisión y mejora la eficiencia en entornos multiacelerador. La intención de los rojos es ofrecer una plataforma abierta capaz de rivalizar en rendimiento y estabilidad a la altura de su gran rival verde, así que veamos las novedades para ver si lo consiguen.

Sin duda, y como hemos comentado multitud de veces, AMD se está poniendo las pilas de mala manera y en el buen sentido del juego de palabras con el software. Sabedores de que tienen que recortar la distancia con CUDA, el tiempo aprieta y las novedades comienzan a llegar de sus laboratorios con unos ingenieros que lo están dando todo para cerrar la brecha con NVIDIA.

AMD ROCm 7.1.0, mucho más rendimiento y nuevas precisiones para trabajar

Esta versión era ampliamente esperada por los administradores de sistemas, puesto que amplía oficialmente la compatibilidad a los aceleradores Instinct MI300X, MI250X, MI210 y MI100, además de soportar Ubuntu 22.04 y 24.04, RHEL 9.6 y SLES 15 SP6. El soporte para tarjetas Radeon sigue siendo limitado, aunque se mantiene disponible para desarrollo, así que para el resto de mortales y usuarios, las mejoras son mínimas, y esto no le quita atractivo a esta versión ROCm 7.1.0, aunque no lo parezca.

Y es que también se ha separado el driver profesional del paquete principal, algo que facilita actualizaciones sin romper entornos existentes, siendo este un paso adelante importantísimo para la compatibilidad mínima.

En cuanto al rendimiento, hay mejoras impresionantes, y aquí viene lo interesante. AMD asegura que ROCm 7.1 ofrece hasta 3,5 veces más velocidad en tareas de inferencia respecto a ROCm 6.5, y claro, la pregunta es obvia, ¿de dónde llega tal mejora?

Parte de ella llega gracias a los nuevos tipos de dato FP4 y FP6, diseñados para IA generativa y modelos LLM de gran tamaño. Esta reducción de precisión permite ejecutar modelos más grandes con menos consumo y menor demanda de memoria, lo cual, en conjunto impulsa el rendimiento hasta estos límites, pero no es la única obviamente.

Nuevas bibliotecas, monitorización mejorada y más

Las bibliotecas clave del ecosistema también se han actualizado. hipBLASLt, hipSPARSE y rocFFT ya aprovechan las nuevas precisiones FP8, FP6 y FP4, mientras que el entorno HIP recibe nuevas funciones de gestión de memoria que acercan su sintaxis a la de CUDA.

Eso significa que los desarrolladores podrán portar código existente con menos esfuerzo. En paralelo, ROCm 7.1.0 mantiene compatibilidad total con PyTorch 2.7, TensorFlow 2.19 y Triton 3.3, asegurando un entorno estable para la mayoría de proyectos de IA.

Otra novedad importante es la mejora en la monitorización. Según dice AMD en su comunicado, el sistema SMI ahora permite controlar métricas más detalladas, incluyendo errores de memoria, consumo por chiplet y temperatura individual. Un salto básico, y a la misma vez tremendo, para los admin, pero no se quedan ahí.

Para entornos de servidor o supercomputación, estas herramientas facilitan la detección de fallos y el mantenimiento predictivo. Además, se amplía el soporte de virtualización con SR-IOV y KVM, lo que permite compartir aceleradores entre distintas máquinas o usuarios.

Aun así, la falta de soporte completo en GPU de consumo limita su alcance entre desarrolladores independientes y pequeñas empresas, siendo el principal cuello de botella que tiene que solucionar AMD para lograr el impacto que tiene NVIDIA con CUDA.

Queda la sensación de que ROCm 7.1.0 marca un punto de inflexión, ya que es una mejora realmente grande en el software de los rojos que les acerca un paso más hacia los verdes y su ecosistema. AMD ha dado el salto técnico que muchos esperaban, pero su éxito dependerá de cuán fácil sea integrarlo en infraestructuras ya dominadas por CUDA.

Si consigue mantener esta dirección, puede que por primera vez exista una alternativa real en el mundo de la aceleración para IA. ¿Estamos ante el momento en que el ecosistema abierto de AMD empieza a ganar terreno?.

Saludos. 

No hay comentarios:

Publicar un comentario

Por favor sé respetuoso/a y escribe adecuadamente. Gracias.