domingo, 10 de mayo de 2026

Hackean JDownloader para distribuir instaladores maliciosos

Hay pocos escenarios más incómodos dentro del mundo de la seguridad informática que este: entrar en la web oficial de un programa conocido, descargar su instalador legítimo… y acabar infectando el sistema igualmente. Eso es exactamente lo que ocurrió con JDownloader entre los días 6 y 7 de mayo, después de que atacantes comprometieran parcialmente la página oficial del veterano y popular gestor de descargas para sustituir algunos enlaces legítimos por instaladores maliciosos dirigidos a usuarios de Windows y Linux.

El incidente afectó concretamente al instalador alternativo de Windows y al instalador shell para Linux. Los atacantes aprovecharon una vulnerabilidad sin corregir en el CMS utilizado por la web oficial para modificar enlaces y redirigir las descargas hacia archivos infectados alojados externamente. Según han explicado posteriormente los propios desarrolladores, los atacantes nunca obtuvieron acceso completo a los servidores ni al sistema operativo de la infraestructura de JDownloader. El compromiso se limitó a la manipulación de contenido y enlaces publicados en la página.

El malware distribuido consistía en un RAT basado en Python, es decir, un troyano de acceso remoto capaz de otorgar control prácticamente completo sobre el sistema infectado. Los análisis realizados posteriormente muestran además un comportamiento bastante sofisticado: el payload incluía retrasos de ejecución de hasta ocho minutos antes de activarse, una técnica relativamente habitual para dificultar la detección automática y evitar ciertos sistemas de análisis dinámico.

La detección inicial llegó, curiosamente, desde la propia comunidad. Un usuario de Reddit comenzó a sospechar después de que Microsoft Defender identificara el instalador descargado desde la web oficial como software malicioso. También llamó la atención la aparición de firmas digitales sospechosas como “Zipline LLC” o “The Water Team” en lugar del desarrollador legítimo, AppWork GmbH. Poco después, los responsables de JDownloader confirmaron públicamente el incidente y desconectaron temporalmente la web para iniciar la investigación.

Y aquí conviene hacer una distinción importante. El problema no afectó al núcleo del programa ni a todas las formas de distribución del software. Las actualizaciones internas de la aplicación seguían siendo seguras, igual que las versiones para macOS, los paquetes distribuidos mediante Winget, Snap, Flatpak y el paquete JAR principal. El ataque estuvo limitado específicamente a determinados enlaces publicados en la web oficial durante una ventana temporal relativamente corta.

Aun así, el incidente resulta especialmente delicado porque rompe una de las recomendaciones más básicas y repetidas dentro de la seguridad informática: descargar software únicamente desde fuentes oficiales. En este caso, los usuarios hicieron exactamente eso. No acudieron a páginas sospechosas, no utilizaron mirrors extraños ni instalaron cracks de procedencia dudosa. Entraron en la web legítima del proyecto y descargaron el archivo ofrecido allí. Precisamente por eso este tipo de ataques generan tanta preocupación dentro de la industria.

Y además no se trata de un caso aislado. Los ataques a la cadena de suministro llevan años convirtiéndose en uno de los vectores favoritos para grupos criminales y operaciones más sofisticadas. Casos como SolarWinds o 3CX demostraron hasta qué punto comprometer la distribución de software legítimo puede resultar devastador. El objetivo ya no consiste únicamente en engañar usuarios individuales, sino en infiltrarse dentro de relaciones de confianza ya establecidas entre desarrolladores y millones de sistemas.

Los responsables de JDownloader aseguran que el problema ya ha sido solucionado y recomiendan a los usuarios verificar siempre la firma digital de los instaladores. Los archivos legítimos deben aparecer firmados por AppWork GmbH; cualquier ejecutable sin firma o firmado por entidades distintas debe considerarse sospechoso. Pero incluso con esa solución, el incidente deja una sensación bastante incómoda. Porque durante años la regla era sencilla: “descarga solo desde la web oficial”. Hoy sigue siendo el mejor consejo posible… aunque ya no garantice completamente la seguridad.

Más información

Saludos.

sábado, 9 de mayo de 2026

Windows 11 sigue basándose en código nacido en los años 90

Windows 11 puede presumir de inteligencia artificial integrada, interfaces renovadas, Copilot, diseño adaptativo y hasta una estrategia completa de modernización bajo iniciativas como Windows K2. Pero, bajo toda esa superficie contemporánea, sigue latiendo una pieza fundamental nacida hace más de treinta años. Microsoft ha reconocido públicamente que Win32, una de las APIs centrales introducidas durante la era de Windows 95, continúa siendo una parte esencial del sistema operativo en pleno 2026. Y aunque pueda sonar extraño en tiempos de IA generativa y computación espacial, la realidad es que buena parte del ecosistema Windows moderno sigue dependiendo directamente de aquella tecnología

La confirmación llegó de la mano de Mark Russinovich, CTO de Microsoft Azure y una de las figuras más respetadas dentro del universo Windows. Durante una conversación publicada por Microsoft Dev Docs, Russinovich reconoció abiertamente la longevidad inesperada de Win32 con una reflexión bastante reveladora: “¿Alguien en los 90 esperaba que Win32 siguiera siendo una API de primera clase en 2026? Creo que puedo responder con seguridad que no”. Y probablemente tenga razón. En aquella época muchos imaginaban coches voladores o bases lunares permanentes para esta década, no una arquitectura de software diseñada para Windows 95 todavía presente en millones de ordenadores.

Sin embargo, hay una razón muy poderosa detrás de esta supervivencia: compatibilidad. Win32 sigue siendo la base sobre la que funcionan incontables aplicaciones profesionales, herramientas empresariales, utilidades industriales y software heredado que continúa utilizándose diariamente en compañías de todo el mundo. Muchas de esas aplicaciones necesitan acceso profundo al sistema, algo que los frameworks más modernos y limitados nunca terminaron de ofrecer con la misma flexibilidad.

Microsoft ha intentado reemplazar Win32 varias veces a lo largo de las últimas dos décadas. Primero llegaron iniciativas como WinRT y más tarde la Universal Windows Platform (UWP), proyectos que buscaban construir un ecosistema más moderno, seguro y homogéneo. El problema es que ninguno consiguió sustituir realmente al software tradicional de escritorio. Muchos desarrolladores terminaron cansándose de los continuos cambios de dirección de Microsoft y optaron por seguir apostando por el ecosistema clásico, mucho más estable y predecible a largo plazo.

En paralelo, la compañía también ha impulsado durante los últimos años una transición parcial hacia aplicaciones basadas en tecnologías web mediante wrappers Chromium. Herramientas como el nuevo Outlook, Microsoft Teams o Clipchamp son algunos de los ejemplos más visibles. Pero este movimiento tampoco ha estado exento de polémica. El aumento del consumo de memoria, el peor rendimiento y la sensación de pesadez en determinadas aplicaciones han generado críticas constantes entre muchos usuarios avanzados de Windows 11.

Y precisamente ahí encaja buena parte de la iniciativa Windows K2 de la que hemos hablado recientemente. Microsoft parece haber asumido por fin que no puede reiniciar Windows desde cero sin poner en riesgo el enorme ecosistema que mantiene vivo al sistema operativo. En lugar de eso, la compañía está apostando por una modernización gradual: conservar la base histórica mientras reconstruye poco a poco determinadas partes del sistema utilizando tecnologías más modernas como WinUI 3 y Windows App SDK.

Eso explica perfectamente por qué Windows 11 sigue mostrando a veces una mezcla tan peculiar de elementos modernos y heredados. Nuevos cuadros de diálogo conviven con interfaces diseñadas hace décadas, mientras componentes clásicos siguen funcionando junto a capas completamente nuevas. No es simple desorden interno ni dejadez técnica; es el resultado de intentar modernizar uno de los ecosistemas de software más grandes y complejos del planeta sin romper décadas enteras de compatibilidad.

De hecho, hasta herramientas que nacieron casi como soluciones temporales han terminado integrándose permanentemente dentro del sistema operativo. Russinovich mencionó como ejemplo su propia suite Sysinternals, creada originalmente en 1996. Según admitió él mismo, habría apostado “un millón de dólares” a que aquellas herramientas serían irrelevantes décadas después. Ha ocurrido exactamente lo contrario: algunas de ellas, como Sysmon, ya forman parte oficialmente de Windows 11 tras la actualización de marzo de 2026.

Y quizá ahí resida una de las grandes contradicciones de Windows. La compatibilidad eterna es al mismo tiempo una de sus mayores fortalezas y una de sus mayores limitaciones. Gracias a ella, software creado hace décadas sigue funcionando en hardware moderno, algo prácticamente imposible en muchos otros ecosistemas. Pero esa misma herencia también convierte cada intento de modernización en una operación delicadísima. Porque en Windows, el pasado nunca termina de desaparecer del todo.

Más información

Saludos. 

viernes, 8 de mayo de 2026

Diez años de GeForce GTX serie 10, el legado de la arquitectura Pascal

GeForce GTX serie 10. Solo leer ese nombre ya activa algo extraño en la memoria de muchos jugadores de PC. Una mezcla de ventiladores girando a toda velocidad, vídeos de benchmarks en YouTube a 1080p60, cajas enormes con ventanas de metacrilato y aquella sensación tan propia de 2016 en la que parecía que cada nuevo lanzamiento realmente cambiaba las reglas del juego. Eran tiempos de DOOM, de la explosión de los monitores de alta frecuencia, de la realidad virtual intentando conquistar el mercado… y de una obsesión mucho más simple que la actual: conseguir más FPS, a mayor resolución y consumiendo menos energía.

NVIDIA ha querido recordar precisamente estos días que el 6 de mayo de 2016 presentó oficialmente las GeForce GTX 1080 y GTX 1070, las dos primeras tarjetas gráficas basadas en la . Vista con perspectiva, aquella generación llegó en un momento muy concreto del PC gaming. El trazado de rayos en tiempo real todavía parecía ciencia ficción doméstica, el DLSS ni siquiera existía y la inteligencia artificial aún no había invadido medio sector tecnológico. La batalla seguía librándose en el terreno clásico: rasterización pura, frecuencias elevadas y eficiencia.

La gran protagonista inicial fue, por supuesto, la GeForce GTX 1080. Fabricada bajo proceso de 16 nm FinFET, incorporaba 2.560 CUDA Cores y 8 GB de memoria GDDR5X, unas especificaciones que en su momento parecían casi desproporcionadas para una GPU de consumo. Pero más allá de los números, lo verdaderamente impactante fue la sensación generalizada de salto generacional real. La GTX 1080 no solo superaba con claridad a la GTX 980, sino que conseguía colocarse también por delante de modelos como la GTX 980 Ti o incluso la Titan X en muchos escenarios, y además consumiendo bastante menos energía.

La GTX 1070 terminó de redondear el golpe sobre la mesa. Llegó con un precio mucho más accesible y un rendimiento capaz de competir directamente con las tarjetas más potentes de la generación anterior. Y ahí empezó probablemente una de las etapas más recordadas de NVIDIA dentro del mercado gaming. Pascal ofrecía algo que no siempre resulta sencillo de encontrar en hardware de PC: una combinación muy equilibrada entre potencia, eficiencia, temperaturas razonables y una capacidad de overclocking espectacular para la época.

También fue el momento en el que NVIDIA introdujo oficialmente el concepto “Founders Edition”, sustituyendo la antigua idea de “modelo de referencia” por una presentación mucho más cuidada visualmente. Aquellas tarjetas metálicas con diseño angular y refrigeración tipo blower se convirtieron rápidamente en una imagen icónica de la generación Pascal, incluso aunque los modelos personalizados de los ensambladores solieran ofrecer mejores temperaturas y menos ruido.

Con el tiempo llegaría la GTX 1080 Ti, y para muchos ahí quedó sellado el legado definitivo de la serie. AMD intentó responder primero con Polaris y más tarde con Vega, pero Pascal consiguió mantener una ventaja enorme en la gama alta durante bastante tiempo. Y quizá por eso la nostalgia alrededor de esta generación sigue siendo tan fuerte incluso diez años después. No solo por el rendimiento, sino por lo que representaba aquella etapa del hardware para PC: una época donde el salto gráfico todavía dependía principalmente de la fuerza bruta de la GPU y de mejoras arquitectónicas tradicionales.

Hoy el panorama es muy distinto. El gaming en PC gira cada vez más alrededor de tecnologías como DLSS, Frame Generation, aceleradores de IA o ray tracing avanzado. Y no tiene sentido fingir que nada de eso existe o que no aporta ventajas reales, porque las aporta. Pero precisamente por eso Pascal sigue ocupando un lugar tan especial en la memoria colectiva del PC gaming. Porque para muchos jugadores fue la última gran generación donde todo parecía reducirse a algo tan sencillo —y tan adictivo— como instalar una gráfica nueva, abrir un juego y comprobar cuántos FPS más era capaz de mover.

Saludos.

jueves, 7 de mayo de 2026

Guía de buenas prácticas en el Día Mundial de la Contraseña 2026

Como cada año el primer jueves de mayo, la industria tecnológica celebra hoy el Día Mundial de la Contraseña 2026, un evento propuesto por los profesionales de la ciberseguridad para concienciar a usuarios y empresas de la necesidad de fomentar las mejores prácticas en la creación y mantenimiento de las contraseñas.

Todos sabemos que las contraseñas son un método inseguro por defecto (cuando no se gestionan de manera correcta) y terrible en usabilidad al tener que recordarla. Sin embargo, las contraseñas siguen siendo una función clave para la seguridad ya que se usan de manera masiva para autenticarse en los servicios de Internet, ante sistemas operativos, aplicaciones, juegos, redes y todo tipo de máquinas.

Eliminar las contraseñas como método principal de autenticación digital debería ser una una de las grandes prioridades de la industria de la tecnología. Y el proceso está en marcha con métodos más avanzados como las ‘claves de acceso’ (Passkeys) que ofrecen una alternativa más segura, amigable y conveniente a las contraseñas, ya que permiten usar números de identificación personal (PIN) o autenticación biométrica como huellas dactilares o reconocimiento facial para iniciar sesión en sitios web y aplicaciones. Pero hasta que estas nuevas tecnologías estén totalmente extendidas, el objetivo debe ser reforzar los métodos de seguridad que usamos.

Día Mundial de la Contraseña 2026

El uso de las contraseñas para proteger cuentas digitales contra accesos no autorizados en entornos informáticos se remonta a una época incluso anterior a la llegada del ordenador personal. Las usaron por primera vez investigadores del Instituto Tecnológico de Massachusetts (MIT) en la década de 1960 en un IBM 709 al que los usuarios podían acceder mediante su propio código para evitar el acceso no autorizado a los archivos personales de los usuarios. Se cree que fue la primera vez que se usaron para autenticación y también la primera vez que se produjo una violación de contraseñas.

Han pasado 64 años desde aquel suceso y la historia ha venido repitiéndose. Las credenciales comprometidas representan la principal causa de ciberataque por segundo año consecutivo (41% de los casos), según indica la edición de 2025 del informe Active Adversary de la firma Sophos. Además, según este estudio, las sofisticadas técnicas, tácticas y procedimientos de los ciberatacantes les permiten burlar fácilmente los métodos de autenticación tradicionales.

A ello ayuda que año a año las contraseñas débiles «brillen» entre las más usadas, según los informes realizados mediante el análisis de las mayores violaciones de datos que se producen en los ataques a servicios de Internet. La conclusión principal es que a nivel de usuario y de manera general somos un chollo para los ciberdelincuentes ya que ese tipo de claves pueden ser descifradas en segundos mediante un solo comando. Las empresas también tienen que hacer mucho más en seguridad digital y aquí es donde entra este Día Mundial de las Contraseñas 2025 como recordatorio.

Cómo crear las contraseñas más seguras

Las recomendaciones se repiten año a año y forman parte de cualquier manual de seguridad informática. Aunque nos cueste, debemos hacer un esfuerzo en su creación, gestión y mantenimiento cumpliendo al menos unas normas básicas que indican lo que hay que hacer o mejor lo que no hay que hacer para crear contraseñas más seguras. Las volvemos a recordar:

  • No usar palabras típicas o números comunes.
  • No usar nombres personales, de mascotas o fechas de nacimiento.
  • Combinar mayúsculas y minúsculas.
  • Combinar números con letras.
  • Añadir caracteres especiales.
  • Alargar el término con el mayor número de dígitos.
  • No utilizar la misma contraseña en todos los sitios.
  • Especialmente, usar contraseñas específicas y lo más fuertes posibles para banca y sitios de compra on-line donde exponemos nuestra información financiera.
  • Mantener la contraseña a salvo de cualquier tercero.
  • No revelar nunca la contraseña a nadie. Tampoco en supuestas peticiones oficiales desde correos electrónicos o mensajes de servicios de mensajería ya que suelen ser ataques de phishing que suplantan su identidad.
  • Variar el nombre de usuario y el correo electrónico.
  • Reforzar el uso de las contraseñas siempre que estén disponibles funciones como la doble autenticación (2FA) o sistemas biométricos, sensores de huellas o reconocimiento facial.
  • Limpiar cuentas en línea que no usemos como tarea regular de mantenimiento.
  • Comprueba si tus contraseñas están hackeadas. Have I Been Pwned es un buen lugar donde mirar.

Adicionalmente, y como refuerzo de las contraseñas, usa siempre que puedas 2FA, un método de control de accesos que conocerás como «autenticación de dos factores», «doble identificación» o «verificación en dos pasos», que se ha convertido en uno de los mecanismos de seguridad más importantes de la industria tecnológica a la hora de autentificar usuarios y proteger identidades.

Gestores de contraseñas gratis, abiertos y seguros

Es casi imposible para un humano internauta manejar con seguridad las credenciales para acceder a las centenares de cuentas que seguramente estemos suscritos. Hay un grupo de aplicaciones que son de gran ayuda. Básicamente, este tipo de software reduce los errores humanos en el manejo de las contraseñas, ya que automatiza el proceso de generación y de acceso a los sitios web y servicios.

Por supuesto, las contraseñas creadas por estos gestores son altamente seguras cumpliendo las normas estándar en tamaño y complejidad. También ayudan contra los ataques de phishing al identificar de forma inmediata los caracteres procedentes de otros alfabetos y añaden una enorme ventaja: solo necesitamos recordar una contraseña maestra y el gestor hará el resto.

Seguro que te suenan aplicaciones como la renombrada LastPass y otras comerciales y/o de pago. La gran ventaja de los administradores de código abierto es la posibilidad de auditar el software y mantener las credenciales bajo tu control, instalando y auto hospedándolas en nuestra propia máquina. Te recordamos los más interesantes:

KeePass. Es el ‘abuelo’ entre los gestores de contraseñas de código abierto y existe desde los días de Windows XP. KeePass almacena las contraseñas en una base de datos cifrada a la que puedes acceder mediante una contraseña o clave digital. Puede importar y exportar contraseñas en una amplia variedad de formatos.

Bitwarden. Especialmente destinada a usuarios de LastPass que buscan una alternativa más transparente, funciona como un servicio web al que puedes acceder desde cualquier navegador de escritorio, mientras que para Android e iOS cuenta con sus respectivas apps móviles. Bitwarden puede compartir contraseñas y tiene acceso seguro con autenticación multifactor y registros de auditoría.

Passbolt. Un administrador de contraseñas autohospedado diseñado específicamente para equipos de trabajo. Se integra con herramientas de colaboración en línea como navegadores, correo electrónico o clientes de chat. Puedes autohospedar el programa en tus propios servidores para mantener un control completo de los datos, aunque equipos sin experiencia o infraestructura pueden usar una versión en nube que los aloja en los servidores de la compañía.

Psono. Psono es otra opción para los equipos que buscan software de gestión de contraseñas empresariales de código abierto. Esta es una solución autohospedada que ofrece un atractivo cliente basado en web escrito en Python, con código fuente disponible bajo la licencia Apache 2.0.

Teampass. Un administrador orientado a equipos con un modo base fuera de línea que nos gusta, donde exporta sus elementos a un archivo cifrado que puede usarse en ubicaciones sin conexión a Internet. Teampass no es la aplicación más bonita del mundo, pero el diseño es tremendamente y se puede definir rápidamente roles, privilegios de usuario y acceso a carpetas.

Gestores en los navegadores

Si no quieres usar gestores de terceros, otra opción es usar los administradores de contraseñas de los propios navegadores. Chrome, el líder del segmento, ha mejorado su funcionamiento y capacidad considerablemente en las últimas versiones incluyendo funciones que ofrecen los especializados de arriba, como la detección de contraseñas vulneradas, el aviso cuando crees alguna débil, una edición de la misma muy sencilla sin salir del gestor o incluso la creación de accesos directos para ejecutarlo en un solo clic.

El gestor las almacena de manera segura, permite su gestión en chrome://settings/passwords y las usa para completar los campos de usuario y contraseña la próxima vez que visites un sitio web. Muy similar a lo que ha ido haciendo Mozilla para Firefox con su ‘Password Manager’ que es uno de las mejores en navegadores web. El Edge de Microsoft basado en Chromium también cuenta con su propio gestor, que ofrece lo más básico de un gestor dedicado.

Un nuevo recordatorio este Día Mundial de las Contraseñas 2023 para concienciar de la necesidad de invertir unos minutos de nuestro tiempo en atender un elemento crucial para la seguridad en Internet y la del hogar digital. Y no hay excusas. Tenemos la información y los medios. No se lo pongamos tan fácil a los enemigos de lo ajeno.

Saludos. 

miércoles, 6 de mayo de 2026

La DDR5-4400 en AM5 obtiene sus primeros resultados, menos MHz, más sincronía y FPS muy cerca de DDR5-6000

La DDR5-4400 vuelve a aparecer en AM5. Sí, ese llamado “culto” que llega desde China y que afirmaba que el rendimiento era incluso mejor que con memorias más rápidas, ataca de nuevo. Ahora trae algo que ya se echaba en falta: números concretos, FPS, comparativa. ¿Puede ser que los FCLK, MCLK y UCLK sincronizados en 1:1:1 con DDR5-4400 en un Ryzen 7 9800X3D en AM5 con una RTX 5090 y 64 GB de DDR5 superen a la DDR5-6000C30?

La idea no es ganar por MHz, sino por sincronía, latencia y menos presión sobre la CPU. Lo que afirmaban los asiáticos es que los perfiles de memoria EXPO en módulos muy rápidos estaban apretando demasiado al IMC y disparando el voltaje SoC, donde con menos se conseguía lo mismo, o más.

Los primeros datos reales de DDR5-4400 en AM5 muestran un poco de la realidad

El punto de partida es sencillo y como ya lo vimos en su correspondiente artículo, lo resumimos brevemente: DDR5-4400 trabaja con MCLK, FCLK y UCLK a 2.200 MHz síncrono en 1:1:1. En la DDR5-6000 CL30 Tweaked (ajustada, apretada u optimizada, como cada uno quiera decirle) MCLK y UCLK suben a 3.000 MHz, pero FCLK queda en 2.100 MHz. En EXPO, el FCLK baja a 2.000 MHz. Ahí entra la gracia de esta configuración rara, porque AM5 no siempre convierte más frecuencia de memoria en más FPS.

Lo que vamos a ver son datos expuestos por el usuaro WildTabz en Reddit, el cual ha puesto a disposición de todos la primera comparativa real, que aunque no sea perfecta, deja entrever que hay algo de base, al menos, con esto de la DDR5-4400 en los juegos para CPU AM5, así que entremos en materia.

En Warhammer 3, la DDR5-4400 CL24 consigue 248,3 FPS, frente a los 239,7 FPS de DDR5-6000 CL30 EXPO. Son 8,6 FPS más, un 3,6% por encima. La DDR5-6000 CL30 ajustada sigue delante con 251,1 FPS, pero la diferencia es de solo 2,8 FPS.

En Shadow of the Tomb Raider pasa algo parecido. DDR5-4400 CL24 marca 389 FPS, DDR5-6000 CL30 ajustada sube a 391 FPS y DDR5-6000 CL30 EXPO baja a 383 FPS. Frente a EXPO, la 4400 gana por 6 FPS, un 1,6%.

Donde la DDR5-4400 queda mejor parada es en Rainbow Six. La configuración 4400 CL24 llega a 681 FPS, frente a los 677 FPS de la 6000 CL30 ajustada y los 660 FPS de EXPO. Son 4 FPS más que la 6000 ajustada, un 0,6%, y 21 FPS más que EXPO, un 3,2%.

Hasta los overclokers profesionales se están sumando al debate

Far Cry 6 también favorece a la configuración de menor frecuencia. DDR5-4400 CL24 alcanza 361 FPS, mientras que DDR5-6000 CL30 ajustada queda en 355 FPS y EXPO en 352 FPS. La ventaja es de 6 FPS frente a la ajustada, un 1,7%, y de 9 FPS frente a EXPO, un 2,6%.

En Counter-Strike 2, la DDR5-4400 CL24 logra 1140,6 FPS de media y un P1 de 378,1 FPS. La DDR5-6000 CL30 ajustada queda en 1130,2 FPS y P1 de 370,4 FPS. EXPO baja a 1101,3 FPS y P1 de 354,6 FPS. La ventaja frente a EXPO es de 39,3 FPS en media, un 3,6%, y de 23,5 FPS en P1, un 6,6%.

Battlefield 6 es menos limpio porque no tiene benchmark integrado y se usó Portal, pero la DDR5-4400 aparece con pasadas de hasta 301,5 FPS de media. Las configuraciones EXPO rondan 289,5, 290,7 y 290,4 FPS, así que hablamos de entre 10,8 y 12 FPS de ventaja en esas comparaciones.

Buildzoid, un famoso overclocker profesional, quiso sumarse al debate y también dejó un matiz importante en Reddit:

“No es el controlador de memoria (IMC). Es el Infinity Fabric, que es muy estrecho, lo que limita tanto la DDR5 en AM5.”

Además del rendimiento, está el voltaje, tema crítico con el tema de las CPU y placas base quemadas. En la captura de ZenTimings, DDR5-4400 CL24 usa VSOC de 0,950 V, mientras que DDR5-6000 CL30 ajustada sube a 1,150 V y EXPO a 1,200 V. Menos MHz, sí, pero también menos VSOC, sincronía completa y unos FPS que, en varios juegos, quedan por encima de EXPO y muy cerca de DDR5-6000 ajustada.

O lo que es igual, DDR5-4400 ha demostrado brevemente en juegos que en AM5 quizás sea más rentable y segura que velocidades superiores, al menos en procesadores con 3D V-Cache. Quizás en CPU que no sean X3D y sí son más dependientes del ancho de banda de la memoria esto no se cumpla, que sería lo esperable, sobre todo en juegos muy exigentes y en resoluciones más bajas.

Saludos. 

martes, 5 de mayo de 2026

Cómo utilizar Winhance para mejorar la experiencia con Windows

Winhance es otra de esas aplicaciones de terceros que permite la personalización, optimización y en general una mejora de la experiencia de uso frente a los Windows que Microsoft publica por defecto. Se acaba de actualizar esta misma semana y es una de nuestras favoritas a la hora de «lidiar» con una instalación estándar.

Este tipo de herramientas, muchas de ellas de código abierto y gratuitas como la que nos ocupa, abordan casi cualquier apartado que quieras cambiar del sistema operativo y están destinadas a usuarios medios/avanzados que quieran dejar el sistema a su gusto. Afortunadamente hay una gran cantidad de desarrollos de terceros donde elegir, como has podido ver en las guías que te hemos venido ofreciendo, además de algunas internas como el «Modo Dios» que permiten cambiar una parte del funcionamiento.

Qué es Winhance y cómo se usa

El enfoque principal de esta herramienta, que no único, es abordar la enorme problemática del Bloatware en Windows, software «basura», aplicaciones y servicios inútiles que penalizan la experiencia del usuario, ocupan recursos de almacenamiento o memoria de manera innecesaria, rebajan el rendimiento y la estabilidad y en los casos extremos incluso comprometen gravemente la seguridad de los equipos, como vimos con el Superfish.

Winhance elimina aplicaciones no deseadas de Windows 11 (y Windows 10) y además, evita que se vuelvan a instalar. Y es que los métodos tradicionales de ‘limpieza’ de Windows 11 suelen ser insuficientes porque las aplicaciones eliminadas tienden a reaparecer después de las actualizaciones del sistema. Esta herramienta resuelve este problema implementando soluciones de eliminación permanente y scripts de limpieza automática que se ejecutan durante el inicio del sistema. Por supuesto, se puede personalizar qué aplicaciones eliminar y reinstalarlas fácilmente si es necesario a través de la misma interfaz.

Además de la limpieza de software, cuenta con funciones de optimización gestionando las opciones de privacidad, Windows Update, Juegos o los planes de energía. También incluye un apartado de personalización que sin ser tan amplia como otras dedicadas, permite ajustar la barra de tareas, el menú de inicio, el explorador de archivos, las notificaciones o el apartado del sonido, como puedes ver en su página web o en su alojamiento en GitHub.

La aplicación es una GUI de PowerShell lo que implica su instalación mediante un script en la consola avanzada de Windows (o en Windows Terminal). Sigue los pasos:

  • Accede a PowerShell en modo administrador.
  • Habilita la ejecución de scripts con el comando Set-ExecutionPolicy Unrestricted
  • Acepta la directiva pulsado «S»
  • Descarga y ejecuta Winhance con el comando irm «https://github.com/memstechtips/Winhance/raw/main/Winhance.ps1» | iex

Como os decía, Winhance crea una copia de seguridad del registro cada vez que se ejecuta y antes de realizar cualquier cambio. Puedes utilizar esta copia de seguridad para restaurar el sistema si fuera necesario ante cualquier error. O crear copias por tu cuenta, tanto del registro como creando puntos de restauración, obligatorios para adelantarse a cualquier error del sistema operativo, algo desgraciadamente habitual con cada actualización que se va lanzando.

Por lo demás, otra herramienta a probar, potente especialmente en su capacidad de eliminación de software y al evitar que se vuelvan a instalar en las actualizaciones de Windows.

Saludos. 

lunes, 4 de mayo de 2026

YouTube tiene un bug que está generando consumir más de 7 GB de RAM e incluso saturar la CPU

YouTube se ha visto envuelta en un nuevo problema de rendimiento que está afectando seriamente a su uso en ordenadores, sobre todo, aquellos limitados en potencia o memoria RAM. Google ha estado trabajando mucho en el código intentando encontrar la forma de que los bloqueadores de publicidad sean cada vez menos efectivos. Todo ello, junto a unos cambios recientes en la interfaz, ha dado lugar a que YouTube comience a funcionar tan mal, que termina colapsando.

Dependiendo del tipo de usuario, su equipo y navegador web, los usuarios reportan desde bloqueos y congelaciones de pantalla, hasta tirones en la reproducción por la saturación de uso de CPU. A ello se le suma picos de consumo de memoria RAM superiores a 7 GB con una sola pestaña de YouTube. El problema se habría detectado en distintos navegadores, incluyendo Firefox, Brave y Microsoft Edge. Esto apuntó rápidamente hacia un fallo en la propia interfaz de YouTube, que a un bug aislado de un navegador concreto.

Mozilla, gracias a su reporte de fallos, confirma que el problema está en YouTube y no en su navegador web

Y es que la investigación que más información ha aportado a este caso viene de Bugzilla. Este se trata del sistema público de seguimiento de errores de Mozilla. Allí se abrió un informe titulado “YouTube entra en un bucle en el que las imágenes tardan cada vez más en cargarse”, clasificado inicialmente como un problema de compatibilidad web. El informe indica que varios usuarios estaban viendo comportamientos similares y enlaza perfiles de rendimiento de Firefox para analizar qué estaba ocurriendo durante la reproducción en YouTube.

El origen técnico del fallo parece estar en el componente ytd-menu-renderer, la parte de la interfaz de YouTube situada bajo el reproductor donde aparecen botones como “me gusta”, “no me gusta”, compartir y otros controles. La lógica de este menú flexible intenta decidir si todos los botones caben en el ancho disponible. Si detecta que no hay espacio suficiente, oculta uno de ellos. El problema es que al ocultarlo cambia de nuevo el ancho disponible del contenedor, lo que hace que el código crea que vuelve a haber espacio para mostrarlo. Entonces lo restaura, vuelve a producirse desbordamiento, lo vuelve a ocultar, y el ciclo se repite.

Este bucle no es simplemente visual. En navegadores modernos, cada cambio de tamaño, posición o visibilidad de elementos obliga al motor de renderizado a recalcular el layout de la página, repintar elementos y actualizar estados internos. Si ese proceso se dispara de forma continua mediante requestAnimationFrame, el navegador entra en una especie de bucle de reflow. Uno de los comentarios técnicos de Bugzilla señala, además, que cada callback de requestAnimationFrame podía acabar programando dos nuevos callbacks para el siguiente ciclo, agravando el problema de forma acumulativa.

A medida que este bucle se repite en la interfaz de YouTube se usa más la CPU y se consume más memoria RAM

En la práctica, los usuarios afectados veían cómo la pestaña de YouTube se degradaba progresivamente. Primero aparecían tirones, después dejaban de responder los controles del reproductor, más tarde se congelaba la pestaña y, finalmente, el proceso podía seguir aumentando su consumo de memoria hasta forzar el cierre manual. En uno de los informes relacionados de Bugzilla, un usuario describe que la pestaña quedaba colgada, que el vídeo y el audio se detenían tras unos segundos, y que el consumo de memoria RAM seguía aumentando hasta provocar un agotamiento de memoria o hasta cerrar manualmente el proceso.

Otro informe asociado describe casos con usos excesivos de CPU, consumo de memoria RAM creciendo de forma constante y pestañas de YouTube que quedaban completamente bloqueadas. Un usuario llegó a probar Firefox estándar, Firefox Developer Edition, Waterfox e incluso Brave. Tras ello observó que el problema no se comportaba exactamente igual en todos los navegadores, lo que complicó inicialmente el diagnóstico. Aun así, la hipótesis que ganó fuerza fue la de un bug en la interfaz web de YouTube, no un fallo puro del motor de vídeo ni del códec utilizado por cada navegador web.

En el momento de la redacción, ni Google ni YouTube han confirmado públicamente la causa del problema. Sin embargo, el hilo de Bugzilla fue actualizado en la mañana de hoy una nota que afirma que YouTube había lanzado una mitigación y que el problema “ya no debería estar ocurriendo”, pasando el estado del bug a “RESUELTO SOLUCIONADO”. Por lo que si aún sufres el problema, deberás forzar la actualización de tu navegador web.

Saludos.

domingo, 3 de mayo de 2026

AMD Ryzen AI Max+ PRO 495 filtrado, un AI Max+ PRO 395 con 192 GB de RAM que ahora enfocan a la IA

AMD ha visto como se ha filtrado su próxima APU de muy alto rendimiento, hablamos del Ryzen AI Max+ PRO 495. Esta se dejó ver en PassMark en un equipo de HP, y como ya podrás imaginar, estará enfocado a IA. El motivo de ello es que es una APU de la serie Ryzen AI Max+ PRO, por no hablar que se encontró en un equipo workstation de HP. Esto, combinado a los 192 GB de RAM, solo hace pensar que esté enfocado principalmente para su uso en IA, ya que la memoria RAM es su punto fuerte.

El chip mantiene la misma filosofía que Strix Halo: una APU de gama extrema con una núcleo basada en núcleos Zen 5, una iGPU RDNA 3.5 muy grande y memoria unificada para cargas de trabajo de IA, creación y workstation compacta. La diferencia es que este nuevo modelo subiría un peldaño sobre el Ryzen AI Max+ PRO 395 actual. Es decir, esta plataforma conocida como Gorgon Halo no dejaría de ser un refrito como tal. Y es que tenemos la misma arquitectura de CPU y de GPU, siendo el único aliciente que pasamos de un techo de 128 GB de RAM a 192 GB de RAM.

AMD Ryzen AI Max+ PRO 495: un AI MAX+ PRO 395 con mayor capacidad de RAM

El AMD Ryzen AI Max+ PRO 495 ofrece un procesador de 16 núcleos bajo la arquitectura AMD Zen 5 junto a 32 hilos de procesamiento. Es la misma CPU que el Ryzen AI Max+ Pro 395, que este funciona a una frecuencia Base de 3,00 GHz y Turbo de 5,10 GHz, desconociendo las frecuencias de este nuevo modelo. En cuanto a gráficos, también hay un pequeño cambio. Esta APU incorpora una iGPU AMD Radeon 8065S, respecto a la ya conocida Radeon 8060S, su GPU tope de gama. Es muy probable que no aumente en el número de núcleos y que solo ofrezca un aumento en las frecuencias.

De esta forma, la única diferencia, es que el AMD Ryzen AI Max+ PRO 495 es capaz de usar hasta 192 GB de memoria RAM LPDDR5X. Esta información se sabe gracias a que el PC de HP tenía un total de 188 GB de memoria usable. Para ello ha recurrido a 8 paquetes de memoria SK Hynix de 24 GB de capacidad cada uno. Es un gran avance respecto al máximo de 128 GB LPDDR5X a 8000 MT/s que es capaz de utilizar su predecesor. Sabiendo que en un chip de este tipo solo importa la RAM para la IA, pues está claro que es donde está la mejora.

En rendimiento, el AMD Ryzen AI Max+ PRO 495 logró 57.525 puntos en PassMark CPU Mark y 4.293 puntos en mononúcleo. Frente al Ryzen AI Max+ 395 "no PRO", que aparece con 55.163 puntos y 4.161 puntos en mononúcleo, el salto sería de alrededor de un 4% en multinúcleo y un 3% en mononúcleo. Frente al Ryzen AI Max+ PRO 395, la mejora sería mayor. Y es que hablamos de 51.778 puntos y 4.086 puntos, lo que implica una ganancia cercana al 11% en multinúcleo y un 5% en mononúcleo. De esta forma, no hay prácticamente mejora relevante más allá de más RAM para modelos LLM de gran tamaño.

Saludos. 

sábado, 2 de mayo de 2026

El AMD Ryzen AI Halo llegará en Junio, el Mini-PC para IA de AMD con NPU y 128 GB de RAM

AMD quiere seguir haciendo dinero con la IA pero en el mercado de consumo, y para ello ya está preparando el lanzamiento de su Ryzen AI Halo. En esencia, hablamos de un Mini-PC basado en la plataforma Strix Halo orientado a desarrolladores de IA de manera local. El equipo de AMD busca así hacerse un hueco respecto a otros fabricantes que ya están en este nicho. Por no hablar de otros sistemas más cerrados como el NVIDIA DGX Spark. Incluso gracias a la memoria unificada de los Mac, los Mac Studio y Mac Mini se están comenzando a comprar más para ejecutar IA a nivel local, que por usuarios más convencionales.

La clave aquí es que no estamos ante un ordenador de sobremesa o Mini-PC convencional, sino ante una plataforma de referencia AMD. Es decir un equipo compacto enteramente fabricado y ensamblado por AMD. Este integra todo el hardware necesario para funcionar, pasando desde la APU, con abundante memoria unificada, soporte oficial para Windows y Linux, ROCm, modelos preoptimizados y un enfoque claro en ejecutar LLMs y flujos de IA generativa sin depender de la nube.

El AMD Ryzen AI Halo saldrá a la venta el próximo mes de junio según los informes

Realmente, a nivel de hardware, el AMD Ryzen AI Halo no deja de ser como cualquier otro ordenador. La diferencia es que ofrece un hardware de consumo vitaminado para IA. Y claro, es la excusa perfecta para AMD vender un hardware de consumo, originalmente diseñado para portátiles y Mini-PC de alto rendimiento, a precio de hardware para IA.

El AMD Ryzen AI Halo incluye en su interior la APU AMD Ryzen AI Max+ 395. Este incluye un procesador de 16 núcleos Zen 5 y 32 hilos. Esta CPU funciona a una frecuencia Base de 3,00 GHz y Boost de hasta 5,10 GHz. Cuenta con 16 MB de caché L2, 64 MB de caché L3, TDP base de 55 W y cTDP configurable entre 45 y 120 W. TSMC los ha fabricado a 4 nm, soporta AVX-512, algo relevante para determinadas cargas CPU, aunque el gran atractivo de esta plataforma está en la combinación de CPU, iGPU, NPU y memoria unificada. Ya que todo ello combinado es lo que le convierte en una opción para ejecutar la IA de manera local.

En IA, combinando la CPU, iGPU y una NPU AMD XDNA2, promete ofrecer un rendimiento de hasta 126 TOPS totales. Realmente no es mucha cosa si pensamos en que esto es para cumplir con requisitos como Copilot+. Lo que importa realmente, para LLMs de gran tamaño, es la iGPU integrada a la que poder alimentar con casi toda la memoria RAM del sistema. Gracias a ello, AMD indica que su Ryzen AI Halo es capaz de ejecutar modelos de hasta 200.000 millones de parámetros localmente. En documentación del Ryzen AI Max+, se habla de hasta 235.000 millones de parámetros en ciertos modelos y configuraciones de cuantización. La letra pequeña es importante. Estas cifras dependen de cuantización, contexto, formato del modelo y rendimiento tolerable. Es decir, no significa que cualquier modelo de modelo de 200.000 millones vaya a funcionar a velocidad de centro de datos.

Saludos.

viernes, 1 de mayo de 2026

Microsoft Surface Pro 12, rendimiento filtrado en Geekbench 6

Actualmente tenemos cientos de modelos de portátiles que elegir que satisfacen a todo tipo de personas y casos de uso, incluso modelos que van para un nicho muy concreto. Hay portátiles diseñados para uso en trabajo y oficina, otros centrados para gaming, otros que son más pequeños y ligeros, rugerizados y resistentes para uso exterior. También tenemos portátiles con Arm, no solo los de Apple, sino los que usan chips Qualcomm Snapdragon X Elite. Con toda esta competencia, Microsoft sigue queriendo destacar por encima de los demás, pero no lo hará con Arm, sino con chips Panther Lake en la Surface Pro 12, sobre la cual ahora sabemos su rendimiento en Geekbench 6.

Microsoft es conocida principalmente por el sistema operativo Windows, pero como ha ocurrido con las otras Big Tech estadounidenses, se ha expandido a otros sectores. Uno de ellos sería el de los portátiles y tablets, pues en junio de 2012 Microsoft lanzó su primera Surface, siendo esta vez la primera vez que la compañía diseñaba un dispositivo así. Aunque la Surface RT que salió en esa época usaba Arm y ahora sería un momento idóneo para ser competitivo con Arm, Microsoft no ha seguido este camino.

Este es el rendimiento de la Microsoft Surface Pro 12 en Geekbench

La Microsoft Surface Pro salió en 2013 y en ese entonces fue más popular, pues al usar procesadores Intel y Windows completo (no Windows RT), era mucho más interesante. Tras esto, hemos ido viendo distintas versiones de las Surface Pro además del Surface Book con pantalla desmontable, Surface Studio a lo iMac, Surface Laptop como su línea de portátiles y Surface Go como una tablet más pequeña que la Pro. Ahora toca volver a las tablets-PC, pues se acaba de filtrar el rendimiento de la Microsoft Surface Pro 12 en Geekbench 6.

Esta hace uso de un procesador Intel Panther Lake, una buena decisión por parte de Microsoft si quiere impulsar los gráficos integrados. Por desgracia no se trata del Core Ultra 7 358H o modelos superiores que usan los gráficos integrados Arc más potentes, sino de un Core Ultra 5 335. En Geekbench vemos la potencia de la CPU solo y aquí tenemos varios resultados y si escogemos el mejor de todo se consigue 2.484 puntos en single y 10.172 puntos en multi core.

Hay dos versiones de la Surface con Core Ultra 5 335 y Core Ultra 5 325

Si comparamos estos resultados de los que muestran otras webs como Nanoreview, ahí el Core Ultra 5 335 alcanza 2.631 en single y 10.501 puntos en multi core. La comparativa nos dejaría un rendimiento muy igualado en multi, pero una bajada de un 6% en single core. Respecto al Core Ultra 5 335, este consta de 8 núcleos en total divididos en 4 P-Cores y 4 LPE-Cores con una frecuencia máxima de los P de 4,6 GHz y de los LPE de 3,4 GHz. Sus gráficos integrados Arc tienen un total de 4 Xe3 Cores, así que tienen un tercio de los más potentes de Panther Lake. En cuanto a su TDP este es de 25W como base, 12W como mínimo y 55W en el momento en el que se alcanza la frecuencia Turbo.

Según indican, la versión "900_MAA" es la que tiene el Core Ultra 5 335 mientras que la "3467_PUE" usa el Core Ultra 5 325 que tiene 100 MHz menos. Ambos Surface Pro 12 tendrán un diseño 2 en 1 centrado en empresas y profesionales que necesiten una tablet así. Respecto a la memoria RAM, se habla de 16 GB como mínimo, aunque en las pruebas se han visto configuraciones de 24 y 32 GB. También se hace mención a que podría acabar saliendo con conectividad 5G para así poder usarla cuando no tengas Wi-Fi.

Saludos.