sábado, 21 de febrero de 2026

AOC Q27G4ZD QD-OLED, el 27 pulgadas QD-OLED QHD 280 Hz más asequible del mercado

AOC anunció el lanzamiento de un nuevo monitor gaming dotado de la tecnología OLED, hablamos del Q27G4ZD QD-OLED. Este monitor se sitúa justo en medio de otras dos variantes con un nombre casi idéntico: el Q27G4ZDR y el Q27G4SDR. Por lo que AOC apuesta por ofrecer modelos muy similares para adaptarse no solo a la mayor variedad de posibles variantes de resoluciones y tasas de refresco, sino también ofrecer mayor opciones por precio.

En el caso del AOC Q27G4ZD QD-OLED, se recurre a un panel QD-OLED de 3ª Generación. Este suele ser ya el panel más utilizado por la industria gracias a que ofrece un punto perfecto entre prestaciones, durabilidad, y precio, ya que las marcas más pioneras del mercado acaban de dar el salto a paneles de 5ª Generación. Y sí bien ofrecen aún más mejoras ligadas a un brillo más alto, mayor durabilidad, o tecnologías de refresco de píxeles, son paneles ligados a monitores de muy alta gama. Es decir, a monitores que exceden con creces la barrera de los 1.000 euros. Por lo que fabricantes como AOC están optando más por crear monitores de entrada con la tecnología OLED para aquellos que quieran un salto cualitativo en la calidad de imagen de su monitor sin necesidad de gastar mucho dinero.

Especificaciones del monitor gaming AOC Q27G4ZD QD-OLED

Tal y como os adelantába, el AOC Q27G4ZD QD-OLED se construye en torno a un panel QD-OLED de Samsung de 3ª Generación. Este panel llega con un tamaño de 27 pulgadas junto a una resolución Quad HD de 2.560 x 1.440 píxeles. Este panel es capaz de alcanzar una tasa de refresco de 280 Hz, quedándose así justo en medio respecto al resto de sus hermanos. Y es que el Q27G4ZDR alcanza los 240 Hz, mientras que el Q27G4SDR ofrece 360 Hz. Siendo así una línea de monitores enfocada a disfrutar de juegos Triple A con una calidad superior a un panel tradicionalmente a 1080p ligado a una alta tasa de refresco. Pero estos 280 Hz lo convierten también en una muy buena opción para quien también disfrute de juegos competitivos. Tales como el Counter Strike 2, Valorant, o League of Leguends, y quiera disfrutar de una alta tasa de refresco.

La información conocida del panel se completa con ser capaz de alcanzar un brillo máximo de hasta 1.000 nits en contenido HDR (250 nits en SDR). No podía faltar un tiempo de repuesta mínimo de 0,03 milisegundos (0,03 ms GtG). En cuanto al espacio de color, este panel cubre al 100% el espacio de color sRGB, al 99% el DCI-P3 y al 98% el Adobe RGB.

La información del panel del AOC Q27G4ZD QD-OLED se completa con una relación de contraste estático 1.500.000:1 y la certificación con la tecnología de sincronización de imágenes NVIDIA G-SYNC Compatible.

Resto de la información, disponibilidad y precio

La información del panel del AOC Q27G4ZD QD-OLED se completa con una base para la pantalla que te permitirá ajustar en altura, inclinación y giro. En cuanto a la conectividad, te da acceso a doble puerto HDMI 2.1 junto a un DisplayPort 1.4 y nada menos que cuatro puertos USB.

No podían faltar funciones como G-Menu, que te permitirá escoger modos de pantalla adaptados al género del juego. Además de tecnologías ligadas a mejorar la visibilidad del enemigo en las sombras, o añadir elementos en pantalla como una cruceta, hora o contador de FPS. Tampoco podían faltar las típicas tecnologías ligadas a proteger la vista visual de la fatiga y la luz azul emitida por el panel.

Lo más interesante del AOC Q27G4ZD QD-OLED es su precio. Se ha listado oficialmente por 419,99 libras esterlinas. Aunque para el mercado europeo su precio es mucho más elevado, siendo el recomendado de 549,90 euros. Si bien su precio es elevado, es el monitor más económico de su clase (QHD a 280 Hz QD-OLED).

"Con el Q27G4ZD, hacemos que la tercera generación de QD-OLED sea más accesible sin comprometer lo que más importa. La combinación QHD 280 Hz es el punto óptimo para los jugadores de hoy en día: rápida, preparada para el futuro y visualmente excepcional. Es una alternativa QD-OLED atractiva respaldada por una garantía de 3 años que incluso incluye cobertura por quemado de píxeles, lo que ofrece a los jugadores rendimiento y tranquilidad", dijo César Acosta, Gaming Product Manager de AGON by AOC".

Saludos.

viernes, 20 de febrero de 2026

Cómo funciona un SSD y qué vida útil tiene

Las ventajas de un SSD sobre los discos duros son amplias y conocidas, especialmente en el apartado de rendimiento. De hecho, un cambio de HDD a SSD es una de las mejores actualizaciones que puedes hacer en tu PC. Pero, ¿sabes cómo funciona un SSD internamente?

Son numerosos los artículos que le hemos dedicado a las unidades de estado sólido porque los lanzamientos de nuevos modelos se producen a un ritmo casi semanal. Así, además de la guía de compra que mantenemos actualizada, te hemos ofrecido artículos como un caso de uso para decir adiós a los discos duros; cómo realizar el cambio de un disco duro a un SSD en un portátil; el montaje de un SSD en un PC manteniendo el disco duro o el dedicado a mover Windows desde un disco duro a SSD sin perder datos. Hoy vamos a ir un poco más allá para ver cómo funciona un SSD internamente

Computadoras y memorias

Para comprender cómo funcionan los SSD y por qué son tan útiles, conviene entender cómo funciona la arquitectura de la memoria de una computadora y cada una de sus partes: la caché, la memoria RAM y la unidad de almacenamiento masivo.

La memoria caché es la unidad de memoria más interna. Las rutas eléctricas hacia la memoria caché son las más cortas, lo que hace que el acceso a los datos sea casi instantáneo. Sin embargo, la memoria caché es muy pequeña, por lo que sus datos se sobrescriben constantemente.

La RAM es el punto intermedio. Una memoria de acceso aleatorio donde la computadora almacena datos relacionados con los programas y procesos que se ejecutan activamente. El acceso a la memoria RAM es ligeramente más lenta que el acceso a la memoria caché.

La unidad de almacenamiento es donde se almacenan todo el resto de datos que necesitan persistencia y en ella se almacenan los datos del sistema operativo, aplicaciones, juegos, archivos de configuración y todos los ficheros de usuario, documentos, vídeo o música.

Conviene saber que hay una gran diferencia de rendimiento entre las tres. Mientras que la memoria caché y la RAM operan a velocidades de nanosegundos, una unidad de disco duro tradicional funciona a velocidades de milisegundos. Como resultado, el sistema de almacenamiento ha sido un gran cuello de botella para el rendimiento de todo el PC.

No importa cuán rápido sea el resto de componentes. Una computadora solo puede cargar y guardar datos tan rápido como puede manejarlos el disco duro. Y aquí es donde entran los SSD, mucho más rápidos, lo que reduce significativamente el tiempo de carga de programas y procesos, consiguiendo que tu computadora se sienta mucho más ligera.

¿Cómo funciona un SSD?

Los SSD o «unidades de estado sólido» tienen el mismo propósito que un disco duro: almacenar datos y archivos para uso a largo plazo. La diferencia es que los SSD modernos (desde 2010) usan un tipo de memoria flash (asimilables a las utilizadas en la RAM) pero a diferencia de ellos están basados en puertas NAND que no borran los datos cada vez que se apaga la computadora.

Los datos en un SSD persisten incluso cuando no tiene energía. Al ser memorias no volátiles, no requieren ningún tipo de alimentación constante ni pilas para no perder los datos almacenados, incluso en apagones repentinos.

Si desarmas un disco duro típico, verá una pila de placas magnéticas, platos giratorios con una aguja de lectura como la de un tocadiscos de vinilo. Antes de que la aguja pueda leer o escribir datos, las placas deben girar alrededor de la ubicación correcta.

La estructura de un SSD cambia por completo. No tienen partes mecánicas ni móviles, usando un sistema de celdas eléctricas para enviar y recibir datos rápidamente. Estas cuadrículas están separadas en secciones llamadas «páginas» y estas páginas son donde se almacenan los datos. Las páginas se agrupan para formar «bloques».

Partes principales de un SSD

¿Por qué es necesario saber esto? Porque los SSD solo puede escribir en páginas vacías de un bloque. En los discos duros, los datos se pueden escribir en cualquier ubicación en cualquier momento, y eso significa que los datos se pueden sobrescribir fácilmente. Los SSD no pueden sobrescribir directamente los datos en páginas individuales. Solo pueden escribir datos en páginas vacías de un bloque.

Entonces, ¿cómo manejan los SSD la eliminación de datos? Cuando suficientes páginas en un bloque se marcan como no utilizadas, el SSD confía a la memoria caché todos los datos de un bloque, los borra y luego vuelve a enviar los datos de la memoria dejando en blanco las páginas no utilizadas. El borrado de bloques no significa que los datos desaparezcan como hemos visto.

No todo son ventajas en SSD

Un SSD completamente nuevo está cargado completamente de bloques con páginas en blanco. Cuando recibe datos nuevos en el SSD se escriben a velocidades vertiginosas. Sin embargo, a medida que se escriben más y más datos, las páginas en blanco se agotan y la unidad se queda con páginas aleatorias sin usar diseminadas por todos los bloques.

Como consecuencia de lo anterior, uno de los inconvenientes teóricos es que la memoria flash solo puede mantener un número finito de escrituras antes de finalizar su vida útil. Cuando se usa un SSD, las cargas eléctricas dentro de cada una de sus celdas de datos deben reiniciarse periódicamente. Desafortunadamente, la resistencia eléctrica de cada celda aumenta ligeramente con cada restablecimiento, lo que aumenta el voltaje necesario para escribir en esa celda. Eventualmente, el voltaje requerido llega a ser tan alto que la celda particular se vuelve imposible de escribir.

¿Cuánto dura un SSD?

Esto no quiere decir que un SSD obligatoriamente dure menos que un disco duro. Aunque los bloques de memoria en un SSD tienen un número limitado de operaciones de escritura, las nuevas generaciones han mejorado muchísimo en fiabilidad. Todos los SSD incluyen células de memoria adicionales libres para cuando las otras fallen no perder capacidad, reasignando sectores dañados.

Pruebas de resistencia han confirmado este aumento de fiabilidad con algunas series de unidades sobreviviendo después de soportar una prueba masiva de escritura por encima de los 2 petabytes. Una cantidad de datos enorme que un usuario en condiciones reales (normales de uso) tardaría decenas de años en completar.

En las últimas generaciones de SSD, los fabricantes están apostando por las memorias flash NAND TLC, triple nivel por celda. Esta tecnología aumenta la densidad de almacenamiento y rebaja costes, pero reduce la resistencia de formatos anteriores como MLC y especialmente SLC, Single-Layer Cell que solo almacena un bit por celda y que ya no verás en el mercado de consumo.

Los fabricantes ofrecen un mínimo de tres años de garantía y en las nuevas generaciones estamos viendo 5 años de garantía en unidades de consumo y hasta 10 años en el mercado profesional. A nivel de usuario hay poco de lo que preocuparse a nivel de resistencia, pero sí queríamos que conocieras un poco más el funcionamiento de estas unidades de estado sólido que se están convirtiendo en el estándar del mercado del almacenamiento.

Saludos.  

jueves, 19 de febrero de 2026

Así puedes recuperar espacio en Windows para combatir la subida de precios

Recuperar espacio en Windows es una buena manera de ahorrar en la compra de dispositivos de almacenamiento adicionales en una época donde los precios están por las nubes. Los sistemas operativos de Microsoft tienen funciones para liberar espacio ocupado en varios ámbitos como vamos a ver en este artículo. Y te va a sorprender la cantidad de GB que puedes ganar.

La crisis de las memorias comenzó por la DRAM y ello comprometió la disponibilidad y precio de los módulos RAM, pero como era previsible se ha extendido a cualquier producto electrónico, con especial incidencia en los que dependen de otros grandes estándares de memoria, como las NAND Flash instaladas en las unidades de estado sólido. Otros dispositivos de almacenamiento como los discos duros, que ya pensábamos habían pasado a la historia en el mercado de consumo, también están afectados ya que la producción se ha trasladado a los centros de datos.

Además, todo indica que los fabricantes de equipos originales van a rebajar las capacidades de memoria y almacenamiento en equipos nuevos para poder mantener los precios de venta. Especialmente en portátiles básicos, el almacenamiento disponible no va a ser sobrado, como ha podido suceder en otras épocas donde las unidades estaban realmente muy baratas.

Cómo recuperar espacio en Windows

En este escenario hay que seguir la línea de «la mejor manera de ahorrar es no gastar». O en este caso recuperar lo que el usuario o el propio sistema operativo está ocupando y podemos liberar sin comprometer nuestros datos o el rendimiento del equipo, seguridad o funcionamiento de las aplicaciones. La estrategia y las funciones a usar que veremos más abajo pueden aplicarse de igual manera a Windows 10 y Windows 11. Vamos con ello.

Acción directa del usuario

Acumular y acumular no es una opción y el mismo usuario puede acometer medidas para liberar espacio sin comprometer el funcionamiento general del equipo. Algunas de ellas para empezar:

  • Desinstala aplicaciones que no uses habitualmente. Y juegos que cada vez ocupan más espacio.
  • Desinstala toda la ‘basura’ instalada en las instalaciones por defecto de Windows. No solo ganarás espacio, también rendimiento.
  • Si quieres ir más allá, puedes crearte tu propio medio de instalación, solo con los servicios y aplicaciones que necesites gracias a herramientas como Tiny Builder.
  • Fija al mínimo el tamaño de espacio disponible para la papelera de reciclaje o elimínala completamente.
  • Busca archivos duplicados y elimínalos.
  • Mueve archivos no esenciales y copias de seguridad a unidades de almacenamiento externa.
  • Elimina copias de archivos de los servicios de almacenamiento en nube.
  • Gestiona los puntos de restauración. Es una herramienta altamente recomendable, pero se pueden eliminar los anteriores y mantener solo el último punto de restauración.
  • Reduce la memoria virtual. Otro componente importante y más si la cantidad de RAM es limitada, pero si te falta espacio es otro valor a gestionar.

Archivos de distribución

Gestionando los puntos anteriores ya vas a ganar bastantes ‘gigas’, pero no debes pararte ahí ya que hay componentes menos conocidos que desperdician almacenamiento. O no son imprescindibles para el funcionamiento del equipo. Los ‘archivos de Optimización de distribución’ es uno de ellos. Es una función de Windows que acelera las actualizaciones y descargas de aplicaciones desde la tienda Microsoft Store. En lugar de obtener todo directamente de los servidores de Microsoft, esta función permite que tu PC busque otras fuentes, como otras computadoras conectadas a tu red local.

Para que esto funcione, Windows necesita almacenar temporalmente fragmentos de datos de actualización en tu disco. Estos archivos son temporales, pero suelen crecer mucho, dependiendo del tamaño de las actualizaciones y de la velocidad de tu conexión a Internet. No es necesario y tratándose de caché, puede eliminarse sin problemas.

Aunque no lo creas y dependiendo de la actividad de tu equipo, puedes recuperar una gran cantidad de espacio. Para borrar los archivos de Optimización de Entrega, abre la herramienta Liberador de espacio en disco mediante el menú de búsqueda. Selecciona la unidad del sistema que quieres gestionar y en la lista busca la entrada y desmárcala si la tienes activada.

Una vez que se borre la caché, recuperarás el almacenamiento al instante. Por supuesto, eliminar estos archivos no interrumpirá las actualizaciones ni causará ningún problema. Windows simplemente reconstruirá lo que necesite la próxima vez que descargues actualizaciones.

Windows Update

Los archivos de optimización de entrega son solo una parte del rompecabezas del almacenamiento. Windows Update también deja un rastro de archivos temporales tras instalar las actualizaciones. Estos pueden incluir paquetes de actualización antiguos, componentes sobrantes y otros elementos que ya no son necesarios una vez que el sistema se actualiza por completo.

Para liberar espacio, puedes eliminar la carpeta SoftwareDistribution, donde Windows Update guarda la mayoría de sus archivos temporales. No pierdes nada, ya que el sistema volverá a crear esa carpeta automáticamente la próxima vez que busque actualizaciones.

Como alternativa, puede configurar la herramienta Storage Sense para automatizar el proceso. Ello permitirá que Windows se encargue de todos los archivos de actualización antiguos, junto con otros archivos temporales. Puedes configurar la herramienta para que se ejecute a diario, semanalmente, mensualmente o cuando el espacio de almacenamiento baje de un nivel.

Hibernación

Otra función que puede acumular unos cuantos gigas cuando no todos los usuarios la utilizan. Si es tu caso, debe saber que el sistema guarda sus opciones de recuperación de equipos en un archivo oculto llamado hiberfil.sys, que dependiendo del equipo puede llegar a ocupar hasta 10 Gbytes.

La función de hibernación se puede desactivar de distintas maneras, pero una muy sencilla es mediante la línea de comandos. Abre una sesión (en modo administrador) de Terminal o PowerShell y escribe el comando powercfg -h off. Si alguna vez lo necesitas puedes reiniciarlo usando el modificador ‘on’.

Windows.old

Es una carpeta que el sistema operativo genera automáticamente cada vez que se actualiza a una nueva edición. Y, dependiendo de cada equipo, puede ocupar desde 10 GB a 30 GB. Una cantidad enorme cuya liberación nos va a permitir recuperar espacio en Windows.

Aunque se puede borrar directamente, no es recomendable hacerlo así por cuestiones de permisos del sistema y dependencias. Lo mejor es acudir al ‘Liberador de espacio en disco > Limpiar archivos del sistema >Instalaciones anteriores de Windows. De la misma manera se puede eliminar desde la Configuración del almacenamiento o desde el sensor de almacenamiento.

Si gestionas todas estas funciones, además de tus acciones propias para desinstalar aplicaciones o juegos (ocupan una barbaridad), eliminar archivos temporales, caché o duplicados o usar la nube, vas a recuperar espacio en Windows en cantidades sorprendentes. En situaciones excepcionales cuando la capacidad de mantenimiento sea mínima, puedes ir más allá y optar por crearte tu propia instalación de Windows ligera, con servicios y aplicaciones al mínimo.

 Saludos. 

miércoles, 18 de febrero de 2026

Los precios de las tarjetas gráficas de NVIDIA, AMD e Intel suben hasta un 54%

La subida de precio de la memoria RAM fue un duro golpe en el mercado de hardware de PC haciendo que este componente pasara de ser uno de los más baratos a uno de los más caros. Además, la demanda de la memoria DRAM afectó también a la memoria NAND Flash que incluye los SSD y como no, otros componentes también subirían de precio. Ya vimos las advertencias de una subida de las gráficas en este 2026 y esto ya ha ocurrido, pues si comparamos los precios de ahora con los de hace 3 meses, ha habido un incremento del 15% y esto es solo el comienzo.

Llevamos ya varias generaciones de tarjetas gráficas donde sus precios son cada vez mayores. Esta tendencia a subir empezó con las RTX 20 de 2018, las cuales no eran mucho mejores en rendimiento que las GTX 1000, pero podemos perdonarlas por ser las que revolucionarían el concepto de GPU usando Tensor Cores para reescalado por DLSS y Ray Tracing. Un par de años más tarde llegarían las RTX 30, pero estas eran aún más caras debido principalmente a todo lo que ocurrió con la criptominería. Incluso tras llegar la normalidad, estas gráficas no eran baratas, pero esto sería solo el principio.

Los precios de las gráficas suben considerablemente, sobre todo la NVIDIA RTX 5090 que cuesta hasta un 54% más en febrero de 2026 que en noviembre de 2025

Las RTX 40 experimentaron otra subida de precio sobre las anteriores, pero también pudimos perdonarlas por el hecho de que esta vez traían una gran mejora de rendimiento, sobre todo en la gama alta. Tras esto llegaron las RTX 50 y, de nuevo, más caras hasta en su precio recomendado de venta, pero como ya vimos, apenas se vendieron gráficas al precio oficial y todo era más caro de lo que debería. Si no teníamos suficiente con todo esto, ahora encima hay que sumar la subida de precio reciente por lo de la RAM afectando así también a las GPU. Las gráficas de AMD, NVIDIA e Intel han subido de precio considerablemente en todo el mundo.

Tenemos subidas de precio desde un 3% hasta un enorme 54% desde noviembre de 2025 a febrero de 2026, es decir, en los últimos 3 meses. Gráficas como la NVIDIA RTX 5090 son las que han experimentado el mayor aumento de su precio, pues esta fue la que subió hasta un 54% en la India seguido de un 50% en Polonia y un 40% en EE.UU. En otros países como Alemania subió un 31% y en Brasil aumentó un 30%. Reino Unido también experimenta una subida importante de un 23% y en Canadá aumentó un 26% su precio.

Otras gráficas como la RTX 5080 subieron hasta un 43%, la RTX 5070 Ti hasta un 37%, la RTX 5060 Ti de 16 GB hasta un 46% y la RTX 5060 hasta un 36%

La RTX 5080 también ha experimentado una gran subida de precio, pues esta aumentó en solo 3 meses un +43% en Estados Unidos, un +36% en Canadá, un +32% en la India y Brasil y un +25% en Alemania. La NVIDIA RTX 5070 Ti ha subido un 39% en la India, un 37% en EE.UU. y un 33% en Alemania. Si pasamos ahora a gráficas de gama media como la RTX 5060 Ti, aquí vemos que más subió fue la de 16 GB de VRAM aumentando en hasta un 46% en la India y un 29% en Alemania. Si pasamos a la versión de 8 GB, la mayor subida se produce en Canadá en un 27%.

La RTX 5060 sube muchísimo en la India con un +36%, pero en el resto de países las diferencias son de un 15% o menos. En la RTX 5050 vemos que lo máximo es un +21% y en países como Brasil hasta ha bajado. Las gráficas de AMD también se incluyen y tenemos un máximo de un +31% para la RX 9060 XT de 8 GB y un máximo de +29% para la versión de 16 GB. En el caso de las Intel Arc, la B570 subió hasta un 25% en EE.UU. y la B580 hasta un 35% en Reino Unido.

Saludos.

martes, 17 de febrero de 2026

Rufus acusa a Microsoft de bloquear sus IP para descargar las ISO de Windows 11

Cada vez más personas se pasan a Windows 11, pues recordemos que desde octubre de 2025, Windows 10 ya ha dejado de recibir actualizaciones de seguridad y, en esencia, es un sistema operativo vulnerable, salvo que tengamos LTSC o ESU. Sabiendo que Microsoft se va a centrar en Windows 11 de aquí a los próximos años, nos conviene saber que llegará en futuras versiones y ahí está la función de los que están metidos en el programa Insider. No obstante, no se pueden descargar las ISO de Windows Insider y los desarrolladores de Rufus culpan a Microsoft de bloquear las descargas a propósito.

El Programa de Windows Insiders permite que los usuarios entusiastas y expertos en IT puedan tener acceso a las últimas funciones en las que ha trabajado Microsoft. Muchas de estas están en desarrollo, incompletas y pueden tener una funcionalidad limitada y muchos bugs presentes. De ahí que sea importante probarlas, dar la opinión al respecto y ver si se aplican los cambios que pide la comunidad. Dentro de Windows Insider hay varios canales dependiendo del tipo de build y usuario al que van dirigidos.

Los desarrolladores de Rufus culpan a Windows 11 de bloquear las descargas de Windows 11 Insider Preview

Windows Insider tiene el canal Dev para ver el desarrollo de nuevas funciones y explorar los avances al igual que Canary, donde se encuentran versiones con un ritmo de actualización más frecuente, pero inestables. También está el canal Beta donde hay funciones que ya están casi a punto de llegar a su versión final y como no, el canal de Release Preview que es justo antes de que salga de forma oficial en una actualización para todos. Por norma general deberíamos poder descargar en cualquiera de estos canales las últimas ISO que hay, pero este no es el caso. Los usuarios de Windows Insiders se han quejado y también los desarrolladores de Rufus, los cuales están seguros de que esto no se trata de un error ni de un bug, sino que es decisión de Microsoft.

Concretamente, los de Rufus no pueden descargar las últimas ISO de Windows 11 Insider Preview y según indican, se debe a que la propia Microsoft bloquea las direcciones IP. De hecho, los usuarios han hecho pruebas con distintos proveedores de Internet y hasta con VPN comprobando así que es cierto, pues siguen bloqueando las descargas. Uno de los desarrolladores de Rufus mencionó que los scripts Fideo de Microsoft están detrás de todo esto, pues se usan para automatizar las descargas.

Puede que Microsoft quiera impedir que se use Rufus con estas ISO o que haya filtraciones de usuarios, pero no se sabe la razón real por lo que ocurre esto

Los desarrolladores de Rufus creen que todo esto es parte de un plan de Microsoft de bloquear el acceso a las ISO para que así nadie use herramientas de terceros. Por si no conoces Rufus, esta te permite "montar" la ISO de Windows con facilidad para así instalarla en tu PC sin complicaciones. Bloqueando las descargas de esta, lo que consigue Microsoft es que todos los usuarios estén obligados a usar la aplicación oficial, es decir, la Herramienta de Creación de Medios para así poder instalar las ISO.

Dado que también afecta a los usuarios de Windows Insiders y no solo a Rufus, quizá haya otra razón detrás de este bloqueo de Microsoft, como evitar que se filtren las versiones preliminares del sistema operativo. Sin embargo, esto no tendría sentido, pues básicamente la función de los Insiders es que se dediquen a probar y hablar sobre las novedades antes de que lleguen.

Saludos.

lunes, 16 de febrero de 2026

Especificaciones, rendimiento, equivalencias gráficas y fecha de lanzamiento de las Radeon RX 10000

AMD confirmó que la APU Magnus que utilizará Xbox Next estará lista para permitir el lanzamiento de la consola en 2027. Si leemos entre líneas este comentario implica también que la arquitectura RDNA 5 estará lista para 2027, y que por tanto las Radeon RX 10000 podrían llegar en ese año, aunque cabe la posibilidad de que se produzca un lanzamiento escalonado o de que ocurran pequeños retrasos.

Eso es precisamente lo que habíamos visto en artículos anteriores, un posible lanzamiento de RDNA 5 en 2027. Una nueva filtración apunta también en esa dirección, y nos deja además una recopilación completa de especificaciones junto a una estimación de rendimiento que comprara a las nuevas Radeon RX 10000 con la GeForce RTX 4080.

Es una información muy interesante, así que vamos a analizarla a fondo para ofreceros una visión completa de lo que podemos esperar de las Radeon RX 10000 según esta nueva filtración. No hay nada confirmado, pero la fuente ha conseguido aciertos importantes en ocasiones anteriores, así que tiene bastante credibilidad.

Al hablar de las especificaciones, la fuente no concreta detalles como la cantidad de núcleos para IA y trazado de rayos, y tampoco las unidades de textura ni el número de ROPs. Esos datos son una estimación mía partiendo de la configuración por unidad de computación que hemos visto en RDNA 4, cuya base podría mantenerse en RDNA 5.

Especificaciones de la Radeon RX 10090 XT

  • 154 unidades de computación.
  • 9.856 shaders si AMD mantiene los 64 shaders por unidad de computación.
  • 616 unidades de texturizado.
  • 154 núcleos para acelerar trazado de rayos.
  • 208 núcleos para acelerar IA.
  • 192 ROPs.
  • Bus de 384 bits.
  • 40 MB de caché L2.
  • 36 GB de memoria GDDR7 a 36 Gbps (ancho de banda de 1.728 GB/s).
  • TBP de 380 vatios.

Rendimiento estimado de la Radeon RX 10090 XT

En el mejor de los casos sería hasta un 264% más potente que la GeForce RTX 4080, es decir, más del doble de potente que esta. Este dato de rendimiento es en juegos y bajo rasterizado, no tiene en cuenta el trazado de rayos.

Se rumorea que AMD podría lanzar una Radeon RX 10090 XTX, que tendría una mayor cantidad de shaders y un bus de 512 bits. Esta sería la auténtica rival de la GeForce RTX 6090 de NVIDIA.

Especificaciones de la Radeon RX 10070 XT

  • 64 unidades de computación.
  • 4.096 shaders si AMD mantiene los 64 shaders por unidad de computación.
  • 256 unidades de texturizado.
  • 64 núcleos para acelerar trazado de rayos.
  • 128 núcleos para acelerar IA.
  • 128 ROPs.
  • Bus de 192 bits.
  • 24 MB de caché L2.
  • 18 GB de memoria GDDR7 a 36 Gbps (ancho de banda de 864 GB/s).
  • TBP de 275 vatios.

Rendimiento estimado de la Radeon RX 10070 XT

Comparada con la GeForce RTX 4080 sería un 20% más potente en rasterización. Esta es una estimación basada también en el rendimiento en juegos bajo rasterización, y significa que sería más potente que la GeForce RTX 5080, pero un 10% más lenta que la GeForce RTX 4090.

Especificaciones de la Radeon RX 10070 GRE

  • 48 unidades de computación.
  • 3.072 shaders si AMD mantiene los 64 shaders por unidad de computación.
  • 192 unidades de texturizado.
  • 48 núcleos para acelerar trazado de rayos.
  • 96 núcleos para acelerar IA.
  • 96 ROPs.
  • Bus de 160 bits.
  • 20 MB de caché L2.
  • 15 GB de memoria GDDR7 a 36 Gbps (ancho de banda de 720 GB/s).
  • TBP de 235 vatios.

Rendimiento estimado de la Radeon RX 10070 GRE

Frente a la GeForce RTX 4080 sería un 5% más lenta en rasterización, lo que la colocaría casi al mismo nivel que la GeForce RTX 5070 Ti y que la Radeon RX 7900 XTX, y un poco por encima de la Radeon RX 9070 XT.

Especificaciones de la Radeon RX 10060 XT

  • 44 unidades de computación.
  • 2.816 shaders si AMD mantiene los 64 shaders por unidad de computación.
  • 176 unidades de texturizado.
  • 44 núcleos para acelerar trazado de rayos.
  • 88 núcleos para acelerar IA.
  • 64 ROPs.
  • Bus de 128 bits.
  • 16 MB de caché L2.
  • 12 GB de memoria GDDR7 a 36 Gbps (ancho de banda de 576 GB/s).
  • TBP de 210 vatios.

Rendimiento estimado de la Radeon RX 10060 XT

Si la comparamos con la GeForce RTX 4080, esta nueva gráfica de AMD será un 36% más lenta. Esto quiere decir que la Radeon RX 10060 XT ofrecería un rendimiento parecido al de la Radeon RX 7800 XT, que es comparable con la GeForce RTX 4070.

Posible fecha de lanzamiento y precio de las Radeon RX 10000

El lanzamiento de las Radeon RX 10000 podría producirse en 2027, pero en dos fases. Primero llegarían los modelos más potentes, es decir, las Radeon RX 10090 y las Radeon RX 10070, y más adelante se lanzaría la Radeon RX 10060 XT, como ocurrió con las Radeon RX 9000.

En la serie Radeon RX 9000 hubo una diferencia de tres meses entre el lanzamiento de las Radeon RX 9070 y la Radeon RX 9060 XT, y cabe la posibilidad de que AMD repita una estrategia parecida.

Si esto se cumple, los modelos más potentes podrían llegar en la segunda mitad de 2027, y la Radeon RX 10060 XT debería llegar entre finales de ese año y principios de 2028.

En cuanto al precio, la información es escasa, pero se rumorea que la Radeon RX 10070 XT podría costar entre 550 y 600 dólares, lo que nos permite hacer una estimación del precio de los demás modelos que lanzará AMD:

  • Radeon RX 10090 XT: sobre los 1.000 dólares.
  • Radeon RX 10070 XT: entre los 550 y los 600 dólares.
  • Radeon RX 10070 GRE: entre los 400 y los 450 dólares.
  • Radeon RX 10060 XT: entre los 300 y los 350 dólares.

Hay una diferencia de rendimiento muy grande entre la Radeon RX 10090 XT y la Radeon RX 10070 XT, un hueco que AMD debería llenar con una posible Radeon RX 10080 XT, aunque no he visto ninguna referencia a ella todavía.

Saludos. 

domingo, 15 de febrero de 2026

Windows 11 rectifica y la barra de tareas movible volverá

Hablar de Windows 11, desde el mismo momento de su anuncio, ha sido, en demasiadas ocasiones, hablar de decisiones controvertidas. Desde cambios estéticos discutibles hasta la desaparición de funciones clásicas, el sistema operativo de Microsoft ha ido acumulando fricciones que, sumadas, han erosionado parte de la buena voluntad inicial. Una de las más simbólicas fue la imposibilidad de mover la barra de tareas, una opción presente durante más de tres décadas en Windows y que muchos usuarios consideraban parte esencial de la experiencia.

Con Windows 11, esa flexibilidad desapareció de un plumazo. La barra quedó anclada a la parte inferior de la pantalla, sin opción oficial para situarla a la izquierda, a la derecha o en la parte superior, como sí permitían Windows 10 y versiones anteriores. Para una parte del público podía parecer un detalle menor, pero para quienes organizan su espacio de trabajo al milímetro —especialmente en configuraciones multimonitor o pantallas panorámicas— supuso un paso atrás evidente en personalización.

Ahora, según los últimos informes, Microsoft trabaja en recuperar esa función y añadir además la posibilidad de redimensionar la barra de tareas. Esto implicaría no solo permitir su colocación vertical en los laterales o en la parte superior, sino también ajustar su tamaño y el de los iconos, algo que hoy solo puede modificarse de forma muy limitada. En teoría, ambas funciones llegarían en 2026 si los planes no cambian.

Conviene recordar que la capacidad de mover la barra de tareas ha sido durante años una de las sugerencias más votadas en el Feedback Hub. Microsoft defendió en su momento que el nuevo diseño de Windows 11 se había construido desde cero con una jerarquía visual muy concreta, basada en paneles simétricos y una distribución específica de elementos como el menú Inicio y los accesos rápidos. Adaptar todo eso a orientaciones alternativas, según la propia compañía, requería rehacer buena parte del trabajo.

Y es cierto que técnicamente no es un cambio trivial. Desde el lanzamiento original, la barra de tareas ha incorporado nuevos elementos como integraciones con Copilot, mejoras en el área de notificaciones, nuevos iconos de batería y otros componentes que deberían funcionar correctamente en cualquier orientación. Además, permitir el redimensionado implica garantizar que el resto de la interfaz y las aplicaciones se adapten sin romper la coherencia visual ni la usabilidad.

La previsión actual sitúa su posible llegada en verano, aunque no hay confirmación oficial cerrada. Microsoft habría marcado estas funciones como prioritarias dentro de su hoja de ruta, asignando recursos adicionales al equipo responsable. Aun así, hablamos de una característica básica que estuvo disponible durante décadas y cuya ausencia nunca fue bien recibida, por lo que el calendario no deja de resultar llamativamente tardío.

En cualquier caso, no estamos ante un giro estratégico ni ante el renacimiento de Windows 11. Más bien se trata de una rectificación necesaria de una decisión que nunca terminó de convencer. Si finalmente se materializa, será una buena noticia para quienes pedían recuperar el control sobre su escritorio, pero difícilmente bastará por sí sola para cambiar la percepción general del sistema.

Saludos. 

sábado, 14 de febrero de 2026

Internet y Wi-Fi, cinco errores que debemos superar

El Wi-Fi se ha convertido en la manera más popular de conectarnos a Internet. Se estima que mueve más del 50% del tráfico mundial, y gracias a los últimos avances que ha introducido el estándar Wi-Fi 7 ha mejorado mucho no solo a nivel de rendimiento, sino también de seguridad y de gestión multidispositivo.

Sin embargo, a pesar de su popularidad y de que esta tecnología es una vieja conocida en el mundillo todavía se mantienen a su alrededor una serie de mitos y de conceptos erróneos que muchos no terminan de superar.

En este artículo vamos a repasar cinco de esos conceptos erróneos alrededor del Wi-Fi que se producen con más frecuencia, os explicaremos qué son y os contaremos todo lo que debéis saber para superarlos definitivamente. Si tras terminar de leer el artículo os queda alguna duda podéis dejarla en los comentarios.

1.- Más líneas en el indicador Wi-Fi indica más velocidad de conexión a Internet

Este es un error muy común, sobre todo entre el clásico perfil de usuario medio con menos conocimientos dentro del mundillo tecnológico, y es muy fácil de resolver.

Es verdad que una conexión débil y poco estable puede traducirse en una baja velocidad de conexión a Internet, pero no se utilizan para reflejar de forma directa la velocidad de conexión, de hecho podemos tener todas las líneas y una velocidad de conexión baja.

Las líneas del indicador Wi-Fi en un dispositivo, ya sea un smartphone, un PC, un portátil o cualquier otro conectado de esta manera a Internet, indican la fuerza y estabilidad de la conexión, y no reflejan de forma directa la velocidad de nuestra conexión.

Si tenemos todas las líneas significa que la señal Wi-Fi nos llega con intensidad y que tenemos una conexión fuerte y estable. En caso de que tengamos solo una línea la situación todo lo contrario, tendremos una conexión floja y poco estable.

2.- Si el Wi-Fi funciona no tendré problemas para conectarme a Internet

Hay gente que cree que Wi-Fi e Internet son lo mismo, y que piensa que si la primera funciona correctamente la segunda no le va a dar problemas.

En realidad el Wi-Fi es una cosa, e Internet es otra. La primera es una forma de conectarnos a Internet, una tecnología de conectividad inalámbrica que sirve para establecer comunicaciones bidireccionales entre nuestro dispositivo y los diferentes servidores de páginas web y servicios que pueblan Internet.

Internet es un conjunto descentralizado de redes de comunicaciones interconectadas que permite el intercambio de información entre dispositivos y ordenadores a nivel mundial, y la WWW (World Wide Web) es el servicio que nos permite ver páginas web y acceder diferentes servicios utilizando navegadores de Internet.

Tener Wi-Fi no significa tener Internet, porque como vemos son dos cosas totalmente distintas, aunque es cierto que si no tenemos Wi-Fi puede que no podamos conectarnos a Internet, salvo que utilicemos otros métodos de conexión, como cable o datos móviles.

3.- Tener un router con muchas antenas es lo mejor

Este es un mito que ha hecho mucho daño, y que ha llevado a algunas personas a pensar que si un router no tiene varias antenas exteriores no es un producto de gama alta, ni tampoco una solución capaz de ofrecer un buen rendimiento.

Las antenas exteriores no determinan, por sí solas, la calidad ni el rendimiento de un router. Estas sirven para proporcionar direccionamiento de señal y cobertura en zonas concretas, pero el rendimiento y la cobertura real de la señal dependerán de otros factores muy importantes, tales como:

  • Estándar Wi-Fi soportado.
  • Tecnología MIMO del router.
  • Colocación y entorno del router.
  • Tipo de antenas y ganancia.
  • Componentes internos del router, como la CPU, la RAM y el chipset de radio.
  • Tecnologías adicionales, como «Beamforming», entre otras.

4.- Una conexión rápida a Internet equivale a un Wi-Fi rápido

Mucha gente todavía cree que por pagar una conexión rápida a Internet va a tener un Wi-Fi muy rápido. Es cierto que la velocidad de nuestra conexión a Internet determinará el máximo de velocidad que podemos alcanzar por Wi-Fi, pero no es ninguna garantía de que el rendimiento vaya a ser bueno, porque la velocidad de nuestro Wi-Fi dependerá de muchos factores:

  • Velocidad Wi-Fi máxima del router y estándar soportado.
  • Estándar Wi-Fi soportado en el dispositivo desde el que nos conectamos.
  • Distancia al router o repetidor Wi-Fi, cuanto mayor sea menos velocidad tendremos.
  • Posibles fuentes de interferencia, que también reducirán la velocidad.
  • Dispositivos conectados de forma simultánea y ancho de banda consumido.
  • Tecnologías y rendimiento del propio router.

También influirá en la velocidad de nuestra conexión el estado de los servidores de la web o del servicio que estemos visitando. Si estos trabajan de forma lenta, nuestra conexión será lenta aunque todo funcione correctamente.

5.- El Wi-Fi no necesita ningún tipo de mantenimiento

Con el paso del tiempo es posible que tengamos pequeños problemas con nuestra conexión Wi-Fi. No hay nada que temer, es normal, porque al final es una tecnología que depende del router para funcionar correctamente, y este necesita unos mantenimientos básicos.

Podéis estar tranquilos. Esto no quiere decir que tengáis que estar pendientes constantemente del router, pero sí que de vez en cuando hay que realizar pequeños mantenimientos para que todo funcione correctamente, y en este sentido hay dos cosas que debemos tener claras:

  • Buscar actualizaciones de firmware de forma periódica para mantener el router al día.
  • Reiniciar el router ocasionalmente para liberar la RAM de posibles errores que se acumulan con el tiempo.

Las actualizaciones de firmware pueden marcar una diferencia importante.

Saludos.

viernes, 13 de febrero de 2026

Intel Nova Lake costará casi el doble que Zen 6, consumirá sobre 350W y no tendrá caché vertical

Lo que desgranamos esta misma semana va, según el mayor filtrador del planeta, en la dirección correcta. Intel Nova Lake será bastante disruptivo en muchos aspectos y pretende ser una plataforma para albergar dos segmentos de mercado: mainstream y HEDT. Lo que ahora se filtra es, precisamente, lo que vimos en parte mediante dos artículos: el de consumo de 700W y el de la caché L3 bLLC que no será vertical. Además, se plantean varios datos extra, porque Nova Lake tendrá un problema tremendo de coste, un consumo elevado para las CPU HEDT y dependerá mucho de su rendimiento para intentar justificar el precio final de cada modelo.

Luces y sombras en un viernes que promete bastantes emociones fuertes, así que no te despegues de la pantalla, porque hay novedades suculentas a lo largo del día. Y lo empezamos precisamente con Intel y su próxima arquitectura, donde hay datos más específicos si cabe que los que vimos hace días.

Intel Nova Lake, alto coste de fabricación, un PL2 mejor de lo esperado, desbloqueable y sin caché vertical, pero sí con bLLC

Honestamente, no quiero hacer de esto algo insufriblemente largo, ya tuvimos bastantes datos en los dos anteriores que te recomiendo leer si te lo perdiste, así que daremos por sentado todo lo hablado y avanzaremos al presente con el contexto aprendido. Como bien sabemos, la versión más potente y rápida de Nova Lake será la enfocada a HEDT dentro de la propia plataforma LGA1954, y esto repercute en una configuración Dual Base Tile con 28 Cores en cada una para sumar hasta 52 núcleos en total.

Los 700W de los que hablamos en PL4 no son una cifra realmente descabellada si tenemos en cuenta cómo funciona el Power Limit de Intel, y la estimación que hicimos en su momento para tal configuración de núcleos nos llevó a un valor en PL2 de entre 400W a 450W. No íbamos desencaminados en parte.

La filtración de hoy parece introducir una variable más: Intel Nova Lake sí que podrá consumir esos valores en esa configuración de 52 Cores, pero solo mediante BIOS desbloqueadas en modelos concretos de placas base, entendemos que de gama Premium y con un VRM impresionante, con refrigeración activa y un PCB de varias capas. Es decir, modelos de más de 1.000 euros fácilmente destinados a HEDT para soportar semejante bestia, o dicho de otro modo, no es el escenario para el gamer que busca los mayores FPS.

Sobre 350W en las versiones de 52 Cores, posiblemente 250W en las versiones gaming de 28 núcleos

Dicho esto, el PL2 más común estará limitado, es decir, tendrá frecuencias y voltajes menores, así como menos calor generado, porque según se dice Intel lo fijará en 350W, que para 52 Cores es una cifra realmente buena. Por dar contexto, el PL2 de un Intel Core Ultra 9 285K es aproximadamente de 250W para sus 24 Cores, así que hay un buen salto adelante en cuanto a eficiencia, puesto que con 4 Cores más es posible que veamos consumos sostenidos reales en PL2 similares para las variantes de un Base Tile sin bLLC, e inferiores para los modelos enfocados al gaming con bLLC, o bien, frecuencias más altas para estos últimos.

Actualmente, lo más cercano a esto en HEDT dentro de AMD es el Threadripper 9980X con 64 Cores y un PL2 de 485W. El anterior Threadripper PRO 7985WX con 56 Cores obtuvo un PL2 exactamente igual, aunque lógicamente el nodo hace mucho ahí.

Lo que se intenta poner en tela de juicio es que hay que cambiar "el chip" con Nova Lake y sus dos segmentos de mercado, porque HEDT y mainstream convivirán, dándonos la oportunidad de seleccionar la CPU que queramos según lo que necesitemos, con un mismo socket y mismo soporte.

El problema del área, el coste de fabricación y la caché bLLC a modo de L3

Hay varias cosas a confirmar sobre lo que vimos esta semana, y que, salvo que las fuentes estén equivocadas, íbamos totalmente bien encaminados. Los filtrados 110 mm2 para las versiones del Compute Tile sin bLLC y los 150 mm2 de las versiones con caché bLLC enfocados para gaming, tendrán, como dijimos con datos en la mano, 36 MB de L3 para el primero y 144 MB (36 MB + 108 MB) para el segundo.

Esto, ahora mismo, es la opción más óptima para cuadrar el círculo del rendimiento, costes y temperatura, así como consumo, porque habrá dos tipos de Compute Tile. El problema viene en los precios finales para los usuarios frente a Zen 6.

AMD estipula entre 75 mm2 y 76 mm2 para los CCD con 12 Cores destinados a Zen 6, más luego el IOD que tendrá unos 155 mm2, posiblemente fabricado en el N6 de TSMC. Esto supone que Intel, comparativamente hablando, gastará un 46,7% más de silicio en las versiones del Compute Tile con 36 MB de L3, y un 100% más en el caso de las versiones de 144 MB.

El número de Tiles usados, sean o no funcionales, determinará el coste, y ahí el tipo de Base Tile es crucial

Ni siquiera los Ryzen X3D con 75 mm2+ 75 mm2 llegarán al coste del Compute Tile con bLLC de Nova Lake, principalmente porque el nodo para la 3D V-Cache 3.0 será, posiblemente fabricado en el N3B o N4, no está claro todavía.

Dicho esto, sigamos con costes por área, ya que se estipula que el Base Tile individual superará los 350 mm2 agrupando todos los Tiles que necesita Intel, a saber, 3 Tiles funcionales, además de los dos Compute Tile, y varios Dummy para completar el rectángulo de cara a estabilizar la presión en todos los puntos con la soldadura para el IHS. Evidentemente, en la versión con un Base Tile el coste se reduce bastante al necesitar mucho menos silicio en general.

Dicho esto, lo interesante aquí será la comparativa de 8+16+4 con bLLC de Intel y sus 150 mm2 con los dos CCD de AMD para conseguir 24 Cores con caché vertical. Aunque solo la tenga uno de esos CCD a lo 9950X3D. Sea como fuere, puede que Nova Lake-S sea más rápida como arquitectura, o tenga una segmentación mejor que Zen 6, pero el coste y su PL2 va a determinar si es atractiva para el usuario en un momento donde los precios del hardware están por las nubes, y ahí AMD puede competir realmente mejor, aunque hipotéticamente no estuviese por delante, que está por ver.

Saludos. 

jueves, 12 de febrero de 2026

Linux 6.19 ya es oficial, mejora la estabilidad para GPU, refuerza NVMe y soluciona fallos críticos

Linux 6.19 es oficial y llega como una actualización centrada en estabilidad real del sistema, corrigiendo, entre tantas mejores, las regresiones en GPU, red, NVMe, audio y memoria que afectaban tanto al sector del gaming como a entornos de desarrollo y cargas intensivas. No introduce grandes funciones visibles, pero sí elimina kernel panic en IPv6, errores en Netfilter, fallos en suspensión de GPU y problemas en NVMe PCI y NVMe-TCP.

Lo que tenemos delante es una versión orientada a fiabilidad, especialmente en hardware moderno, el cual, arrastraba algunos fallos que sacaban de quicio a los usuarios. Aunque no vamos a ver el listado impresionante de cambios al completo que tiene el changelog, sí que hemos seleccionado los que, a nuestro juicio, son más relevantes. Así que vamos a verlos.

Linux 6.19, mejoras en estabilidad para GPU, NVMe, Wi-Fi y mucho más

Como decíamos, los cambios son impresionantes, así que lo hemos dividido en 7 áreas donde Linux 6.19 marca la diferencia y que explican por qué esta versión merece atención en escritorio, gaming y servidores.

En el apartado gráfico, el subsistema DRM recibe múltiples correcciones en amdgpu, nouveau e Intel Xe. Se solucionan regresiones de suspensión asociadas al firmware 570 en NVIDIA, problemas de compatibilidad en firmware MES 11 en AMD, errores en LUT de color y ajustes en gestión energética como ASPM y D3Cold. Para gaming esto significa menos cuelgues al reanudar el sistema y menos glitches gráficos bajo carga.

En red, se corrige un BUG crítico en IPv6 relacionado con ECMP que podía provocar kernel panic. Netfilter recibe un fix por un error lógico que generaba use-after-free. También se arreglan regresiones en stmmac, enetc y gve, además de ajustes en iwlwifi. ¿Resultado práctico y real? Menos caídas de red y mayor estabilidad en entornos con virtualización o reglas complejas de firewall, algo que los administradores agradecerán.

Vamos con el apartado del almacenamiento, porque aquí se corrigen accesos inválidos en NVMe PCI y validaciones insuficientes en el NVMe-TCP. Además, se revierte un cambio en loop devices que causaba problemas al desmontar. Esto impacta directamente en estaciones de trabajo, servidores y usuarios con múltiples volúmenes montados. No es mucho, pero es interesante de nombrar.

Energía, Scheduler y más

Con Linux 6.19 el bloque de audio incluye correcciones en ALSA y ASoC para portátiles Acer, HP, Huawei y Lenovo, además de arreglos de fallos en USB-audio y en controladores AMD. Se eliminan condiciones de carrera que podían dejar el sistema sin sonido, aunque no se especifica mucho más sobre esto.

En gestión de energía y suspensión, se corrigen problemas en power domains imx y qcom, así como regresiones en controladores que afectaban al resume del PC o portátil de turno. Esto reduce fallos al cerrar la tapa o reactivar equipos, para que se entienda de manera más simple.

El scheduler recibe optimizaciones en SCHED_MM_CID para evitar livelocks, lockups y regresiones de rendimiento en cargas tipo thread-pool. En memoria, se solucionan problemas en slab, memory-failure y posibles deadlocks en procfs.

Por último, y ya cerrando, se corrigen fallos en IOMMU que afectaban a plataformas Arrow Lake, errores en VMware/QEMU que provocaban page fault y múltiples ajustes en io_uring y DMA. Dicho todo, Linux 6.19 no cambia la experiencia visual, pero refuerza el núcleo, su Kernel, en todos los puntos donde un sistema moderno puede fallar bajo presión. No es la panacea para gaming, desarrollo o servidores, pero trabaja donde realmente importa para ser más estable, y eso es clave.

Saludos.