jueves, 16 de abril de 2026

Francia sustituirá Windows por Linux en un impulso hacia la soberanía digital

Francia reemplazará Windows por Linux en un ambicioso programa de migración de software en las computadoras de toda la administración pública del país. La directiva aprobada es uno de los mayores impulsos en Europa para recuperar soberanía digital frente a las tecnológicas estadounidenses.

Teniendo en cuenta la influencia de Francia en la Unión Europea, la medida puede (debe) ser un ejemplo a seguir para otros países del continente, un cambio de inflexión para reducir la dependencia digital de Estados Unidos y una apuesta a favor del software de código abierto, el control tecnológico y de los datos digitales en todo el continente. La iniciativa aprobada no solo contempla cambios en sistemas operativos, también en las herramientas de colaboración, infraestructura en la nube y plataformas de inteligencia artificial desarrolladas en Europa.

Francia reemplazará Windows por Linux y otro software

La Agencia Nacional de Seguridad de los Sistemas de Información y la Dirección General de Contratación Pública del Estado de Francia (DINUM), ha aprobado una directiva que contempla cambios relevantes para avanzar en soberanía digital. La propia agencia, que emplea a unos 250 agentes, migrará de inmediato sus estaciones de trabajo de Windows a Linux. Todos los demás ministerios franceses, incluidos sus operadores y organismos afiliados, deberán elaborar sus propios planes antes del otoño de 2026.

Dichos planes deberán abordar ocho categorías: estaciones de trabajo y sistemas operativos; herramientas de colaboración y comunicación; software antivirus y de seguridad; inteligencia artificial y algoritmos; bases de datos y almacenamiento; virtualización e infraestructura en la nube, y equipos de red y telecomunicaciones.

David Amiel, el Ministro de Acción Pública francés, ha motivado la iniciativa: «El Estado ya no puede limitarse a reconocer su dependencia; debe liberarse. Debemos reducir nuestra dependencia de las herramientas estadounidenses y recuperar el control de nuestro destino digital. Ya no podemos aceptar que nuestros datos, nuestra infraestructura y nuestras decisiones estratégicas dependan de soluciones cuyas reglas, precios, evolución y riesgos no controlamos. La transición está en marcha: nuestros ministerios, operadores y socios industriales se embarcan en una iniciativa sin precedentes para identificar nuestras dependencias y fortalecer nuestra soberanía digital. La soberanía digital no es opcional».

En el anuncio público no se ha mencionado ninguna distribución específica de Linux, y cada ministerio conserva la flexibilidad de elegir su propia ruta de migración dentro de ese marco. La estrategia de reemplazo de software también contempla otro tipo de software, como las suites ofimáticas. Para las tareas de escritorio más comunes, la agencia ya estrenó La Suite Numérique, un conjunto de herramientas de productividad soberanas desarrolladas y mantenidas por DINUM. La suite incluye Tchap, una aplicación de mensajería cifrada de extremo a extremo que ya utilizan más de 600.000 funcionarios públicos; Visio para videoconferencias; un servicio de correo web propio; almacenamiento de archivos y edición colaborativa de documentos.

Toda la plataforma está alojada en servidores de Outscale, filial de Dassault Systèmes, y cuenta con la certificación SecNumCloud de la agencia francesa de seguridad de la información ANSSI. En abril de 2026, la Suite había sido probada por unos 40.000 usuarios habituales de distintos departamentos antes de su implementación general. El gobierno francés también anunció que planea migrar su plataforma de datos sanitarios a una nueva plataforma segura antes de que finalice el año.

El detonante geopolítico

El Parlamento Europeo pidió a la Comisión Europea reducir la dependencia de los gigantes tecnológicos estadounidenses y dar prioridad a la infraestructura en nube, código abierto y sistemas de IA europeas. Un mecanismo de defensa contra el control de Estados Unidos en infraestructura digital crítica, más necesario que nunca ante las -imprevisibles y desquiciadas- políticas de la administración de Trump que han sembrado el caos en todo el mundo.

El anuncio de Francia no es un hecho aislado. Constituye la base de una estrategia de soberanía digital que el país ha estado impulsando notablemente desde finales de 2024, en gran medida debido al cambio en la relación con Estados Unidos y las leyes bajo las que operan sus compañías. Los aranceles de Trump reactivaron el impulso europeo hacia la soberanía en la nube a partir de abril de 2025, con empresas como OVHcloud y Scaleway registrando un crecimiento récord de clientes, a medida que las instituciones europeas comenzaron a buscar activamente reducir su dependencia de los proveedores estadounidenses.

En noviembre de 2025, Francia y Alemania convocaron una cumbre conjunta sobre soberanía digital europea, creando un grupo de trabajo que presentaría su informe en 2026 y recientemente un grupo de tecnológicas europeas ha presentado Euro-Office, ofimática soberana open source para reducir la dependencia del software de Microsoft.

Francia ya ha ido dando pasos y el pasado enero anunció que sustituiría Teams y Zoom por su plataforma de comunicaciones Visio (una herramienta de comunicación por vídeo basado en Jitsi, con cifrado de extremo a extremo y de código abierto) para sus 2,5 millones de funcionarios públicos antes de 2027. El reemplazo de Windows sigue la misma lógica: «la soberanía digital no es una opción, es una necesidad estratégica».

El contexto de este planteamiento es estructural. Por ejemplo, los proveedores de servicios en la nube estadounidenses controlan aproximadamente el 85% del mercado europeo de la nube, y se prevé que el gasto en infraestructura soberana europea en la nube se triplique con creces hasta alcanzar los 23.000 millones de euros en 2027. Windows monopoliza el uso de sistemas operativos, lo mismo que Office en suites de colaboración. Por no hablar de las plataformas de inteligencia artificial.

La ampliación de esfuerzos en Europa por recuperar su infraestructura tecnológica ha pasado de ser una preocupación política minoritaria a una prioridad política fundamental en todo el continente. Francia parece que avanza más rápido que cualquier otro Estado de la UE en lo que respecta a la infraestructura informática gubernamental, aunque hay proyectos en otros países.

Cómo migrar a Linux y no volver a Windows

Linux es la mejor alternativa a Windows desde hace años, sea en escritorios de consumo, empresas o administraciones públicas. Pero la directiva aprobada en Francia es un mandato, no una migración completada. La ausencia de una distribución Linux específica implica que cada ministerio deberá tomar sus propias decisiones de adquisición y compatibilidad, y la experiencia en proyectos de TI del sector público sugiere que los planes para otoño de 2026 variarán enormemente en ambición y especificidad.

Ciertas categorías de software especializado, en particular en defensa, sanidad y regulación financiera, dependen en gran medida de aplicaciones específicas de Windows, lo que puede complicar usar alternativas. DINUM lo ha reconocido mediante la flexibilidad que ha incorporado a su marco, pero la cuestión de cuántas de esas dependencias restantes pueden resolverse de forma realista con una hoja de ruta impuesta por el gobierno solo se responderá en los próximos dos o tres años.

La estrategia de soberanía también contiene una ironía estructural que persistirá a corto plazo independientemente del sistema operativo que se ejecute en los ordenadores de los funcionarios. Francia reemplazará Windows por Linux, pero los proyectos tecnológicos más ambiciosos del continente siguen desarrollándose y escalándose sobre la infraestructura en nube estadounidense. Reemplazar la capa de escritorio es importante, pero se sitúa sobre un sustrato que siguen dominando las tecnológicas estadounidenses.

Por otro lado, no todos los proyectos de migración de Windows a Linux han terminado siendo exitosos (por distintos motivos) y ahí destaca el caso de Munich. En Microsoft fueron conscientes del perjuicio que para sus intereses podía suponer este proyecto si tenía éxito y se convertía en ejemplo a seguir por otras administraciones, por lo que movió cielo y tierra para que fracasara.

La situación ha cambiado una década después. Las alternativas, especialmente de código abierto, están mucho mejor preparadas para el reemplazo. Y la apuesta por la soberanía digital en Europa es (debe) ser imparable. Pero no será fácil. Habrá que abordar también las plataformas en nube y todo lo que está llegando de la IA. La plataforma Mistral AI fundada en París sobre modelos de pesos abiertos es un buen ejemplo a seguir. De las decisiones que ahora tomen los gobiernos europeos dependerá el grado de autonomía digital que puedan alcanzar. La soberanía digital hoy no es un eslogan, es una obligación estratégica para el Viejo Continente.

Saludos. 

miércoles, 15 de abril de 2026

NVIDIA lanzará una GeForce RTX 5060 Ti y RTX 5060 con 9 GB de VRAM e interfaz de 96 bits

Según los últimos informes, NVIDIA se está preparando para lanzar dos nuevas GeForce RTX 5060 Ti y RTX 5060 con 9 GB de memoria VRAM GDDR7. Si bien puedes pensar que es un modelo superior al actual con 8 GB de VRAM, tenemos que decirte que no todo lo que brilla es oro. Y es que, pese a tener más capacidad de memoria, realmente es un modelo inferior.

El motivo de este modelo es que recurre a los nuevos chips GDDR7 de 24 Gb, equivalentes a 3 GB por chip. Samsung presentó oficialmente estos chips en octubre de 2024 y habló de una validación con grandes clientes GPU y comercialización posterior. Micron, por su parte, ya promocionaba en 2026 sus chips GDDR7 de 24 Gb con velocidades de hasta 36 Gbps y más densidad para futuras GPUs. Incluso NVIDIA ya comercializa portátiles GeForce RTX 50 con capacidades que encajan con esta nueva densidad. Una de ellas es la GeForce RTX 5090 Laptop de 24 GB GDDR7. Esto refuerza la idea de que los módulos de 3 GB ya son una herramienta real de diseño y no una simple hipótesis.

Las GeForce RTX 5060 Ti y RTX 5060 con 9 GB ofrecen mayor capacidad, pero serán más lentas

Respecto a las actuales GeForce RTX 5060 Ti y RTX 5060 actuales con 8 GB de VRAM. NVIDIA pasaría de una configuración de 4 chips sobre una interfaz de 128 bits a 3 chips sobre una interfaz de 96 bits. Si mantuviera la memoria a 28 Gbps, el ancho de banda de la memoria caería a 336 GB/s. Incluso si se usara una memoria a 30 Gbps, seguiría viendo caer su ancho de banda hasta los 360 GB/s. Para tener un contexto, las GeForce RTX 5060 actuales ofrecen un ancho de banda oficial de 448 GB/s. Esto implicaría un recorte aproximado del 25% en el escenario de 28 Gbps. De esta forma, pese a que 9 GB se puede entender como una mejora, realmente es una "peora". Obtienes más capacidad, pero un ancho de banda bastante más bajo.

Debido a este ajuste de capacidad de memoria, junto a una caída en el ancho de banda, esta GPU apunta directamente a una maniobra de segmentación y cadena de suministro. En marzo ya circularon rumores muy parecidos sobre una GeForce RTX 5050 con 9 GB de memoria GDDR7 y el mismo bus de 96 bits, lo que sugiere una estrategia más amplia de NVIDIA alrededor de los chips GDDR7 de 3 GB. La lógica de fondo sería doble: aliviar presión sobre ciertas combinaciones de memoria y, al mismo tiempo, poder vender “más VRAM” sin rediseñar toda la gama. Aunque claro, este movimiento será muy jugoso cara al marketing y los inexpertos.

Salvo por la memoria, todas estas gráficas serían idénticas a los modelos originales. Es decir, la GeForce RTX 5060 Ti de 16 GB, 9 GB y 8 GB cuentan con el mismo chip gráfico GB206 con 4.608 CUDA Cores. Las GeForce RTX 5060 Ti de 9 GB y 8 GB con los mismos 3.840 CUDA Cores. Terminando con las GeForce RTX 5050 de 9 GB y 8 GB con los mismos 2560 CUDA Cores. La diferencia está en que todos los modelos de 16 y 8 GB ofrecen una interfaz de 128 bits. Siendo los modelos de 9 GB el patito feo con la interfaz de 96 bits.

Saludos.

martes, 14 de abril de 2026

Google lanza su barra de búsqueda universal para Windows

Las herramientas de búsqueda son un componente que puede ser muy interesante en diversos contextos de uso. A medida que los dispositivos acumulan más aplicaciones, documentos y contenido en la nube, encontrar información rápidamente se vuelve cada vez más importante. Algunas plataformas llevan años apostando por este enfoque con herramientas integradas capaces de localizar prácticamente cualquier cosa desde una sola barra, y ahora Google parece decidido a trasladar una idea similar al entorno de Windows.

La compañía ha lanzado de forma global su nueva aplicación de escritorio para Windows, una herramienta diseñada para reunir en un único lugar la búsqueda de información tanto en el ordenador como en la web. Esta aplicación, que comenzó como una prueba limitada el año pasado, ya está disponible para todos los usuarios y puede descargarse desde el sitio oficial de Google, siempre que el equipo utilice Windows 10 o una versión posterior del sistema operativo.

El funcionamiento de la herramienta es bastante sencillo. Una vez instalada, los usuarios pueden invocar la barra de búsqueda mediante el atajo de teclado Alt + Space, lo que abre una interfaz desde la que iniciar búsquedas sin tener que abrir el navegador ni navegar por diferentes menús del sistema. La idea es ofrecer un acceso rápido a la información y permitir que el usuario continúe con su trabajo sin interrumpir su flujo de actividad.

Desde esta barra se pueden buscar distintos tipos de contenido. La aplicación permite localizar archivos almacenados en el ordenador, aplicaciones instaladas, resultados de la web y documentos guardados en Google Drive, todo dentro de la misma interfaz. Los resultados pueden filtrarse además por diferentes categorías, como contenido general, imágenes u otras vistas específicas, lo que facilita encontrar exactamente lo que se busca.

La aplicación también incorpora funciones basadas en inteligencia artificial. Gracias al llamado “modo IA”, los usuarios pueden formular preguntas directamente desde la barra de búsqueda y recibir respuestas generadas por el sistema junto con enlaces a páginas web relevantes. De este modo, la herramienta no se limita a encontrar archivos o páginas, sino que también puede actuar como una forma rápida de obtener información contextual.

A estas capacidades se suman otras funciones pensadas para integrarse con el trabajo diario en el escritorio. Por ejemplo, la app permite utilizar Google Lens para analizar lo que aparece en la pantalla, lo que facilita traducir textos, identificar imágenes o buscar información relacionada con elementos visibles. Además, los usuarios pueden compartir una ventana concreta o incluso la pantalla completa para seguir haciendo consultas mientras trabajan en un documento o navegan por internet.

Por ahora, la aplicación está disponible en inglés y funciona en Windows 10 y versiones posteriores, y Google no ha confirmado si tiene previsto lanzar una versión equivalente para otros sistemas operativos. En cualquier caso, el movimiento muestra el interés de la compañía por llevar su motor de búsqueda y sus herramientas basadas en IA directamente al escritorio, integrándolas de una forma más profunda en la experiencia cotidiana de los usuarios de PC.

Más información

Saludos.

lunes, 13 de abril de 2026

Windows 11 se despide del clásico Panel de control

A lo largo de su historia, Windows ha ido acumulando herramientas, interfaces y componentes que han sobrevivido durante décadas incluso cuando el sistema operativo cambiaba profundamente por dentro. Uno de los ejemplos más claros es el Panel de control, una pieza histórica del sistema que ha acompañado a Windows desde hace generaciones y que todavía sigue presente en Windows 11, aunque cada vez con menos protagonismo.

Desde hace años, Microsoft trabaja en trasladar sus funciones a la aplicación Configuración, una interfaz moderna pensada para sustituir gradualmente a las herramientas clásicas. Ahora, todo indica que este proceso podría estar acercándose a su fase final, ya que la compañía ha confirmado que sigue migrando los últimos controles que todavía dependen del viejo Panel de control hacia la app de configuración del sistema.

Según explicó March Rogers, director de diseño en Microsoft, el objetivo es trasladar todos los controles del Panel de control a la aplicación Settings. El proceso se está realizando de forma progresiva y cuidadosamente planificada para evitar que la desaparición de este componente provoque problemas en funcionalidades críticas del sistema operativo. La idea es que, cuando la transición se complete, los usuarios puedan gestionar todos los aspectos del sistema desde un único lugar.

La transición, sin embargo, no es sencilla. El Panel de control sigue alojando elementos esenciales vinculados al funcionamiento de dispositivos y drivers, especialmente en áreas como impresoras, redes o adaptadores de hardware. Muchos fabricantes todavía utilizan módulos propios integrados en el Panel de control —los conocidos archivos *.cpl— para gestionar sus dispositivos, lo que obliga a Microsoft a avanzar con cautela para no romper compatibilidades ni afectar al funcionamiento de hardware existente.

Detrás de este cambio también existe una diferencia tecnológica importante. El Panel de control pertenece al antiguo ecosistema Win32, una arquitectura clásica de Windows que durante décadas ha servido como base para innumerables aplicaciones. En cambio, la aplicación Configuración forma parte del modelo moderno del sistema, basado en UWP, WinUI y el diseño Fluent, que busca ofrecer una interfaz más coherente, visualmente más consistente y mejor adaptada a los estándares actuales de Windows.

Este movimiento encaja además con la estrategia de Microsoft de impulsar las tecnologías más modernas dentro de su plataforma. La compañía lleva tiempo recomendando a los desarrolladores que abandonen progresivamente Win32 en favor de interfaces más actuales. Un ejemplo reciente es Apple Music, que durante años fue una aplicación Win32 y que en 2024 adoptó un frontend moderno integrado en el ecosistema de Windows.

En realidad, la desaparición del Panel de control no sería un cambio repentino, sino la culminación de un proceso que comenzó hace ya más de una década. Desde los tiempos de Windows 8 y Windows 10, Microsoft ha ido trasladando opciones y herramientas al nuevo sistema de configuración. Windows 11 simplemente continúa esa evolución, acercándose cada vez más al momento en que uno de los elementos más veteranos del sistema operativo pueda desaparecer definitivamente y dejar paso a una experiencia más coherente y centralizada. Aunque, también, otro soplo de nostalgia (señal de que nos hacemos mayores) para quienes recordamos el panel de control de Windows desde sus inicios.

Saludos.

domingo, 12 de abril de 2026

Los Intel Core Ultra 400 (Nova Lake-S) traerán hasta 52 núcleos en 175W y una NPU para IA

Tenemos gran cantidad de información filtrada de los procesadores Intel Core Ultra 400, es decir, la nueva generación de procesadores de sobremesa Nova Lake-S. Quizás lo más llamativo de estos procesadores es que ofrecerán configuraciones de hasta 52 núcleos. A ello se le sumará una NPU dedicada, soporte para una memoria DDR5 aún más rápida y, cómo no, la implementación de una nueva arquitectura para los núcleos de alto rendimiento (Coyote Cove) y eficiencia (Arctic Wolf).

Esta plataforma también admitirá hasta dos puertos Thunderbolt 5, Wi-Fi 7, LE Audio, memoria ECC, CUDIMM/CSODIMM y retrocompatibilidad con los actuales sistemas de refrigeración. Todo ello deja patente que el sucesor de Arrow Lake-S (Core Ultra 200) es una plataforma muchísimo más ambiciosa a nivel de rendimiento de CPU, conectividad y funciones de IA.

Esto es lo que podemos esperar de los Intel Core Ultra 400

Lo más llamativo de la plataforma Intel Core Ultra 400 es que existirían hasta cinco variantes de encapsulado/die. Tres de ellos con un diseño monolítico o de un solo tile, junto a y dos configuraciones dual-die / dual-compute-tile. Todas las variantes comparten un bloque base sorprendentemente homogéneo en sobremesa. Hablamos de 4 núcleos de muy baja eficiencia LP E-Core, una Intel NPU6, y soporte para memoria DDR5 en doble canal. Terminamos con 24 líneas PCIe 5.0, 2 puertos Thunderbolt 5 y una pequeña iGPU Xe3 con 2 núcleos. Esto apunta a una estrategia muy modular: Intel cambia el tamaño de la CPU y de la caché, pero intenta mantener una base de plataforma común incluso en la parte más baja de la gama. Además, esas variantes con extra de caché encajan con filtraciones previas sobre bLLC como la respuesta de Intel al efecto AMD X3D.

Según indica en exclusiva Videocardz, Intel al menos lanzaría 13 procesadores Intel Core Ultra 400. Habrán dos modelos de muy alta gama con un TDP de 175W, uno de 52 núcleos y otro de 44 núcleos, ambos todavía sin marca comercial cerrada. Ambas CPU ofrecerán 16 núcleos de alto rendimiento. Estos procesadores podrían estrenar un nuevo nombre desmarcándose de la gama Intel Core Ultra 9, que hasta ahora es la más alta de la compañía.

Por debajo aparecen escalones bastante claros: Core Ultra 9 con 28 y 22 núcleos, Core Ultra 7 con 24 y 16 núcleos, Core Ultra 5 con 22, 12 y 8 núcleos, y Core Ultra 3 con 6 núcleos, con consumos energéticos que se moverán entre 125W, 65W y 35W dependiendo del modelo. Esto deja claro que Intel quiere abrir mucho más el abanico de Nova Lake-S y, de paso, coquetear con un territorio casi pseudo-HEDT en la gama más alta. Quien sabe si estamos ante el regreso de un procesador Intel Core Ultra X. Rememorando así los procesadores Intel Core X-Series.

Estos procesadores ofrecerán más del doble de los núcleos actuales

El salto sobre entre los procesadores Intel Core Ultra 300 y Core Ultra 400 será abrumador. El Core Ultra 9 285K actual se queda oficialmente en 24 núcleos, DDR5-6400 y con una NPU de 13 TOPS. Un hipotético Intel Core Ultra 485K o 485X elevaría el techo hasta los 52 núcleos y subiría el soporte oficial de memoria a DDR5-8000. Además de reforzar mucho la parte de IA local con una NPU de 76 TOPS. Eso no garantiza que Intel vaya a arrasar en juegos o en eficiencia, pero sí indica que la compañía ha identificado varias debilidades percibidas de Arrow Lake y pretende atacarlas a la vez. Hablamos de más densidad multinúcleo, más ancho de banda de memoria y una plataforma más “IA-first”.

Ahora bien, hay que recordar que estos procesadores utilizarán una nueva plataforma. Hablamos de una placa base con el socket Intel LGA1954 con chipsets de la serie Intel 900. De esta forma, podrás reaprovechar el sistema de refrigeración, pero no la placa base. Noctua ya confirmó oficialmente que sus disipadores compatibles con los socket Intel LGA1700/LGA1851 también lo serán con LGA1954, y todo ello sin necesitar un accesorio adicional. Así que será muy interesante saber si los Intel Core Ultra 400 acabarán con el dominio de AMD y sus Ryzen X3D. Y es que los procesadores de Intel llagarían a ofrecer hasta 288 MB de memoria caché para competir con estas CPU orientadas a gamers.

Saludos.

sábado, 11 de abril de 2026

Microsoft comienza a enviar las actualizaciones forzadas a Windows 11 25H2

Microsoft ha comenzado su programa de actualizaciones forzadas a Windows 11 25H2 desde versiones anteriores de Windows 11 en lo que denomina un «despliegue inteligente basado en aprendizaje automático». Esta actualización forma parte de un plan de actualización gradual para Windows 11, en el que Microsoft está actualizando progresivamente los sistemas en todo el mundo para eliminar la versión 24H2, ya que el soporte para esta edición finalizará oficialmente el 13 de octubre de 2026.

La actualización se realizará para dispositivos no administrados que ejecuten las ediciones Home y Pro de Windows 11 24H2. Aunque tenga sentido actualizar a una versión con un período de soporte más largo, las constantes actualizaciones que Microsoft está impulsando ofrece pocos beneficios reales más allá del mantenimiento de seguridad y los riesgos de errores son evidentes.

Además, el lanzamiento de la versión 26H1, puede confundir ya que no se podrá usar en los equipos existentes y llega en exclusiva para los nuevos equipos con hardware ARM. La conclusión es que es necesaria una actualización global a modo de Service Pack para equipos Intel y AMD que arregle definitivamente Windows 11 sin tantas actualizaciones menores.

Actualizaciones forzadas a Windows 11 25H2

«El despliegue inteligente basado en aprendizaje automático se ha extendido a todos los dispositivos que ejecutan las ediciones Home y Pro de Windows 11, versión 24H2, que no están administrados por departamentos de TI. Los dispositivos que ejecuten estas ediciones ya no recibirán correcciones para problemas conocidos, actualizaciones de zona horaria, soporte técnico ni actualizaciones mensuales de seguridad y vista previa que contengan protecciones contra las últimas amenazas de seguridad. Estos dispositivos recibirán automáticamente la actualización a Windows 11, versión 25H2, cuando estén listos. No es necesario realizar ninguna acción, y usted puede elegir cuándo reiniciar su dispositivo o posponer la actualización».

Teniendo en cuenta el terrible historial de errores de Microsoft con este tipo de actualizaciones forzadas y automáticas, te recomendamos que la realices manualmente para mantener cierto control de la misma y que no te llegue en el peor momento. Si estás usando la versión anterior 24H2, es seguro que puedes migrar a la versión superior. Puedes comprobar si está disponible en Configuración > Actualización de Windows y hacer clic en el enlace para descargar e instalar Windows 11 25H2.

Si por el contrario prefieres esperar, también es posible retrasar estas actualizaciones forzadas a Windows 11 25H2 de manera temporal o permanente como opción radical. Los métodos se han hecho populares entre el gran público como la única manera de combatir los errores de Microsoft en la entrega de unas actualizaciones sin garantía de estabilidad.

Microsoft proporciona un documento de soporte para ayudar a los usuarios a resolver los problemas que puedan surgir durante el proceso de actualización, pero como decíamos, no necesitamos más versiones menores que no solucionan los problemas urgentes de Windows 11.

Saludos. 

viernes, 10 de abril de 2026

Así es el NVIDIA N1X para portátiles, una placa base de ingeniería y 128 GB LPDDR5X a 8.533 MT/s

NVIDIA ha visto como se ha filtrado una placa base de ingeniería con su SoC NVIDIA N1X, el cual está destinado a una nueva generación de ordenadores portátiles Windows 11 con IA. Lo que se filtró en imágenes es el chip NVIDIA N1X rodeado por ocho módulos de memoria LPDDR5X SK Hynix para sumar un total de 128 GB de capacidad. Además de un diseño donde la placa base incluye dos ranuras para SSD M.2 2240, Wi-Fi integrado y puertos como USB, USB-C, HDMI y jack de audio. Este se dejó ver en una tienda de segunda mano china listado a un precio al cambio de 1.250 euros.

Estamos ante una muestra temprana, pero deja una pista bastante importante. Y es que, según los rumores, sería en junio cuando NVIDIA anuncie estos chips, concretamente en la Computex 2026, que arrancará el 2 de junio. También será interesante si a raíz de aquí estaremos a pocos días o semanas de tener las primeras pruebas de rendimiento ligadas a algún benchmark utilizado por los propios desarrolladores para conocer el desempeño de su creación.

La filtración sugiere que NVIDIA ya tendría hardware real en fase de validación

La filtración encaja bastante bien con lo que ya sabíamos del proyecto. Desde junio de 2024 conocemos que NVIDIA estaba trabajando en chips Arm para ordenadores Windows. Para logarlo, había anunciado una alianza formal con MediaTek. Por lo que hablamos un chip que está desarrollado de forma conjunta por MediaTek y NVIDIA. Hay que recordar que tendremos dos SoC: el NVIDIA N1 y una variante de alto rendimiento conocida como N1X. Esta filtración no es más que una evidencia física de que el hardware ya está listo para comenzar las validaciones y las pruebas de rendimiento.

Sobre el calendario de lanzamiento, según los últimos rumores se habla de que los primeros ordenadores portátiles con el SoC NVIDIA N1 llegarían a finales de 2026. Otros reportes apuntaban a que Dell y Lenovo serían los primeros fabricantes en integrar los chips NVIDIA N1/N1X. Lo único que sabemos oficialmente, es que Jensen Huang, CEO de NVIDIA, confirmó que NVIDIA volverá a la Computex de 2026, y que la compañía tiene “muchos anuncios” preparados allí. Eso hace que la Computex sea una candidata perfecta para enseñar estos chips, pero NVIDIA no ha dicho oficialmente que el N1 vaya a presentarse allí.

Más allá del diseño y placa base que acompaña NVIDIA N1 & N1X, esto es lo que conocemos de ellos

El SoC NVIDIA N1 es un modelo de bajo consumo diseñado para equipos portátiles asequibles de larga autonomía y con IA. Se trata de una versión recortada del N1X, del que sí hay mucha más información. Este SoC está orientado a ofrecer alto rendimiento. Para ello recurrirá a un procesador con 20 núcleos basados en la arquitectura Arm junto a una potente tarjeta gráfica integrada NVIDIA GeForce RTX. Esta gráfica estaría basada en la arquitectura Blackwell en una configuración de 6.144 CUDA Cores. Este es el mismo número de núcleos que posee una NVIDIA GeForce RTX 5070. Ahora bien, el rendimiento final dependerá de las frecuencias que sea capaz de alcanzar este chip.

El SoC NVIDIA N1X está diseñado para soportar hasta 128 GB de memoria RAM LPDDR5X a 8.533 MT/s que se usa de forma compartida. Tendría una interfaz de memoria de 256 bits y alcanzaría un ancho de banda de 273 GB/s. Respecto al consumo energético, se habla de un TDP de 140W. Respecto a la IA, integraría una NPU junto a las capacidades avanzadas de los gráficos NVIDIA para marcar la diferencia respecto a su competencia.

Hasta ahora se ha podido ver esta GPU funcionar en una fase muy temprana a una velocidad de apenas 1.048 MHz arrojando un rendimiento de 46.361 puntos en el benchmark OpenCL de Geekbench. Esto le sitúa al nivel de una GeForce RTX 4060 Ti de sobremesa o una RTX 4080 Laptop. A nivel de rendimiento de la CPU, viene a equipararse a un AMD Ryzen 7 9800X3D en Geekbench.

Saludos. 

jueves, 9 de abril de 2026

Especificaciones de las GeForce RTX 6090, GeForce RTX 6080 y GeForce RTX 6070

Se han filtrado las posibles especificaciones de las GeForce RTX 6090, GeForce RTX 6080 y GeForce RTX 6070 de NVIDIA, tres tarjetas gráficas que estarán basadas en la nueva arquitectura Rubin, y cuyo lanzamiento se espera para algún momento de 2027.

Estas especificaciones son parecidas a las que habíamos visto en filtraciones anteriores, y la verdad es que me resultan chocantes porque mantienen el mismo conteo de shaders que hemos visto en las GeForce RTX 5090, GeForce RTX 5080 y GeForce RTX 5070.

Esto no tiene por qué ser un problema, ya que el rendimiento de una tarjeta gráfica va más allá de su número total de shaders y depende de otros factores, pero sí que es cierto que me sorprendería que NVIDIA no aumentase en absoluto el número de shaders en esas tres tarjetas gráficas con respecto a los modelos equivalentes dentro de la serie GeForce RTX 50.

Con todo, hay que tener en cuenta que las especificaciones de las GeForce RTX 60 todavía no han sido confirmadas oficialmente, y que por tanto la información que vamos a ver en este artículo debe ser tomada como un rumor, tal y como indicamos en el título.

Especificaciones de la GeForce RTX 6090

  • Núcleo gráfico GR202 fabricado en 3 nm.
  • 21.760 shaders a 2,3 GHz-2,7 GHz, modo normal y turbo.
  • 680 unidades de texturizado.
  • 176 unidades de rasterizado.
  • 680 núcleos tensor de sexta generación.
  • 170 núcleos RT de quinta generación.
  • Bus de 512 bits.
  • 32 GB de memoria GDDR7 a 28 Gbps.
  • Ancho de banda de 1,79 TB/s.
  • 96 MB de caché L2.
  • Potencia en FP32: 117,5 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 525 vatios.

Especificaciones de la GeForce RTX 6080

  • Núcleo gráfico GR203 fabricado en 3 nm.
  • 10.752 shaders a 2,3 GHz-2,8 GHz, modo normal y turbo.
  • 336 unidades de texturizado.
  • 112 unidades de rasterizado.
  • 336 núcleos tensor de sexta generación.
  • 84 núcleos RT de quinta generación.
  • Bus de 320 bits.
  • 20 GB de memoria GDDR7 a 30 Gbps.
  • Ancho de banda de 1,2 TB/s.
  • 64 MB de caché L2.
  • Potencia en FP32: 60,21 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 350 vatios.

Especificaciones de la GeForce RTX 6070

  • Núcleo gráfico GR205 fabricado en 3 nm.
  • 6.144 shaders a 2,4 GHz-2,6 GHz, modo normal y turbo.
  • 192 unidades de texturizado.
  • 80 unidades de rasterizado.
  • 192 núcleos tensor de sexta generación.
  • 48 núcleos RT de quinta generación.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR7 a 28 Gbps.
  • Ancho de banda de 896 GB/s.
  • 48 MB de caché L2.
  • Potencia en FP32: 31,95 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 225 vatios.

Las últimas informaciones que hemos visto indican que, gracias a las mejoras que introducirá NVIDIA a nivel de arquitectura en las GeForce RTX 60, estas rendirán entre un 30% y un 35% más que las GeForce RTX 50 en rasterización, y serán el doble de potentes en trazado de trayectorias.

También es muy probable que NVIDIA aproveche el lanzamiento de las GeForce RTX 60 para introducir nuevas tecnologías exclusivas enfocadas al renderizado neural, y para mejorar el rendimiento trabajando con este tipo de renderizado. Estoy bastante seguro de que DLSS 5 será una tecnología que funcionará mejor en las GeForce RTX 60, aunque será compatible con las GeForce RTX 50.

Cómo se comparan con las GeForce RTX 5090, GeForce RTX 5080 y GeForce RTX 5070

La GeForce RTX 5090 tiene también 21.760 shaders, pero está fabricada en el nodo de 5 nm de TSMC y tiene una velocidad de trabajo más baja, lo que hace que su potencia en FP32 sea de 104,8 TFLOPs. Su bus también es de 512 bits, y tiene 32 GB de GDDR7 con el mismo ancho de banda.

Cambios en la GeForce RTX 6090

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Menor TGP.

La GeForce RTX 5080 tiene 10.752 shaders, está fabricada en el nodo de 5 nm de TSMC y su frecuencia de trabajo también es inferior, por lo que su potencia en FP32 es de 56,28 TFLOPs. Tiene un bus de 256 bits y 16 GB de memoria GDDR7 a 30 Gbps.

Cambios en la GeForce RTX 6080

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Mayor ancho de banda (bus de 320 bits) y 4 GB más de memoria gráfica.
  • Menor TGP.

La GeForce RTX 5070 tiene 6.144 shaders, también está fabricada en el nodo de 5 nm de TSMC, tiene una frecuencia de trabajo ligeramente inferior, lo que hace que su potencia en FP32 sea de 30,87 TFLOPs, y viene con un bus de 192 bits acompañado de 12 GB de GDDR7.

Cambios en la GeForce RTX 6070

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Mayor ancho de banda (bus de 256 bits) y 4 GB más de memoria gráfica.
  • Menor TGP.

Un lanzamiento escalonado a partir de 2027

Las GeForce RTX 60 empezarán a llegar a partir de 2027, pero se producirá un lanzamiento escalonado, como ya hemos visto en generaciones anteriores. Esto quiere decir que primer llegarán las GeForce RTX 6090 y GeForce RTX 6080, probablemente entre los meses de enero y febrero de 2027, y entre marzo y abril de ese año llegaría la GeForce RTX 6070.

Las GeForce RTX 6060 Ti, GeForce RTX 6060 y GeForce RTX 6050 llegarían posteriormente. Las dos primeras deberían llegar entre mayo y junio de 2027, y la tercera llegaría en julio de 2027.

Tened en cuenta que esas fechas no están confirmadas oficialmente, son una estimación por mi parte partiendo de lo que vimos cuando se produjo el lanzamiento de las GeForce RTX 50 en 2025. Tienen sentido, pero podrían no cumplirse.

Saludos.

miércoles, 8 de abril de 2026

AMD patenta un PRF apilado para que sus futuras CPU y GPU crezcan verticalmente con 3D V-Cache

AMD ha registrado una patente hace solo unos días que, dicho de forma simple, intenta arreglar uno de esos problemas internos que no se ven en las arquitecturas, pero que pueden condicionar muchísimo cómo escala una CPU. Hablamos del PRF (Physical Register File), que es el archivo de registros físicos donde el procesador guarda los datos reales con los que trabaja mientras ejecuta instrucciones, pero ¿qué pretende ahora AMD? Pues “doblar” este PRF para poder seguir apilando capas, silicio, escalando su 3D V-Cache en las CPU AMD Ryzen.

El PRF como concepto dentro de la arquitectura de una CPU está metido en pleno corazón del núcleo, alimentando a la lógica de ejecución y recibiendo resultados de vuelta de forma constante. Por ello, lo que pretende AMD es lograr más y más chips uno encima de otros sin comprometer tres partes clave como es el consumo, el coste y la frecuencia.

AMD prepara la apilación de varios die verticales gracias a una nueva patente de PRF en CPU

La patente es bastante ambiciosa y enfrenta directamente a Intel con su Foveros 3D Direct, aunque desde el punto de vista de la arquitectura para facilitarle la vida a TSMC y no salir penalizados. Lo que debemos saber para entender la patente es que en un procesador moderno, el software no trabaja directamente con los PRF, sino con registros lógicos.

Por debajo, la microarquitectura renombra esos registros y los reparte en registros físicos para poder ejecutar más instrucciones a la vez, evitar conflictos y mantener el paralelismo interno. Cuanto mejor resuelto está ese bloque, más margen tiene la CPU para sostener un backend “ancho” y una ejecución Out-of-Order más ambiciosa. El problema aparece cuando quieres hacerlo crecer: el PRF ocupa más, las rutas se alargan y algunas posiciones quedan más lejos de la ALU, lo que puede empeorar el peor camino de señal.

¿Cómo piensa solucionar AMD esta papeleta para poder escalar en caché vertical?

La idea de AMD en esta patente pasa por un “Folded Register File”. No se trata de doblarlo físicamente como una hoja, sino de dividirlo en 2 o más partes y repartir esas porciones entre distintos dies apilados. Esas partes mantienen una organización simétrica y se acceden mediante un esquema de dirección con lane, donde un bit extra o varios bits extra indican en qué die está el dato.

Con 2 porciones bastaría 1 bit; con 4, 2 bits, y así sucesivamente. La gracia del planteamiento es que permite aumentar capacidad sin convertir el PRF en un bloque plano enorme y cada vez más incómodo de manejar. Es, en cierta medida, una solución parecida a lo que hicieron con la L3.

En CPU, esto puede traducirse en más registros físicos, más instrucciones vivas y más margen para núcleos de mayor tamaño sin que la latencia del PRF se convierta en una losa. También puede ayudar a que la frecuencia no choque tan pronto contra límites físicos del layout. En GPU, aunque la patente no habla de un producto concreto, la lectura es bastante más simple: un archivo de registros más escalable puede aliviar la presión de registros en Shaders y cargas de computación pesadas, algo clave para ocupación y paralelismo.

Lo importante aquí es que AMD no está vendiendo una función vistosa, sino trabajando en un cuello de botella muy de fondo, y es, al mismo tiempo, la respuesta directa a Intel bLLC con Nova Lake.

Saludos.

martes, 7 de abril de 2026

Microsoft cambia las reglas del kernel en Windows 11 y discriminará los drivers antiguos

Microsoft ha movido una pieza importante, clave, en Windows 11, y esta vez no hablamos de un rumor, por desgracia. Lo último de los de Redmond es que, desde la actualización de abril de 2026, Windows 11 deja de confiar por defecto en los drivers antiguos de kernel firmados con el antiguo programa de cross signing. Esto, que parece trivial y algo menor, es realmente un problema para miles de usuarios y empresas.

Dicho de forma simple, Microsoft empieza a cerrar la puerta a una vía heredada que durante años permitió cargar drivers sin pasar por el proceso moderno de validación WHCP. Eso no significa que de la noche a la mañana vayan a dejar de funcionar todos los drivers antiguos, tranquilo, relax (de momento) pero sí que cambia la base de confianza del sistema.

Windows 11 dejará atrás los drivers antiguos a partir de ahora tras la actualización de abril

Lo relevante aquí no es solo el qué, sino el cómo. Microsoft no ha planteado un corte seco desde el primer parche, pero ha explicado que el despliegue comienza en modo de evaluación con la actualización de abril de 2026, de manera que el kernel monitoriza y audita qué drivers se cargan antes de activar el bloqueo de forma más estricta.

Eso reduce el riesgo de romper equipos que todavía dependan de algún componente legacy, sobre todo en entornos donde siguen apareciendo piezas muy antiguas o drivers internos poco actualizados, o directamente sin actualizar.

La medida afecta, o afectará, a Windows 11 24H2, 25H2 y 26H1, además de Windows Server 2025, así que en el futuro con el supuesto Windows 12 esto será la norma. Microsoft, eso sí, lo presenta como un cambio de seguridad de base: a partir de ahora, la ruta estándar para que un driver de kernel sea aceptado pasa por el programa Windows Hardware Compatibility Program (WHCP).

Las fases no van a impedir que muchas empresas y usuarios se vean afectadas

En paralelo, la compañía mantiene una “allow list” con un número limitado de drivers antiguos considerados “reputados”, precisamente para evitar que la transición reviente compatibilidades críticas en sistemas reales. Spoiler: no lo van a conseguir, y llegarán los problemas, sobre todo en las pequeñas empresas.

Aquí está la clave del asunto. Microsoft no está diciendo que todo lo viejo sea “malware” por pura obsolescencia, pero sí que el viejo modelo de confianza ya no le vale. Un driver de kernel opera en la parte más sensible del sistema, así que permitir que siga entrando software firmado bajo un esquema heredado abre una superficie de riesgo que Microsoft quiere recortar, “por seguridad”.

Por eso también enlaza este cambio con “App Control for Business”, que en estas versiones ya soporta este nuevo tipo de política de confianza del kernel y permite gestionar excepciones o firmantes personalizados en casos corporativos muy concretos. ¿Realmente piensan que, incluso grandes empresas, van a darle soporte a base de drivers firmados a hardware o periféricos de hace 20 años? Parece buena la intención, poco realista, eso sí.

En resumen, lo que está pasando es bastante claro: Microsoft no ha rescatado un debate antiguo para rellenar titulares, sino que ha activado ahora una fase nueva y práctica de una transición que llevaba años cocinándose a fuego lento, y ha llegado. El cambio es actual, oficial y con fecha concreta donde Windows 11 dejará de soportar esos drivers antiguos de los que habla Microsoft. Lo que faltará por ver es cuántos equipos, hardware y periféricos siguen dependiendo de ese pasado más de lo que parecía.

Saludos.