sábado, 24 de enero de 2026

Cuando los GHz lo eran todo e Intel quiso fabricar un Pentium 5 capaz de llegar a los 7 GHz

La historia y la evolución de los procesadores han estado marcadas por diferentes fases. A principios del año 2000 vivimos la carrera de los GHz, que fue sin duda una de las más interesantes, y de las más controvertidas, porque en ella Intel apostó por mejorar el rendimiento recurriendo de forma drástica a la fuerza bruta, en vez de a los cambios a nivel de arquitectura.

Esa no es la mejor manera de mejorar el rendimiento de un procesador, porque dispara el consumo y el calor generado, con los problemas de estabilidad y de vida útil que esto supone para el silicio. Crear una nueva arquitectura que mejore el IPC puede hacer que un procesador rinda mucho mejor que otro a pesar de tener frecuencias mucho más bajas, una realidad que ya hemos visto en generaciones anteriores, y también en generaciones actuales.

Os pongo un ejemplo de cada. El AMD Athlon 64, con una velocidad base de 2 GHz, era capaz de ofrecer un rendimiento igual o superior al de los Pentium 4 de su generación funcionando a 3 GHz o más. En la generación actual, un Ryzen 7 7800X3D funcionando a 4,7 GHz es capaz de superar en juegos a un Intel Core i9-14900K funcionando a 5,8 GHz.

Intel Tejas y la promesa de los 7 GHz

                            Muestra del Pentium 5 fallido de Intel. (Wikipedia)

El anuncio de Intel Tejas se hizo en 2003, un momento en el que AMD le estaba ganando la partida al gigante del chip con sus Athlon 64. Los Pentium 4 trabajaban a frecuencias elevadas, pero no eran rivales para los chips de AMD, que ofrecían un valor muy superior en términos de eficiencia, y que además destacaron por ser los primeros chips de consumo general compatibles con 64 bits.

La presentación generó una gran expectación, y era lógico, porque en 2003 los procesadores estaban llegando a un pico de velocidad máxima de 3 GHz, y lo que Intel prometía era superar en más del doble esa frecuencia de trabajo.

Sobre el papel era impresionante, pero en la práctica era imposible. Si un Pentium 4 apenas podía llegar a los 3 GHz con una temperatura y un consumo elevados, ¿cómo iba a conseguir Intel lanzar un procesador capaz de llegar a los 7 GHz manteniendo un consumo y una temperatura aceptables? No había manera con los recursos de la época.

Una muestra temprana de una CPU Tejas, fabricada en el nodo de 90, podía llegar a los 2,8 GHz, pero con un TDP de 150 vatios. Estaba claro que llegar a los 7 GHz iba a ser imposible, pero Intel decidió seguir intentándolo y retrasó su lanzamiento a 2005, una fecha en la que ya carecía de sentido, porque se colocaba a las puertas de los Core 2 Duo.

En 2004 el proyecto fue cancelado, y en Intel pusieron fin a la loca era de la carrea de los GHz capitaneada por la arquitectura NetBurst, y lo apostó todo a la arquitectura Conroe, base de los Core 2 Duo y Core 2 Quad. Ya sabemos que fue un enorme éxito, y que jugó papel clave en la estandarización de la computación multihilo en el mercado de consumo general.

Intel y AMD han abandonado la carrera de los GHz

Hoy, más que nunca, está claro que los GHz no son lo más importante. Por esa razón la carrera de los GHz ya no es una prioridad. AMD ha optado por aumentar el número de núcleos, mejorar el IPC, mejorar la latencia y aumentar el tamaño de las cachés L2 y L3, y por recurrir a nuevas técnicas como el apilado de caché L3 en 3D para mejorar el rendimiento de sus procesadores, una estrategia que le ha salido redonda.

Intel también ha hecho cambios importantes en este sentido, como recurrir a un diseño híbrido y desagregado combinando diferentes arquitecturas que también han traído mejoras a nivel de IPC. El tamaño de sus cachés L2 y L3 también ha crecido, pero todavía no ha recurrido a técnicas de apilado en 3D para llegar al nivel de AMD.

Abandonar la carrera de los GHz hizo posible una enorme evolución  en el mundo de los procesadores de consumo general. Si dicha carrera hubiese continuado habría acabado lastrando los avances que realmente marcaron un punto de inflexión en el mundo de los procesadores.

En este sentido, el primer gran salto lo vimos en la llegada de las primeras CPUs de 64 bits, luego llegaron los procesadores de dos y cuatro núcleos, y a partir de ahí los diseños han ido escalando con nuevas arquitecturas y nodos de fabricación hasta llevarnos a una era en la que tenemos procesadores como los Threadripper, con hasta 96 núcleos y 192 hilos, los Intel Panther Lake, que combinan tres tipos de núcleos diferentes, y los Ryzen X3D, que integran caché L3 apilada en 3D.

Saludos.

viernes, 23 de enero de 2026

ReactOS cumple 30 años

Treinta años pueden no parecer nada (🎵qué feliz la mirada🎵) en la historia de la informática, pero en términos de desarrollo de software libre son prácticamente una eternidad. Es el caso de ReactOS, el conocido proyecto de código abierto que busca ofrecer una alternativa funcional y compatible con Windows. Un sistema operativo que, pese a las dificultades, ha logrado mantenerse vivo durante tres décadas y que hoy celebra un hito que muy pocos proyectos de su tipo pueden alcanzar.

Los orígenes de ReactOS se remontan a mediados de los años noventa, cuando varios desarrolladores retomaron la ambición del fallido proyecto FreeWin95, que pretendía clonar Windows 95. Sin embargo, ReactOS optó por un camino diferente: en lugar de replicar la interfaz de usuario, se centró en crear un núcleo (kernel) similar al de Windows NT. Esta decisión marcaría el enfoque técnico del proyecto, abriendo la puerta a una mayor compatibilidad con aplicaciones y controladores del ecosistema Windows.

Tras varios años de trabajo fragmentado y sin una base sólida, el proyecto dio un paso importante en 2003, cuando se lanzó ReactOS 0.1.0. Aquel primer hito ya era capaz de arrancar desde un CD y ofrecía una interfaz de línea de comandos básica. Desde ese momento, el proyecto empezó a ganar notoriedad, aunque también enfrentó obstáculos serios. Entre 2003 y 2006, las dudas sobre el posible uso de código propietario de Microsoft llevaron a una congelación del desarrollo y a una auditoría completa del repositorio, con el fin de evitar cualquier posible conflicto legal.

Superada esa fase crítica, ReactOS entró en una década de avances sostenidos con la serie 0.3.x, desarrollada entre 2006 y 2016. Durante este periodo se introdujeron novedades tan importantes como el soporte de red, la inclusión de un sistema de gestión de paquetes y la implementación del controlador UniATA, que permitió utilizar discos duros SATA y acceder a particiones mayores de 8 GB. Aunque ReactOS aún estaba lejos de ser un sistema operativo de uso general, su madurez técnica empezaba a consolidarse.

Desde 2016 hasta hoy, el desarrollo se ha centrado en la versión 0.4.x, que sigue siendo la rama activa del sistema. Entre sus avances destacan el soporte para depuración del kernel mediante WinDbg (cuando se compila con MSVC), la inclusión de una interfaz gráfica renovada basada en el modelo de Windows Explorer, y la mejora general del sistema en términos de compatibilidad, estabilidad y usabilidad. A pesar de su estado aún alfa, ReactOS puede ejecutar con solvencia una variedad de programas clásicos de Windows, incluyendo juegos como Hover!.

Uno de los aspectos más singulares del proyecto ha sido siempre su comunidad. En una entrada conmemorativa, el desarrollador principal Carl Bialorucki ha recordado la evolución del sistema, y ha recuperado testimonios históricos como el de Eric Kohl, autor de la primera pila de drivers de almacenamiento para ReactOS. Kohl relata cómo adaptó el command.com de FreeDOS para crear el primer intérprete de comandos del sistema, y cómo la comunidad, lejos de los egos y conflictos habituales en otros proyectos, se distinguía por su amabilidad y apertura al debate constructivo.

ReactOS ha sabido conservar esa filosofía incluso en tiempos difíciles, y ahora mira hacia el futuro con varias líneas de trabajo abiertas. Entre los proyectos en curso figuran un nuevo entorno de compilación para desarrolladores, la integración de controladores NTFS y ATA más modernos, soporte para WDDM (la arquitectura gráfica de Windows), y la implementación de ASLR tanto en el espacio del núcleo como en el espacio de usuario, lo que reforzará la seguridad del sistema.

Resulta llamativo que, pese a no haber alcanzado nunca una versión 1.0, ReactOS siga despertando interés y manteniendo una base de usuarios y desarrolladores activos. Su enfoque como “Windows libre” es tan relevante hoy como lo era en sus inicios, especialmente en un contexto donde la dependencia del software propietario sigue siendo un tema candente. Muchos usuarios valoran su capacidad de ejecutar aplicaciones y drivers de Windows sin necesidad de aceptar las condiciones de uso de Microsoft.

Treinta años después de su nacimiento, ReactOS es mucho más que una curiosidad técnica. Representa la persistencia de una visión: la de ofrecer una alternativa real, abierta y accesible al sistema operativo más extendido del mundo. Y aunque todavía quede camino por recorrer, su simple existencia es un triunfo del software libre y de una comunidad que nunca ha dejado de creer en lo que hace.

Saludos.

jueves, 22 de enero de 2026

AMD Adrenalin AI Bundle lleva la inteligencia artificial a tu PC

Hay herramientas que se afianzan con el tiempo sin necesidad de grandes titulares, sino a base de pequeñas evoluciones que van consolidando un camino. AMD Adrenalin es una de ellas. En los últimos años, su ecosistema se ha convertido en el puente natural entre el hardware Ryzen y Radeon y la experiencia del usuario, ya sea para jugar, crear o explorar nuevas tecnologías que empiezan a formar parte del uso cotidiano de un PC moderno.

Ese crecimiento progresivo también ha ido de la mano de la inteligencia artificial, una disciplina que ha abandonado hace tiempo el terreno exclusivo de centros de datos para colarse, poco a poco, en los equipos de sobremesa. La idea de entrenar modelos, generar imágenes o experimentar con LLMs desde Windows ya no es ciencia ficción, y la suite de AMD sigue moviéndose en esa dirección, ahora con más herramientas para facilitar esa transición.

Con la llegada de AMD Software: Adrenalin Edition 26.1.1, la compañía introduce un paquete opcional llamado AI Bundle, pensado para simplificar la puesta en marcha de entornos de IA en Windows. La instalación de herramientas como PyTorch, ComfyUI, Ollama, LM Studio o Amuse podía convertirse en un proceso largo y lleno de dependencias; este bundle automatiza esa complejidad y prepara un entorno funcional con apenas unos clicks, eliminando barreras técnicas que antes podían frenar a muchos usuarios.

El propósito no es reinventar el acceso a la IA, sino hacerlo más cómodo, sencillo e inmediato. PyTorch en Windows permite entrenar o ejecutar modelos directamente en el PC; ComfyUI facilita flujos visuales de generación de imágenes acelerados por la GPU; Ollama y LM Studio cubren la parte de modelos de lenguaje locales; y Amuse abre la puerta a la generación texto‑a‑imagen optimizada para hardware AMD. Todo ello unido en un instalador coherente, que evita la fragmentación habitual de este tipo de herramientas.

El AI Bundle funciona con GPUs Radeon RX 9000 y RX 7000 (a partir de la RX 7700) y con procesadores Ryzen AI Max, AI 400 y AI 300, un conjunto de hardware preparado para cargas de IA local gracias a sus capacidades conjuntas de CPU, GPU y NPU. La idea de AMD es clara: aprovechar el potencial de sus chips para ejecutar IA sin recurrir a la nube, con beneficios evidentes en privacidad, coste y control sobre los procesos.

Más allá del paquete de IA, la actualización 26.1.1 introduce soporte para nuevos títulos, incluyendo Starsand Island y la edición From the Ashes de Avatar: Frontiers of Pandora, además de ampliar la lista de procesadores Ryzen AI reconocidos en portátiles. Es una actualización que mantiene vivo el ecosistema de Adrenalin, sumando compatibilidades y refinando la plataforma sin alterar su planteamiento general.

Este movimiento encaja con la estrategia que AMD ha seguido en los últimos meses: construir un entorno cada vez más amigable para la IA local, apoyado en el avance de ROCm y en la adopción de nuevas generaciones de hardware. No es una ruptura, sino un paso más en un camino que parece definido, y que apuesta por acercar estas capacidades a un público más amplio sin complicaciones innecesarias.

Al final, la tecnología avanza a ritmos distintos según el componente, pero hay una sensación común: la IA ya empieza a ser parte natural del PC moderno. Y con esta nueva versión de AMD Adrenalin, AMD intenta que ese futuro sea más accesible, más sencillo y más cercano a los usuarios que quieren experimentar sin perderse en configuraciones interminables.

Saludos. 

miércoles, 21 de enero de 2026

Según el CEO de IA de Microsoft, tu novia basada en IA llegará en 5 años

Sabíamos que ya te habías preguntado cuándo llegaría este día, y según el CEO de IA en Microsoft, Mustafa Suleyman, tu novia, o novio, basado en IA, llegará en 5 años. Microsoft ya comienza a publicitar que la IA no es un mero chatbot, ya que este evolucionará hasta el punto de convertirse en un acompañante permanente.

Según dijo el CEO de Microsoft para IA, en un plazo de cinco años, nos encontraremos con compañeros de IA que ha catalogado como "íntimos". Evidentemente, esta definición deja más preguntas en el aire que ofrecer respuestas. Y si ya Los Simpsons han presagiado prácticamente todo el futuro, quien sabe si Futurama nos adelantó sin saberlo la llegada de las "robopilinguis".

Microsoft ya piensa en una nueva IA que no es solo "texto e imágenes": novias o acompañantes con IA

Estamos en un momento en el que la IA generativa se está enfocando más allá de generar "texto e imágenes por prompt". En concreto, como una capa que se integra en flujo de trabajo reales. Con su adopción en empresas, el trabajo repetitivo ya ha comenzado a automatizarse. Y una vez dominado este mercado, las grandes compañías ya están pensando en el siguiente paso, en "la siguiente fase" del ciclo. Y esta pasa por ofrecer más personalización, más continuidad y más presencia.

Este enfoque ya se está viendo con Microsoft Copilot, el cual está girando cada vez hacia un producto más personal. A mediados de 2025, Microsoft había anunciado su "Tu Compañero de IA". Donde, con el permiso del usuario, Copilot comenzaría a recordar detalles y preferencias para ofrecer respuestas y sugerencias más ajustadas y, por ende, más útiles.

Microsoft ya ha ido perfilando un discurso, más relajado de Mustafa Suleyman. Ha mencionado pilares para su IA conocidos como Memory (perfil y preferencias), Actions (que haga tareas por ti) y Copilot Vision (que vea todo lo que tu ves en tu móvil o PC). Un par de meses después Microsoft anunció que estaba probando Copilot Appearance. Fue denominado como un personaje o entidad visual con expresiones en tiempo real, con un sistema de voz y memoria conversacional. Ahora coge todo esto y mételo en un "cuerpo" o "presencia", pues ahí tienes a tu novia o compañero de IA "íntimo" con identidad, continuidad y señales sociales de interacción.

Este ejecutivo lleva ya algo de tiempo obsesionado con este tema

Desde octubre de 2024, Suleyman se veía muy interesado en este aspecto, incluso con una entrada en el blog de IA de Microsoft hablando de "Un compañero de IA para todos", donde plantea que Copilot debería estar “a tu lado”, entender el contexto de tu vida y recordar lo más útil. El argumento era que la experiencia importaba tanto como la tecnología.

De esta forma, este nuevo giro de los acontecimientos no es más que una versión más directa y provocadora de esa idea. Donde esa compañía deja de ser una app a tener una presencia transversal. Y claro, para que exista un “compañero íntimo”, tiene que manejar datos sensibles (desde tu rutina e intereses, hasta el estado de ánimo) y mantenerse “encendido” la mayor parte del tiempo. Es más, hasta OpenAI anunció sus planes para un ChatGPT para adultos. Y lo quieras o no, ahí hay otro mercado que poder explotar. Ahora imagina si todo ello lo lleva más allá integrando esta novia con IA en unas gafas de realidad virtual.

Para ir controlando la crítica, ya Microsoft habla de implementar controles, como un panel de usuario, y la elección de lo que recuerda y la posibilidad de desactivar la memoria. Y esto último incluso se siente más turbio en el contexto de un acompañante "íntimo". Pero quizás el mayor problema es que esto genere una mayor dependencia emocional de la que ya existe. Mucha gente está generando vínculos poco saludables con los chatbots. Ahora imagina si estos cruzan una nueva barrera. Pero si todo eso te da igual, y tu solo quieres una novia anime con IA, pues ya sabes, tienes hasta el 2031 para ir ahorrando dinero.

Saludos.

martes, 20 de enero de 2026

MSI MAG 345CQRF E20, monitor VA de 34 pulgadas con 3440 x 1440 píxeles y 200 Hz

A la hora de buscar un nuevo monitor, vamos a ver que la mayoría ofrecen prestaciones muy similares. Están los típicos que nos dan resolución Full HD y altos Hz para jugadores de videojuegos y eSports o los que ofrecen resolución 2K y 165 Hz/180 Hz que se están popularizando cada vez más. También tenemos los típicos monitores 4K 60 Hz o más, donde podemos usarlos para productividad, aunque también hay variantes con más Hz. Además de todos estos que son 16:9, tenemos los ultrawide con formato 21:9 y ahora tenemos un modelo que es bastante interesante. El monitor MSI MAG 345CQRF E20 combina una pantalla de gran tamaño, buena resolución, altos Hz y un precio económico.

Los monitores en formato 16:9 suelen ser los más vendidos, pero eso no significa que los ultrawide 21:9 sean peores. De hecho, son muy útiles para productividad, pudiendo tener un espacio de trabajo bastante más amplio, sobre todo si queremos usar varias ventanas y programas. Además de esto, con el formato ultrawide podremos jugar a videojuegos de manera mucho más inmersiva y hasta conseguir ventaja en juegos como shooters al disponer de mayor rango de visión.

MSI MAG 345CQRF E20: monitor de 34 pulgadas UWQHD con 200 Hz

La principal desventaja de los monitores ultrawide y su formato es que no es el "estándar" de la industria y hay mucho contenido está adaptado a 16:9, incluyendo juegos antiguos y películas en general. En estos casos nos va a tocar acostumbrarnos a ver bordes negros, por lo que tiene sus ventajas y desventajas. Si crees que te conviene y le sacarías más partido a uno de estos monitores, puede que te interese MSI MAG 345CQRF E20. Este forma parte de la serie económica de monitores ultrawide de MSI.

Con una gran pantalla de 34 pulgadas, una resolución de 3.440 x 1.440 píxeles y 200 Hz es comparable con monitores de gama media y hasta los de gama alta de hace poco. Dispone también de una curvatura 1000R para ser más inmersivo y eso sí, sacrifica el panel OLED típico que vemos en monitores de gama alta de este tipo. En su lugar, hace uso de un panel Rapid VA que alcanza un brillo máximo de 300 nits, más que suficiente para uso diario, pero quizá te resulta poco si lo comparas con otros monitores.

Este monitor se puede comprar en China por unos 230 dólares, pero podría salir a la venta en occidente aún más barato, por 200 dólares

Continuando con las prestaciones de este monitor, el panel Rapid VA tiene un contraste 3.500:1, promete alcanzar un 110% del umbral sRGB, tiene un tiempo de respuesta GTG de solo 0,5 ms y ofrece compatibilidad con adaptative-sync. Indican que tiene soporte para HDR10, aunque claro, con ese brillo máximo no le sacaremos mucho partido. El monitor se puede ajustar en altura de 0 a 100 mm, permite girarlo 30 grados y rotarlo entre 5 y 20 grados. En cuanto a los puertos de conectividad, dispone de HDMI 2.0b y DisplayPort 1.4a.

Como decíamos, este monitor no busca revolucionar el mercado actual a nivel de prestaciones, pero si ofrecer una gran relación rendimiento/precio, pues este está disponible ya en China por 1.599 yuanes, es decir, unos 230 dólares. Si ya este precio es bastante bueno, se estima que podría costar alrededor de 200 dólares en occidente cuando llegue próximamente.

Saludos.

lunes, 19 de enero de 2026

El AMD Ryzen 5 7500X3D es la CPU «Intel-Killer» definitiva en gaming

Siempre recomendábamos los procesadores Intel si queríamos tener el mejor rendimiento en juegos, pero AMD cambió esto por completo cuando en 2022 lanzó su Ryzen 7 7800X3D y este logró la primera posición superando a lo mejor que podía ofrecer el equipo azul. A partir de aquí, todos los intentos de Intel fueron insuficientes, pues subir la frecuencia hasta incluso a 6 GHz no logró superar en rendimiento a los procesadores con 3D V-Cache de AMD. Si bien el Ryzen 7 9800X3D y Ryzen 9 9950X3D son los más rápidos actualmente, estos son bastante caros y por tanto, veremos una alternativa más barata. El Ryzen 5 7500X3D apareció hace unos meses y ahora tenemos pruebas de su gran rendimiento en gaming en la review de QuasarZone.

En medio de la subida de precios de la RAM, los SSD y dentro de poco, las gráficas, parece que no hay nada que salve el PC de ser cada vez más caro. Si deseas ordenadores para jugar a videojuegos, quizá la mejor idea es comprar una consola, pues la PS5 Slim Digital costaba 349 euros hace poco de oferta, haciendo que esta sea mucho más accesible que un PC. En caso de que quieras un ordenador sí o sí y no quieras gastar mucho dinero, entonces te tocará ir haciendo ajustes en el presupuesto y comprar componentes que ofrezcan una mejor relación potencia/precio.

El Ryzen 5 7500X3D no destaca en benchmarks sintéticos y renderizado, pero si en rendimiento para gaming

No todo el mundo va a necesitar y aprovechar un Ryzen 7 9800X3D para un PC gaming, pues aunque es cierto que esta CPU es la más rápida en juegos, también nos sale cara, costando 450 euros como poco y a esto hay que sumarle la RAM DDR5. El Ryzen 7 7800X3D está también sobre ese rango de precio y en este caso ofrece un rendimiento algo inferior. En cambio, una CPU como el Ryzen 5 7500X3D cuesta 249 euros en Amazon y podemos encontrarlo por hasta 227 euros en Neobyte, haciendo que sea prácticamente la mitad de precio y no rinde un 50%, al menos según lo que vimos en Geekbench el pasado noviembre.

Ahora toca ver una review en condiciones que proviene de la web coreana QuasarZone, donde han hecho todo tipo de pruebas de rendimiento en un PC equipado con una RTX 5090 y 32 GB RAM. En la primera prueba podemos que no empieza muy fuerte, pues en Cinebench R23 se queda con solo 13.003 puntos en multi y 1.547 puntos en single por debajo del 5700X3D de 8 cores y del Ryzen 5 7500F de 6 cores con 14.080 puntos en multi y 1.825 puntos en single. En Blender vemos que tardando 184 segundos ocupa la última posición, mientras que el Ryzen 5 7600X tarda 159 segundos, un 15% menos. HandBrake más de lo mismo y si vemos la primera posición aquí encontramos el Core Ultra 7 265K que es más de 3 veces más rápido.

Se queda muy cerca de un Ryzen 7 7800X3D a pesar de que este cuesta el doble

Ahora pasamos a las pruebas de videojuegos a 1080p, donde este procesador realmente destaca, pues supera a todos menos al Ryzen 7 7800X3D lo que ya de por sí es una buena señal. Con una media de un 8,4% de FPS por encima del Ryzen 9600X y del 12,9% de FPS mínimos, este Ryzen 5 7500X3D es una gran opción para gaming. De hecho, el Ryzen 7 7800X3D solo es un 5% superior a este a pesar de costar el doble. Además, vemos como el 7500X3D supera a todo lo mejor de Intel incluyendo el Core i7-14700K y el Ultra 7 265K.

En juegos a 1440p ocurre algo similar y vemos que le saca un 6% y 8% al Ryzen 5 9600X e i5-14600K, respectivamente. A 4K todo está más igualado y la mejora es menor, pues aquí hablamos de un 5% sobre el 9600X. En cuanto a las temperaturas, el 7500X3D es bastante fresco con 67 grados en renderizado y 58 grados en juegos de media, aunque hay que decir que han usado una AIO DEEPCOOL LS720S ZERO DARK PRO de gama alta. En todo caso, la temperatura es inferior a la del 7600X. Esto se debe principalmente al consumo de energía, pues de media el equipo consume 180W y tiene un pico máximo de 187W en render mientras que el 7600X llega a 250W de máximo.

Con esto podemos concluir que si quieres un procesador para gaming concretamente, este 7500X3D es fantástico y rinde casi como un 7800X3D costando la mitad.

Saludos.

domingo, 18 de enero de 2026

Amazon AWS European Sovereign Cloud, infraestructura para cumplir las normativas de la UE

Imagínate que eres una empresa que gestiona a cientos o miles de trabajadores, organizaciones y/o proveedores en todo el mundo y necesitas que todo funcione bajo una misma plataforma e infraestructura. Ahí es donde entran los proveedores de servicios en la nube. Aquí tendríamos a Google Cloud que tiene aproximadamente un 11% de cuota de mercado, Microsoft Azure que posee alrededor del 20% de cuota de mercado y Amazon AWS con casi un 33% de cuota de mercado. Con Amazon AWS como líder, le conviene cumplir con la normativa de la UE para evitar problemas y ahí es donde entra su European Sovereign Cloud.

Amazon no solo es conocida por ser la tienda de comercio electrónica más grande del mundo, pues también vende sus propios dispositivos, dispone de una popular plataforma de streaming y servicios de computación en la nube. Respecto a la plataforma de streaming todos sabemos que es Amazon Prime y al estar suscritos a su servicio Premium tendremos tanto los envíos gratuitos como juegos gratis y la posibilidad de ver series y vídeos ahí. En cuanto a sus dispositivos ya todos conocemos el Kindle por ser archiconocido por lectores, los TV Stick para convertir televisores en Smart TV o sus dispositivos Echo.

Amazon AWS lanza su European Sovereign Cloud, la infraestructura en la nube que cumple la exigente normativa europea

Amazon Web Services (más conocido como AWS) corresponde al servicio de computación en la nube que usan millones de clientes de todo el mundo ubicados en más de 190 países y alojando más de 50 millones de sitios web. Ahora AWS ha decidido desplegar su "Nube Soberana Europea", la European Sovereign Cloud que abarcará una infraestructura en la nube para todos los países de la UE.

Esta infraestructura va por separado de la que opera la empresa y se ha diseñado para cumplir con las leyes y normativas que exige la Unión Europea. De hecho, han llegado hasta el punto de separarla física y lógicamente del resto de territorios. Si vamos a la web de Amazon de la noticia podremos ver las ubicaciones donde se encontrará esta nueva nube, viendo así que se instalará en Alemania y más o menos en el mapa vemos que coincide en la zona donde se encuentra Berlín y el norte de Brandemburgo.

AWS se compromete a dar un control total sobre la privacidad de los datos a las empresas europeas

La European Sovereign Cloud se convierte así en la única nube que tiene la capacidad de operar de forma independiente y disponga de controles técnicos, "garantía soberana" y protección legal. Todo esto forma parte del plan de Amazon de poder ofrecer sus servicios al sector financiero, sanitario y gubernamental prometiendo seguridad y privacidad. Este proyecto ha requerido una inversión de 7.800 millones de dólares y se espera que aporte 17.200 millones a la economía europea en 2040 a la vez que genera 2.800 puestos de trabajo en las empresas locales.

Amazon se ha tomado las cosas muy en serio y en su web anuncia que busca satisfacer los más estrictos controles y requisitos de las empresas europeas. El control total para los clientes es la prioridad de AWS y estos podrán saber como se almacenan y quién tiene acceso a ellos. Aquí ofrece distintas opciones para controlar el cifrado de datos e incluso es posible implementarlo de forma de que solo el cliente puede acceder y AWS no.

Saludos.

sábado, 17 de enero de 2026

Cómo usar la memoria virtual para superar el abuso de precio de la RAM

La memoria virtual puede ser un punto de apoyo en un momento donde actualizar equipos para incrementar la capacidad de la memoria RAM física se está imponiendo imposible por el disparatado aumento de su precio. En este práctico te contaremos las ventajas de esta función, sus carencias y la manera de gestionarla.

Ya sabes que la insaciable IA sigue acaparando recursos como si no hubiera un mañana… Los centros de datos para IA, en construcción o proyectados, tienen un tamaño colosal con presupuestos de centenares de miles de millones de dólares. Los grandes hiperescaladores están realizando pedidos de componentes en número nunca vistos. Y pagan lo que haga falta. Simplemente, la electrónica de consumo no puede competir en esa guerra de dominio de la IA.

La situación afecta especialmente a las memorias informáticas. Y ello quiere decir que afecta a casi cualquier tipo de dispositivo electrónico. Aunque las memorias de los servidores son distintas a las del mercado de consumo, los grandes proveedores están trasladando su producción a ellas por su gran rentabilidad y el resultado es el que conoces: falta de suministro y alarmante subida de precios, especialmente de los módulos de RAM.

Entendiendo el funcionamiento de la memoria virtual

Un PC estándar cuenta con dos tipos de memoria física. La que proporciona los discos duros o SSD utilizadas para almacenamiento masivo de datos y la memoria RAM, mucho más rápida pero de menos capacidad y volátil (los datos se borran cuando se apaga el PC), que funciona como un área de trabajo para el sistema, aplicaciones y archivos que tengamos abiertos.

La memoria virtual (conocida en Windows como ‘archivo de paginación’ o ‘archivo de intercambio’) se coloca en medio de las memorias físicas y, básicamente, proporciona una expansión temporal de la memoria RAM utilizando una parte de la capacidad del disco duro o unidad de estado sólido.

Dicho lo anterior puede entenderse que este tipo de memoria está especialmente indicada en equipos con poca RAM o para tareas que la agote rápidamente, ya que cuando ello sucede, una parte de los datos se trasladan al archivo de intercambio creado por la memoria virtual.

Hay que insistir en que la memoria virtual es más lenta que la memoria física RAM, funciona de apoyo, pero no puede reemplazarla para lo básico. La memoria RAM es un componente fundamental de cualquier ordenador personal y sus características de velocidad, latencia y capacidad marcan el nivel del equipo, por lo que hay que contar con un mínimo para funcionar, según el tipo de tarea.

Sin embargo, en un escenario de precios disparados, si usas equipos con poca RAM para la media actual (8 GB o inferiores) y no te llega el presupuesto para comprar RAM física, la memoria virtual puede ser de utilidad para capear el temporal.

Cómo se gestiona la memoria virtual en Windows

Técnicamente, en sistemas Windows, la memoria virtual emplea un archivo de paginación en la unidad de almacenamiento llamado pagefile.sys, que se encuentra ubicado de manera oculta en la raíz del sistema. Hay que decir que esta característica también existe en otros sistemas operativos como Linux y su funcionamiento y objetivo es conceptualmente el mismo, mediante una partición de intercambio, comúnmente llamada swap, que se encarga de dar apoyo a la RAM cuando esta empieza a agotarse, aunque también es posible que sea usada como caché de datos.

El uso de la memoria virtual está automatizado y comienza, como decíamos, cuando agotamos la cantidad de memoria RAM física disponible. Sin embargo, el usuario puede personalizarlo y para el caso que nos ocupa incrementar la cantidad de memoria virtual que utiliza su PC, como veremos a continuación.

Centrándonos en Windows, la gestión de esta característica se mantiene en el Panel de control del sistema y funciona de la misma manera en Windows 10 o Windows 11. El objetivo es incrementar la memoria virtual hasta una cota que nos permita usarla cuando la RAM se agote, pero sin pasarnos para no reducir en exceso el rendimiento. Puedes acceder de la siguiente manera:

  • Pulsa con el botón derecho del ratón sobre el botón de inicio.

  • Pulsa sobre Sistema y ahí en Opciones de configuración relacionadas > Configuración avanzada del sistema.

  • Pulsa sobre el botón Configuración de la pantalla Rendimiento.
  • Ve a Opciones avanzadas y ahí verás la Memoria virtual.
  • En el botón Cambiar podrás establecer el tamaño del archivo de paginación en cada una de las unidades/particiones de almacenamiento o si prefieres que el sistema operativo lo gestione por sí mismo.

Para el caso de uso que nos ocupa, en equipos con poca RAM, la idea sería incrementar la memoria virtual en cantidades hasta el triple de la cantidad de RAM que tengas instalada.

Hay que decir que, para casos más extremos de falta de RAM y de almacenamiento, incluso se puede usar la técnica de memoria virtual desde un pendrive o unidad externa USB. Se realiza con la herramienta ReadyBoost que se estrenó en Windows Vista y lo que hace es almacenar datos en esas unidades.

Insistimos en que esta característica no es la panacea, no puede reemplazar a la memoria física y solo puede usarse de apoyo. Hay que entender que se trata de un «parche» inteligente y automatizado para que un PC pueda seguir funcionando cuando se agote la RAM. De hecho, el uso de estas funciones ‘virtuales’ había quedado prácticamente aparcada por el aumento de la capacidad media de la RAM instalada y las grandes prestaciones de las SSD frente a los discos duros. Pero en este escenario de precios, terrible para el segmento cliente, cualquier ayuda será bienvenida.

Saludos.

viernes, 16 de enero de 2026

Posibles especificaciones y fecha de lanzamiento de las GeForce RTX 60

NVIDIA trabaja en las GeForce RTX 60, su próxima generación de tarjetas gráficas para gaming. Su lanzamiento se esperaba para finales de 2026 o principios de 2027, pero la crisis que vive el mercado de la DRAM ha obligado a NVIDIA a posponer su lanzamiento, y esto ha generado mucha incertidumbre.

Todavía no hay información oficial, pero gracias a nuevas filtraciones que vienen de fuentes fiables tenemos una idea bastante clara de cuándo podrían llegar al mercado, y también de sus posibles especificaciones.

En este artículo vamos a compartir con vosotros una recopilación de toda la información que tenemos hasta el momento sobre las GeForce RTX 60, limitándonos únicamente a aquella que procede de fuentes que han demostrado ser fiables con los aciertos que han conseguido en ocasiones anteriores.

Arquitectura y especificaciones de las GeForce RTX 60

Se rumorea que NVIDIA va a utilizar la arquitectura Rubin en las GeForce RTX 60. Esta arquitectura está especialmente diseñada para IA, así que podemos esperar que las GPUs utilizadas en esas tarjetas gráficas tengan cambios importantes para adaptarlas a las necesidades particulares que tiene un PC para gaming.

Las GeForce RTX 50 utilizaron el nodo de 5 nm de TSMC. Para conseguir un salto importante con las GeForce RTX 60 se debería utilizar el nodo de 3 nm de TSMC. Este nodo permitirá reducir el tamaño de los transistores, aumentar la densidad de estos y mejorar la relación de rendimiento por vatio consumido.

Todas las especificaciones que vamos a ver a continuación son una estimación realizada sobre la filtración reciente que ha publicado RedGamingTech. Este medio ha compartido la cantidad de unidades SM que podría tener cada una de las cinco GPUs que podría utilizar NVIDIA.

Como sabemos que cada unidad SM de NVIDIA tiene 128 shaders, 4 unidades de textura, 4 núcleos tensor y un núcleo RT he podido deducir las especificaciones completas de cada núcleo gráfico. Tened en cuenta que las especificaciones se corresponden con la configuración de cada núcleo gráfico completo, y que los modelos finales utilizados en las GeForce RTX 60 podrían traer recortes considerables.

Posibles especificaciones de la GeForce RTX 6090

  • Núcleo gráfico GR202 en 3 nm.
  • 192 unidades SM.
  • 24.576 shaders.
  • 768 unidades de texturizado.
  • 192 unidades de rasterizado.
  • 192 núcleos RT de quinta generación.
  • 768 núcleos tensor de sexta generación.
  • Bus de 512 bits.
  • 48 GB de memoria gráfica.
  • 16 líneas PCIe Gen5.

Posibles especificaciones de la GeForce RTX 6080

  • Núcleo gráfico GR203 en 3 nm.
  • 96 unidades SM.
  • 12.288 shaders.
  • 384 unidades de texturizado.
  • 128 unidades de rasterizado.
  • 96 núcleos RT de quinta generación.
  • 384 núcleos tensor de sexta generación.
  • Bus de 256 bits.
  • 24 GB o 32 GB de memoria gráfica.
  • 16 líneas PCIe Gen5.

Este núcleo gráfico también se utilizaría, en una versión recortada, para crear la GeForce RTX 6070 Ti, que tendría menos shaders y menos memoria gráfica que la GeForce RTX 6080.

Posibles especificaciones de la GeForce RTX 6070

  • Núcleo gráfico GR205 en 3 nm.
  • 60 unidades SM.
  • 7.680 shaders.
  • 240 unidades de texturizado.
  • 80 unidades de rasterizado.
  • 60 núcleos RT de quinta generación.
  • 240 núcleos tensor de sexta generación.
  • Bus de 192 bits.
  • 18 GB de memoria gráfica.
  • 16 líneas PCIe Gen5.

Posibles especificaciones de la GeForce RTX 6060 Ti

  • Núcleo gráfico GR206 en 3 nm.
  • 48 unidades SM.
  • 6.144 shaders.
  • 192 unidades de texturizado.
  • 64 unidades de rasterizado.
  • 48 núcleos RT de quinta generación.
  • 192 núcleos tensor de sexta generación.
  • Bus de 128 bits.
  • 16 GB de memoria gráfica.
  • 8 líneas PCIe Gen5.

Esta GPU tendría una versión recortada que se utilizaría para crear la GeForce RTX 6060. Sus posibles especificaciones todavía no se han filtrado, pero podemos esperar menos de 5.000 shaders y una configuración de 12 GB de memoria gráfica, gracias al uso de chips de 3 GB.

Posibles especificaciones de la GeForce RTX 6050

  • Núcleo gráfico GR207 en 3 nm.
  • 30 unidades SM.
  • 3.840 shaders.
  • 120 unidades de texturizado.
  • 32 unidades de rasterizado.
  • 30 núcleos RT de quinta generación.
  • 120 núcleos tensor de sexta generación.
  • Bus de 96 bits.
  • 8 GB de memoria gráfica.
  • 8 líneas PCIe Gen5.

Fecha de lanzamiento: la incertidumbre de las GeForce RTX 50 SUPER

Tras el retraso de las GeForce RTX 50 SUPER, que podrían incluso acabar siendo canceladas, se ha especulado mucho con la posible fecha de lanzamiento de las GeForce RTX 60.

Como os dije al principio de este artículo se ha rumoreado la posibilidad de que sean presentadas a finales de 2026, con un lanzamiento en el primer trimestre de 2027. También se ha barajado un posible retraso por dos razones: dejar espacio para lanzar las GeForce RTX 50 SUPER y esquivar la crisis de la DRAM.

Esta última opción es la que está sonando con más fuerza, y apunta a que las GeForce RTX 60 no llegarán hasta la segunda mitad de 2027. Esto quiere decir que podrían ser presentadas a finales de 2027, y que su lanzamiento debería tener lugar también antes de terminar dicho año.

Si esto se cumple, tendremos GeForce RTX 50 para rato. Esta generación se convertirá en una de las más longevas de la historia de las tarjetas gráficas, algo que también tiene sentido, no solo por todo lo que sabemos de la crisis de la DRAM, sino también por la estrategia de AMD, y es que la compañía de Sunnyvale podría posponer el lanzamiento de sus Radeon RX 10000 (RDNA 5) hasta finales de 2027 o incluso irse a 2028.

Con todo esto en mente, es lógico que NVIDIA no tenga ninguna prisa por lanzar su próxima generación de tarjetas gráficas. No obstante, es importante que tengáis en cuenta que todavía no hay nada confirmado, y que por tanto puede que nos acabemos llevando alguna sorpresa.

Saludos.

jueves, 15 de enero de 2026

Windows 11 KB5074109, la actualización de enero de 2026 nos trae mejoras en seguridad, NPU y más

La actualización acumulativa KB5074109, publicada hace solo dos días por parte de Microsoft en silencio, marca el primer gran parche de Windows 11 de este año y eleva el sistema a las compilaciones 26200.7623 en la rama 25H2 y 26100.7623 en 24H2. No estamos ante una actualización vistosa, eso es cierto, no hay grandes “titulares”, pero sí ante una de esas entregas que ajustan cimientos internos, refuerzan seguridad y dejan pistas claras de hacia dónde está empujando Microsoft el Sistema Operativo.

Con este parche mensual sobre la mesa, la pregunta es inevitable. ¿Qué ha cambiado realmente en Windows 11 con la KB5074109 y qué implicaciones prácticas tiene tanto para usuarios avanzados como para entornos profesionales?

Microsoft lanza KB5074109 para Windows 11 y corrige una gran cantidad de pequeños y medianos problemas

Entrando en las mejoras principales, Microsoft se centra de nuevo en la calidad general del sistema y en la fiabilidad del proceso de actualización. La KB5074109 incluye correcciones acumulativas que afectan al propio Windows Update, al mecanismo de instalación de parches y a diversos componentes internos que, aunque invisibles para el usuario, son clave para la estabilidad a medio plazo. No hay nuevas funciones de interfaz ni cambios de diseño, pero sí un refuerzo del comportamiento del sistema bajo escenarios de actualización continuada.

Uno de los bloques más relevantes de esta actualización está en la seguridad. Microsoft ha comenzado a desplegar nuevos datos de certificación relacionados con Secure Boot. Este proceso se realiza de forma gradual y solo en dispositivos compatibles, con el objetivo de reforzar la cadena de arranque seguro sin introducir riesgos de compatibilidad masiva. No es un cambio inmediato ni visible, pero sí estratégico, especialmente en un contexto donde el arranque seguro se ha convertido en un pilar frente a ataques persistentes a bajo nivel.

A nivel técnico, hay un cambio importante que afecta directamente a administradores de sistemas. Windows Deployment Services modifica su comportamiento por defecto y la implementación desatendida deja de estar habilitada automáticamente. Esto obliga a revisar flujos de despliegue en entornos empresariales y educativos, ya que configuraciones que antes funcionaban sin intervención adicional ahora requieren ajustes explícitos. No es un bug, es un cambio deliberado que busca reducir configuraciones inseguras heredadas, o eso entendemos.

La actualización también incluye una puesta al día de componentes internos ligados a funciones de Inteligencia Artificial que ya forman parte del Sistema Operativo. Microsoft no detalla cambios funcionales visibles, pero sí confirma la actualización de módulos internos como los relacionados con búsqueda de imágenes y procesamiento local. Es otro indicio de que Windows 11 sigue evolucionando por debajo, incluso cuando el usuario no percibe novedades directas.

La NPU como pilar central de Windows y Copilot para con la IA: correcciones que agradecerán Intel, AMD y Qualcomm

Aquí entra el único cambio explícito relacionado con la NPU. La KB5074109 corrige un problema de gestión energética por el que la NPU podía permanecer activa cuando no estaba en uso, provocando un consumo innecesario y una merma de autonomía en equipos compatibles. No hay nuevas funciones, no hay mejoras de rendimiento ni cambios en capacidades de IA. Es un arreglo de power management que asegura que la NPU entre correctamente en estados de bajo consumo cuando está inactiva, algo especialmente relevante en portátiles con hardware orientado a IA local.

Como suele ocurrir, la KB5074109 no llega sin problemas conocidos, que también hay que hablar de ellos puesto que tienen que ser subsanados en el futuro. Microsoft reconoce oficialmente un fallo visual en la pantalla de bloqueo que puede provocar que el icono de contraseña no se muestre correctamente. El acceso sigue funcionando, pero la ausencia del icono puede generar confusión, especialmente en entornos compartidos o corporativos. De momento no hay solución definitiva, solo la confirmación del problema.

Además, aunque no figuran como incidencias oficiales, se están reportando casos aislados tras la instalación del parche. Algunos usuarios mencionan comportamientos anómalos con monitores secundarios y otros apuntan a problemas con nombres personalizados de carpetas en el Explorador de archivos. Son reportes limitados, menores y no confirmados, pero conviene tenerlos en el radar si se gestiona un parque amplio de equipos, algo normal en los administradores de sistemas.

En conjunto y para terminar, la KB5074109 es una actualización continuista pero relevante. Refuerza seguridad, ajusta comportamientos internos y deja claro que Microsoft sigue priorizando la robustez del sistema frente a cambios llamativos, es decir, van por el buen camino tras estar dando bandazos de acera a acera en 2025. Es la segunda buena noticia tras la posibilidad de desinstalar Copilot como IA en Windows 11. ¿Está virando Microsoft hacia el sendero correcto en este 2026? Es pronto para decirlo.

Saludos.