viernes, 10 de abril de 2026

Así es el NVIDIA N1X para portátiles, una placa base de ingeniería y 128 GB LPDDR5X a 8.533 MT/s

NVIDIA ha visto como se ha filtrado una placa base de ingeniería con su SoC NVIDIA N1X, el cual está destinado a una nueva generación de ordenadores portátiles Windows 11 con IA. Lo que se filtró en imágenes es el chip NVIDIA N1X rodeado por ocho módulos de memoria LPDDR5X SK Hynix para sumar un total de 128 GB de capacidad. Además de un diseño donde la placa base incluye dos ranuras para SSD M.2 2240, Wi-Fi integrado y puertos como USB, USB-C, HDMI y jack de audio. Este se dejó ver en una tienda de segunda mano china listado a un precio al cambio de 1.250 euros.

Estamos ante una muestra temprana, pero deja una pista bastante importante. Y es que, según los rumores, sería en junio cuando NVIDIA anuncie estos chips, concretamente en la Computex 2026, que arrancará el 2 de junio. También será interesante si a raíz de aquí estaremos a pocos días o semanas de tener las primeras pruebas de rendimiento ligadas a algún benchmark utilizado por los propios desarrolladores para conocer el desempeño de su creación.

La filtración sugiere que NVIDIA ya tendría hardware real en fase de validación

La filtración encaja bastante bien con lo que ya sabíamos del proyecto. Desde junio de 2024 conocemos que NVIDIA estaba trabajando en chips Arm para ordenadores Windows. Para logarlo, había anunciado una alianza formal con MediaTek. Por lo que hablamos un chip que está desarrollado de forma conjunta por MediaTek y NVIDIA. Hay que recordar que tendremos dos SoC: el NVIDIA N1 y una variante de alto rendimiento conocida como N1X. Esta filtración no es más que una evidencia física de que el hardware ya está listo para comenzar las validaciones y las pruebas de rendimiento.

Sobre el calendario de lanzamiento, según los últimos rumores se habla de que los primeros ordenadores portátiles con el SoC NVIDIA N1 llegarían a finales de 2026. Otros reportes apuntaban a que Dell y Lenovo serían los primeros fabricantes en integrar los chips NVIDIA N1/N1X. Lo único que sabemos oficialmente, es que Jensen Huang, CEO de NVIDIA, confirmó que NVIDIA volverá a la Computex de 2026, y que la compañía tiene “muchos anuncios” preparados allí. Eso hace que la Computex sea una candidata perfecta para enseñar estos chips, pero NVIDIA no ha dicho oficialmente que el N1 vaya a presentarse allí.

Más allá del diseño y placa base que acompaña NVIDIA N1 & N1X, esto es lo que conocemos de ellos

El SoC NVIDIA N1 es un modelo de bajo consumo diseñado para equipos portátiles asequibles de larga autonomía y con IA. Se trata de una versión recortada del N1X, del que sí hay mucha más información. Este SoC está orientado a ofrecer alto rendimiento. Para ello recurrirá a un procesador con 20 núcleos basados en la arquitectura Arm junto a una potente tarjeta gráfica integrada NVIDIA GeForce RTX. Esta gráfica estaría basada en la arquitectura Blackwell en una configuración de 6.144 CUDA Cores. Este es el mismo número de núcleos que posee una NVIDIA GeForce RTX 5070. Ahora bien, el rendimiento final dependerá de las frecuencias que sea capaz de alcanzar este chip.

El SoC NVIDIA N1X está diseñado para soportar hasta 128 GB de memoria RAM LPDDR5X a 8.533 MT/s que se usa de forma compartida. Tendría una interfaz de memoria de 256 bits y alcanzaría un ancho de banda de 273 GB/s. Respecto al consumo energético, se habla de un TDP de 140W. Respecto a la IA, integraría una NPU junto a las capacidades avanzadas de los gráficos NVIDIA para marcar la diferencia respecto a su competencia.

Hasta ahora se ha podido ver esta GPU funcionar en una fase muy temprana a una velocidad de apenas 1.048 MHz arrojando un rendimiento de 46.361 puntos en el benchmark OpenCL de Geekbench. Esto le sitúa al nivel de una GeForce RTX 4060 Ti de sobremesa o una RTX 4080 Laptop. A nivel de rendimiento de la CPU, viene a equipararse a un AMD Ryzen 7 9800X3D en Geekbench.

Saludos. 

jueves, 9 de abril de 2026

Especificaciones de las GeForce RTX 6090, GeForce RTX 6080 y GeForce RTX 6070

Se han filtrado las posibles especificaciones de las GeForce RTX 6090, GeForce RTX 6080 y GeForce RTX 6070 de NVIDIA, tres tarjetas gráficas que estarán basadas en la nueva arquitectura Rubin, y cuyo lanzamiento se espera para algún momento de 2027.

Estas especificaciones son parecidas a las que habíamos visto en filtraciones anteriores, y la verdad es que me resultan chocantes porque mantienen el mismo conteo de shaders que hemos visto en las GeForce RTX 5090, GeForce RTX 5080 y GeForce RTX 5070.

Esto no tiene por qué ser un problema, ya que el rendimiento de una tarjeta gráfica va más allá de su número total de shaders y depende de otros factores, pero sí que es cierto que me sorprendería que NVIDIA no aumentase en absoluto el número de shaders en esas tres tarjetas gráficas con respecto a los modelos equivalentes dentro de la serie GeForce RTX 50.

Con todo, hay que tener en cuenta que las especificaciones de las GeForce RTX 60 todavía no han sido confirmadas oficialmente, y que por tanto la información que vamos a ver en este artículo debe ser tomada como un rumor, tal y como indicamos en el título.

Especificaciones de la GeForce RTX 6090

  • Núcleo gráfico GR202 fabricado en 3 nm.
  • 21.760 shaders a 2,3 GHz-2,7 GHz, modo normal y turbo.
  • 680 unidades de texturizado.
  • 176 unidades de rasterizado.
  • 680 núcleos tensor de sexta generación.
  • 170 núcleos RT de quinta generación.
  • Bus de 512 bits.
  • 32 GB de memoria GDDR7 a 28 Gbps.
  • Ancho de banda de 1,79 TB/s.
  • 96 MB de caché L2.
  • Potencia en FP32: 117,5 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 525 vatios.

Especificaciones de la GeForce RTX 6080

  • Núcleo gráfico GR203 fabricado en 3 nm.
  • 10.752 shaders a 2,3 GHz-2,8 GHz, modo normal y turbo.
  • 336 unidades de texturizado.
  • 112 unidades de rasterizado.
  • 336 núcleos tensor de sexta generación.
  • 84 núcleos RT de quinta generación.
  • Bus de 320 bits.
  • 20 GB de memoria GDDR7 a 30 Gbps.
  • Ancho de banda de 1,2 TB/s.
  • 64 MB de caché L2.
  • Potencia en FP32: 60,21 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 350 vatios.

Especificaciones de la GeForce RTX 6070

  • Núcleo gráfico GR205 fabricado en 3 nm.
  • 6.144 shaders a 2,4 GHz-2,6 GHz, modo normal y turbo.
  • 192 unidades de texturizado.
  • 80 unidades de rasterizado.
  • 192 núcleos tensor de sexta generación.
  • 48 núcleos RT de quinta generación.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR7 a 28 Gbps.
  • Ancho de banda de 896 GB/s.
  • 48 MB de caché L2.
  • Potencia en FP32: 31,95 TFLOPs.
  • PCIe Gen5 x16.
  • TGP de 225 vatios.

Las últimas informaciones que hemos visto indican que, gracias a las mejoras que introducirá NVIDIA a nivel de arquitectura en las GeForce RTX 60, estas rendirán entre un 30% y un 35% más que las GeForce RTX 50 en rasterización, y serán el doble de potentes en trazado de trayectorias.

También es muy probable que NVIDIA aproveche el lanzamiento de las GeForce RTX 60 para introducir nuevas tecnologías exclusivas enfocadas al renderizado neural, y para mejorar el rendimiento trabajando con este tipo de renderizado. Estoy bastante seguro de que DLSS 5 será una tecnología que funcionará mejor en las GeForce RTX 60, aunque será compatible con las GeForce RTX 50.

Cómo se comparan con las GeForce RTX 5090, GeForce RTX 5080 y GeForce RTX 5070

La GeForce RTX 5090 tiene también 21.760 shaders, pero está fabricada en el nodo de 5 nm de TSMC y tiene una velocidad de trabajo más baja, lo que hace que su potencia en FP32 sea de 104,8 TFLOPs. Su bus también es de 512 bits, y tiene 32 GB de GDDR7 con el mismo ancho de banda.

Cambios en la GeForce RTX 6090

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Menor TGP.

La GeForce RTX 5080 tiene 10.752 shaders, está fabricada en el nodo de 5 nm de TSMC y su frecuencia de trabajo también es inferior, por lo que su potencia en FP32 es de 56,28 TFLOPs. Tiene un bus de 256 bits y 16 GB de memoria GDDR7 a 30 Gbps.

Cambios en la GeForce RTX 6080

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Mayor ancho de banda (bus de 320 bits) y 4 GB más de memoria gráfica.
  • Menor TGP.

La GeForce RTX 5070 tiene 6.144 shaders, también está fabricada en el nodo de 5 nm de TSMC, tiene una frecuencia de trabajo ligeramente inferior, lo que hace que su potencia en FP32 sea de 30,87 TFLOPs, y viene con un bus de 192 bits acompañado de 12 GB de GDDR7.

Cambios en la GeForce RTX 6070

  • Nueva arquitectura, mayor IPC y (probablemente) nuevas tecnologías exclusivas.
  • Nuevos núcleos RT y núcleos tensor más potentes.
  • Nuevo nodo de 3 nm, que mejora la eficiencia y reduce el consumo.
  • Mayor rendimiento bruto.
  • Mayor ancho de banda (bus de 256 bits) y 4 GB más de memoria gráfica.
  • Menor TGP.

Un lanzamiento escalonado a partir de 2027

Las GeForce RTX 60 empezarán a llegar a partir de 2027, pero se producirá un lanzamiento escalonado, como ya hemos visto en generaciones anteriores. Esto quiere decir que primer llegarán las GeForce RTX 6090 y GeForce RTX 6080, probablemente entre los meses de enero y febrero de 2027, y entre marzo y abril de ese año llegaría la GeForce RTX 6070.

Las GeForce RTX 6060 Ti, GeForce RTX 6060 y GeForce RTX 6050 llegarían posteriormente. Las dos primeras deberían llegar entre mayo y junio de 2027, y la tercera llegaría en julio de 2027.

Tened en cuenta que esas fechas no están confirmadas oficialmente, son una estimación por mi parte partiendo de lo que vimos cuando se produjo el lanzamiento de las GeForce RTX 50 en 2025. Tienen sentido, pero podrían no cumplirse.

Saludos.

miércoles, 8 de abril de 2026

AMD patenta un PRF apilado para que sus futuras CPU y GPU crezcan verticalmente con 3D V-Cache

AMD ha registrado una patente hace solo unos días que, dicho de forma simple, intenta arreglar uno de esos problemas internos que no se ven en las arquitecturas, pero que pueden condicionar muchísimo cómo escala una CPU. Hablamos del PRF (Physical Register File), que es el archivo de registros físicos donde el procesador guarda los datos reales con los que trabaja mientras ejecuta instrucciones, pero ¿qué pretende ahora AMD? Pues “doblar” este PRF para poder seguir apilando capas, silicio, escalando su 3D V-Cache en las CPU AMD Ryzen.

El PRF como concepto dentro de la arquitectura de una CPU está metido en pleno corazón del núcleo, alimentando a la lógica de ejecución y recibiendo resultados de vuelta de forma constante. Por ello, lo que pretende AMD es lograr más y más chips uno encima de otros sin comprometer tres partes clave como es el consumo, el coste y la frecuencia.

AMD prepara la apilación de varios die verticales gracias a una nueva patente de PRF en CPU

La patente es bastante ambiciosa y enfrenta directamente a Intel con su Foveros 3D Direct, aunque desde el punto de vista de la arquitectura para facilitarle la vida a TSMC y no salir penalizados. Lo que debemos saber para entender la patente es que en un procesador moderno, el software no trabaja directamente con los PRF, sino con registros lógicos.

Por debajo, la microarquitectura renombra esos registros y los reparte en registros físicos para poder ejecutar más instrucciones a la vez, evitar conflictos y mantener el paralelismo interno. Cuanto mejor resuelto está ese bloque, más margen tiene la CPU para sostener un backend “ancho” y una ejecución Out-of-Order más ambiciosa. El problema aparece cuando quieres hacerlo crecer: el PRF ocupa más, las rutas se alargan y algunas posiciones quedan más lejos de la ALU, lo que puede empeorar el peor camino de señal.

¿Cómo piensa solucionar AMD esta papeleta para poder escalar en caché vertical?

La idea de AMD en esta patente pasa por un “Folded Register File”. No se trata de doblarlo físicamente como una hoja, sino de dividirlo en 2 o más partes y repartir esas porciones entre distintos dies apilados. Esas partes mantienen una organización simétrica y se acceden mediante un esquema de dirección con lane, donde un bit extra o varios bits extra indican en qué die está el dato.

Con 2 porciones bastaría 1 bit; con 4, 2 bits, y así sucesivamente. La gracia del planteamiento es que permite aumentar capacidad sin convertir el PRF en un bloque plano enorme y cada vez más incómodo de manejar. Es, en cierta medida, una solución parecida a lo que hicieron con la L3.

En CPU, esto puede traducirse en más registros físicos, más instrucciones vivas y más margen para núcleos de mayor tamaño sin que la latencia del PRF se convierta en una losa. También puede ayudar a que la frecuencia no choque tan pronto contra límites físicos del layout. En GPU, aunque la patente no habla de un producto concreto, la lectura es bastante más simple: un archivo de registros más escalable puede aliviar la presión de registros en Shaders y cargas de computación pesadas, algo clave para ocupación y paralelismo.

Lo importante aquí es que AMD no está vendiendo una función vistosa, sino trabajando en un cuello de botella muy de fondo, y es, al mismo tiempo, la respuesta directa a Intel bLLC con Nova Lake.

Saludos.

martes, 7 de abril de 2026

Microsoft cambia las reglas del kernel en Windows 11 y discriminará los drivers antiguos

Microsoft ha movido una pieza importante, clave, en Windows 11, y esta vez no hablamos de un rumor, por desgracia. Lo último de los de Redmond es que, desde la actualización de abril de 2026, Windows 11 deja de confiar por defecto en los drivers antiguos de kernel firmados con el antiguo programa de cross signing. Esto, que parece trivial y algo menor, es realmente un problema para miles de usuarios y empresas.

Dicho de forma simple, Microsoft empieza a cerrar la puerta a una vía heredada que durante años permitió cargar drivers sin pasar por el proceso moderno de validación WHCP. Eso no significa que de la noche a la mañana vayan a dejar de funcionar todos los drivers antiguos, tranquilo, relax (de momento) pero sí que cambia la base de confianza del sistema.

Windows 11 dejará atrás los drivers antiguos a partir de ahora tras la actualización de abril

Lo relevante aquí no es solo el qué, sino el cómo. Microsoft no ha planteado un corte seco desde el primer parche, pero ha explicado que el despliegue comienza en modo de evaluación con la actualización de abril de 2026, de manera que el kernel monitoriza y audita qué drivers se cargan antes de activar el bloqueo de forma más estricta.

Eso reduce el riesgo de romper equipos que todavía dependan de algún componente legacy, sobre todo en entornos donde siguen apareciendo piezas muy antiguas o drivers internos poco actualizados, o directamente sin actualizar.

La medida afecta, o afectará, a Windows 11 24H2, 25H2 y 26H1, además de Windows Server 2025, así que en el futuro con el supuesto Windows 12 esto será la norma. Microsoft, eso sí, lo presenta como un cambio de seguridad de base: a partir de ahora, la ruta estándar para que un driver de kernel sea aceptado pasa por el programa Windows Hardware Compatibility Program (WHCP).

Las fases no van a impedir que muchas empresas y usuarios se vean afectadas

En paralelo, la compañía mantiene una “allow list” con un número limitado de drivers antiguos considerados “reputados”, precisamente para evitar que la transición reviente compatibilidades críticas en sistemas reales. Spoiler: no lo van a conseguir, y llegarán los problemas, sobre todo en las pequeñas empresas.

Aquí está la clave del asunto. Microsoft no está diciendo que todo lo viejo sea “malware” por pura obsolescencia, pero sí que el viejo modelo de confianza ya no le vale. Un driver de kernel opera en la parte más sensible del sistema, así que permitir que siga entrando software firmado bajo un esquema heredado abre una superficie de riesgo que Microsoft quiere recortar, “por seguridad”.

Por eso también enlaza este cambio con “App Control for Business”, que en estas versiones ya soporta este nuevo tipo de política de confianza del kernel y permite gestionar excepciones o firmantes personalizados en casos corporativos muy concretos. ¿Realmente piensan que, incluso grandes empresas, van a darle soporte a base de drivers firmados a hardware o periféricos de hace 20 años? Parece buena la intención, poco realista, eso sí.

En resumen, lo que está pasando es bastante claro: Microsoft no ha rescatado un debate antiguo para rellenar titulares, sino que ha activado ahora una fase nueva y práctica de una transición que llevaba años cocinándose a fuego lento, y ha llegado. El cambio es actual, oficial y con fecha concreta donde Windows 11 dejará de soportar esos drivers antiguos de los que habla Microsoft. Lo que faltará por ver es cuántos equipos, hardware y periféricos siguen dependiendo de ese pasado más de lo que parecía.

Saludos.

lunes, 6 de abril de 2026

Disney está interesada en comprar Epic Games

Epic Games está en horas bajas, como ocurre con la mayoría de los estudios de videojuegos, grandes y pequeños. La semana pasada trascendió que iba a despedir a mil empleados, por lo que como suele ocurrir en estos casos, los peces grandes se comen a los chicos. Disney estaría esperando su oportunidad para hacerse con Epic Games, lo cual supondría una curiosa reconfiguración del sector de los videojuegos.

A pesar de la caída de Fortnite, el otro negocio de la compañía es el motor Unreal. Eso ha provocado colaboraciones con la propia Disney, con una inversión de 1500 millones de dólares para fortalecer sus estudios de efectos especiales a través de un porcentaje de Epic Games que sería en torno al 10 %.

Bueno, ese dinero también es para una zona temática de Fortnite en los parques de Disney, y un universo persistente de Disney en Fortnite. Quizás para atraer a los jóvenes que detestan la mierda despiertita que ha hecho Disney durante años, una jugada que le ha salido fatal y ha dejado películas de animación y series realmente horribles. Sea como sea, la colaboración de Epic Games y Disney se va fortaleciendo. Así que entre unas cosas y otras, no sería raro que Disney terminara adquiriendo Epic Games.

Vía: WCCFTech.

Saludos. 

domingo, 5 de abril de 2026

Cómo conectar un portátil a un monitor y aprovechar sus ventajas

Conectar un portátil a un monitor es una buena manera de mejorar sus capacidades cuando trabajamos en el escritorio informático. Hoy repasaremos sus ventajas y casos de uso, las maneras de conectar estos periféricos y su gestión en sistemas operativos Windows.

Ya sabes que los portátiles son los dispositivos más vendidos del gran grupo de ordenadores personales. Su gran atracción se explica principalmente por su enorme versatilidad, ya que permiten trabajar en movilidad, transportarlos fácilmente y usarlos indistintamente en el hogar o en el trabajo. Aunque se puede trabajar con ellos de manera independiente, cuando estamos en el escritorio hay periféricos adicionales con los que mejorar las prestaciones de un portátil en cualquier tarea informática. Un caso típico es un ratón, más cómodo que un TouchPad. Y otro es el que nos ocupa: conectarle una pantalla adicional.

Casos de uso de la multipantalla

Si no tienes un ordenador de sobremesa y solo usas un portátil para todo, ya sabrás de su capacidad para unir lo mejor de los dos mundos, movilidad y escritorio. En estos casos, su conexión a un monitor o a un sistema de múltiples monitores es una opción excelente. Todos los sistemas operativos lo soportan y es seguro que tu equipo portátil (aunque sea antiguo) contará con los puertos necesarios para realizar la conexión. Algunos ejemplos de interés que podemos citar:

  • Profesionales de la edición de imagen, vídeo, audio o CAD que necesiten utilizar varias herramientas al mismo tiempo.
  • Programadores que necesiten ver el código en una pantalla con la otra reservada para la documentación.
  • Traductores que requieran varias pantallas de documentos abiertos.
  • Tareas financieras que requieran varias hojas de cálculo abiertas o visualización de cotizaciones bursátiles en directo.
  • Colaboración con videoconferencia en la pantalla adicional.
  • Juegos en doble pantalla, para chatear con los compañeros de un equipo, ver o hacer streaming en Twitch, etc.
  • En general, cualquier usuario que desee ver un contenido adicional mientras trabaja, sea un streaming o página web, o quien necesite mantener una pantalla fija en el escritorio.
Cómo conectar un monitor a un portátil

Decir antes de empezar que nos vamos a centrar en monitores informáticos para este tipo de conexiones, si bien también podríamos utilizar otro tipo de pantallas de visualización como televisores. Aquí hay que hacer las salvedades conocidas, un televisor no suele ofrecer la calidad de un monitor en resolución, tasa de refresco y otros parámetros. Sí se puede usar para ver contenido multimedia que saquemos desde el portátil a modo de streaming.

Cualquier ordenador portátil, por viejo que sea, incluye una o varias salidas de vídeo para poder conectarlo a una pantalla externa. Los más antiguos contarán al menos con un puerto analógico VGA u digitales como DVI (ambos en fase de extinción) o los más extendidos, HDMI o Display Port.

En cuanto a los portátiles (convertibles - 2 en 1 - detachables) más modernos, seguramente cuenten con un conector USB Tipo-C con interfaces Thunderbolt, el puerto perfecto para conectar uno o varios monitores ya que además de un enorme rendimiento, ofrece en un solo cable vídeo, audio, transmisión de datos y energía, además de compatibilidad con soportes nativos DisplayPort, HDMI 2 y USB 3.0.

La conexión a un monitor o múltiples monitores dependerá de ese tipo de conexiones, aunque la industria ofrece múltiples adaptadores y conversores para facilitarlas. Hay cableado VGA y DVI, macho o hembra, o los que convierten a HDMI para el portátil. Con ellos se puede conectar prácticamente cualquier monitor, aunque una mejor interfaz te ofrecerá mayor calidad de imagen y resolución. El cableado de conexión tiene un precio muy económico y será altamente rentable usarlo para conectar el portátil.

Otra opción que se utiliza mucho en ámbitos profesionales son las bases de expansión. Hay dedicadas para modelos particulares de un fabricante y hay otras generales a las que se pueden conectar monitores y otros periféricos. Las más avanzadas cuestan bastante más que un cable o conversor, pero puedes comprar una estándar desde una veintena de euros. Ofrecen bastantes opciones de conectividad y si trabajas habitualmente con el portátil en el escritorio es una gran opción.

Para finalizar, decir que no hace falta que el monitor que utilices sea ni nuevo ni de última generación y para empezar, puedes aprovechar cualquiera que tengas aparcado en casa o en el trabajo. Alta rentabilidad a bajo coste.

Gestión en Windows

Aunque todos los sistemas operativos modernos (Linux, macOS…) ofrecen soporte para estos usos, los últimos sistemas operativos de Microsoft facilitan enormemente la conexión a pantallas externas. Es tan simple como conectar tu portátil a un monitor en su respectivo puerto para que Windows extienda su escritorio. Además, ofrece otras configuraciones interesantes.

Para acceder a ellas conecta el equipo a una pantalla de visualización externa y pulsa el atajo de teclado “Windows + P”.

Verás cuatro opciones que se explican solas:

  • Sólo pantalla del PC : Windows sólo utilizan el monitor principal. El resto no se utilizan.
  • Duplicado : Windows mostrará la misma imagen en todos los monitores. Útil, por ejemplo, para una presentación.
  • Ampliar : Windows ampliará y extenderá el escritorio, lo que ofrece otra u otras pantallas para trabajar.
  • Sólo segunda pantalla : Windows apagará la pantalla principal y sólo utilizará la pantalla secundaria.

Para configurar las pantallas en Windows 10, accede a la herramienta de Configuración>Sistema>Pantalla o haz clic derecho en el escritorio y selecciona «Configurador de pantalla». Ahí puedes gestionar la identificación de cada pantalla conectada, elegir su orientación, el nivel de escala para cada una de ellas o establecer la principal:

El sistema también permite ampliar la barra de tareas de Windows a través de múltiples monitores, accediendo a  Configuración> Personalización> Barra de tareas:

La gestión de la multipantalla también se puede realizar en el software servido por los proveedores de chips gráficos, donde se pueden configurar sus parámetros de actuación. NVIDIA, Intel y AMD lo ofrecen en sus aplicaciones y drivers. Para el usuario que necesite mayor control y funciones, pueden usarse aplicaciones de terceros y como ejemplo, citar Universal Split Screen enfocada a juegos o la más profesional DisplayFusion.

En cualquier caso, te sirve con Windows (u otro sistema operativo) y un simple cable para conectar un portátil a un monitor y trabajar con la multipantalla, como habrás visto ideal para mejorar la productividad en el escritorio, permitiendo trabajar con un mayor número de aplicaciones, ventanas abiertas y tareas; ampliar la capacidad de visualización y mejorar la comodidad de uso.

 Saludos. 

sábado, 4 de abril de 2026

Ubuntu Linux 26.04 LTS sube un 50% los requisitos de RAM en el peor momento

Con el paso de los años, los PC son cada vez más potentes, pero también aumentan los requisitos de programas, juegos y hasta para el sistema operativo. Con los precios tan altos de la memoria RAM lo que menos queremos es tener que comprar más memoria ahora. Por eso nos ha resultado extraño que la popular distro de Linux Ubuntu haya decidido lanzar la versión 26.04 LTS pidiendo 6 GB de RAM para llegar a los requisitos mínimos.

Si tenemos un PC de sobremesa o portátil ya con bastantes años a sus espaldas, ponerle Windows 11 puede que sea una mala idea. Este sistema operativo pide más requisitos que Windows 10 y no va a ir más rápido o mejor. De hecho, si el ordenador tiene bastantes años y está limitado en hardware se recomienda pasarse a Linux. Por norma general, este sistema operativo consume menos recursos y suele ir mejor, pero como ya sabes, hay decenas de distros disponibles. A la hora de elegir una distro de Linux, va a depender de nuestras preferencias. Hay algunas que están optimizadas para gaming como Bazzite o CachyOS, las cuales nos van a permitir conseguir más FPS en juegos. También está SteamOS, pues no hace mucho que Valve liberó el sistema operativo para que pudieras instalarlo en otras consolas y ordenadores.

Ubuntu Linux 26.04 LTS sube los requisitos mínimos de memoria en un 50% y pasa de pedir 4 a 6 GB

Si no nos interesa mucho el gaming, tenemos distros de Linux para propósito general y Ubuntu sería una de las más populares basada en Debian. Esta la habrás visto también ser usada ampliamente en escuelas, institutos y universidades. Lo sorprendente es que sus requisitos son bastante más altos de lo que podríamos esperar de una distro tan popular y ahora han subido aún más con Ubuntu Linux 26.04 LTS tras anunciar que pedirá 6 GB de memoria RAM.

Previamente pedía 4 GB como Windows y esto ya era alto. En 2017, Ubuntu pedía solo 1 GB de memoria RAM, pero en 2018 con 18.04 LTS decidieron cuadruplicar la cantidad y exigir 4 GB para ahora subirla un 50% más. Sin duda no han escogido un buen momento para ello. En el resto de requisitos mínimos se lista una CPU de doble núcleo con una velocidad de 2 GHz y 25 GB de almacenamiento.

Ubuntu ya supera el requisito de memoria RAM que exige Windows 11, pero hay otras distros más ligeras como Lubuntu que solo pide 1 GB

Lo que más me choca de todo esto, es que con Windows 11 hubo quejas debido a que los requisitos eran más altos que con Windows 10, pero ahora Ubuntu pide más. Recordemos que los requisitos de Windows 11 son:

  • Procesador de 64 bits de 1 GHz o más con 2 o más núcleos
  • 4 GB RAM
  • 64 GB almacenamiento
  • Tarjeta gráfica DirectX 12 compatible con WDDM 2.0
  • Pantalla de 720p con 9 pulgadas o más y 8 bits de color
  • TPM 2.0 y UEFI

Si bien es cierto que en almacenamiento y gráfica, Windows pediría más, en RAM y CPU Ubuntu está por delante. Ahora bien, antes de pensar que Linux te ha decepcionado y ya no es el sistema operativo tan eficiente de antes, hay que aclarar varias cosas. Primero de todo, Ubuntu menciona que son requisitos flexibles y no necesitas 6 GB para instalarlo y usarlo, podrás instalarlo si tienes menos memoria. Lo segundo es que, como bien dice Mark Tyson de Tom's Hardware, esta es solo una de las muchas distros que hay de Linux y no es la más optimizada para bajos recursos. Tenemos Lubuntu por ejemplo que es una versión que pide solo 1 GB de RAM, una CPU de 1 GHz y menos de 10 GB de almacenamiento.

Saludos.

viernes, 3 de abril de 2026

El LG UltraGear evo 39GX950B es el primer monitor 5K2K OLED

Visto por primera vez a finales de 2025, no ha sido hasta ahora que LG ha anunciado oficialmente todos los detalles en torno a su monitor LG UltraGear evo 39GX950B (GX9). Este destaca por ser el primer monitor del mundo con una tecnología de escalado de la imagen por IA. Es decir, que no requiere ni de una potente tarjeta gráfica o de una CPU con una NPU para reescalar la imagen del contenido que visualices. Y es que este se trata de un monitor con una resolución 5K, y sí, prácticamente "no existe" contenido 5K. Por lo que la idea pasa por usar la IA para escalar todo el contenido que visualices a dicha resolución.

Ahora bien, en cuanto al escalado, hay muchísimas lagunas. LG lo describe como una “solución de IA integrada en el dispositivo” al utilizar un “procesador integrado” para mejorar la señal de entrada en tiempo real antes de enviarla al panel. Podría ser un SoC Alpha utilizado en sus televisores adaptado para el monitor. Este permite el escalado de la imagen por IA "desde cualquier dispositivo" hasta una resolución 5K2K, que es la resolución del panel. Evidentemente, no es un equivalente del NVIDIA DLSS, AMD FSR o Intel XeSS. Esta tecnología es bastante simple que se limita a recoger una señal de vídeo y la mejora, y no de apoyarse en el propio motor gráfico de un juego. Por lo tanto, es más un postprocesado avanzado sobre el frame final, que una reconstrucción de la imagen.

Especificaciones del monitor LG UltraGear evo 39GX950B

El LG UltraGear evo 39GX950B se construye en torno a un panel OLED curvo de 4ª generación Tandem / Primary RGB Tandem OLED de 39 pulgadas. Este tiene una resolución nativa 5K2K de 5.120 x 2.160 píxeles (21:9) con una tasa de refresco de 165 Hz. Gracias al Dual Mode, puedes reducir la resolución WFHD a 2.560 x 1.080 píxeles a 330 Hz. El panel ofrece un brillo máximo de hasta 1.500 nits (335 nits en SDR) y cubre el espacio de color DCI-P3 en un 99,5%. El tiempo de respuesta es de 0,03 milisegundos, y tienes las tecnologías de sincronización de imágenes VRR, AMD FreeSync Premium Pro y NVIDIA G-SYNC Compatible.

En cuanto a conectividad, ofrece un puerto DisplayPort 2.1 UHBR20, dos HDMI 2.1, y un puerto USB-C con carga rápida a 90W. Incluye también un sistema de sonido en estéreo con dos altavoces de 7W de potencia cada uno. Todo ello ligado a una mejora de sonido mediante IA (AI Sound). Esta promete ofrecer una experiencia de sonido virtual de 7.1.2 canales. Con ella se garantiza escuchar correctamente de dónde vienen los pasos.

La información del LG UltraGear evo 39GX950B se completa con AI Scene Optimization para ajustar la temperatura de color, realce y nitidez según el tipo de contenido reproducido. A diferencia del resto de la competencia, "únicamente" ofrece 2 años de garantía sobre el panel OLED (vs 3 años del resto de la industria). Ofrece un diseño sin bordes, una base que permite ajustar su altura, inclinación y giro, que poder reemplazar por un brazo o soporte de pared mediante el estándar VESA 100 x 100 mm. No podía faltar tecnologías relacionadas con el refresco de píxeles y otros algoritmos para aumentar la vida útil del panel.

En cuanto al precio, no hay ningún anuncio oficial. Aunque ya se ha podido ver un distribuidor europeo esperando que su precio se mueva entre los 1.799 a 1.829 euros

Saludos.

jueves, 2 de abril de 2026

La memoria empieza a frenar su subida, DRAM y NAND moderarán sus precios en los próximos meses

La memoria empieza a frenar su locura, pero conviene no confundir moderación con alivio, vaya esto por delante. Después de un 1Q26 desatado, TrendForce afirma que la memoria DRAM convencional y la NAND Flash seguirán subiendo en 2Q26, es inevitable, aunque con algo menos de violencia, es decir, reducirá la velocidad de la subida. La previsión apunta a un alza trimestral del 58% al 63% para la DRAM convencional y del 70% al 75% para la NAND Flash. Por lo tanto, parece que la crisis comienza a aflojar, y esperemos que así siga hasta terminar el año.

Venimos, eso sí, de un arranque de año todavía más agresivo, con incrementos estimados del 93% al 98% en DRAM convencional y del 85% al 90% en NAND Flash. ¿Se podía ir a peor? Pues sí, todo apuntaba a ello, pero lo que está ocurriendo en Ormuz parece que está cambiando los planes de los grandes diseñadores de IA.

La memoria dará un pequeño respiro y reducirá su subida tanto para la DRAM como NAND Flash

No es una buena noticia para quien compra memoria, pero sí cambia el tono del mercado y nos da un poco de esperanza a los usuarios. La subida sigue siendo enorme, solo que ya no se mueve en el mismo nivel de tensión extrema que hemos visto durante este trimestre. Ahí está el matiz que define todo el informe.

TrendForce sitúa el origen del problema en la reasignación de capacidad hacia HBM, DRAM de servidor y SSD empresarial, que son los productos más rentables para los fabricantes y son los que están ocasionando esta crisis.

En DRAM, además, se suma el llamado catch up pricing, una corrección al alza para reducir la diferencia de precios entre segmentos. Aunque la demanda de PC se ha revisado a la baja, los proveedores también han recortado envíos a OEM y ensambladores de módulos, así que quien recibe menos volumen acaba comprando más caro. Y ahí somos el eslabón más débil, aunque seamos muchísimos en el planeta.

En servidor, la presión sigue totalmente ligada a la Inteligencia Artificial. Los CSP norteamericanos están acelerando despliegues de inferencia, lo que dispara tanto la demanda de servidor de IA como la de servidor generalista.

RDIMM y NAND Flash en el foco del problema

Según TrendForce, el objetivo principal de compra son los RDIMM de alta capacidad. Mientras tanto, los proveedores priorizan esta categoría por su mayor rentabilidad y negocian acuerdos a largo plazo con clientes clave para sostener futuras ampliaciones de capacidad, aunque la oferta a corto plazo continúa muy ajustada.

En NAND Flash el panorama tampoco da tregua, aunque mejora un poco. TrendForce sostiene que la demanda de SSD empresarial para la IA generativa sigue creciendo sin freno, hasta el punto de prever una escasez clara en 2026. La firma añade que una expansión de capacidad con impacto real no llegaría hasta finales de 2027 o 2028. Por eso los CSP aceptan precios más altos y firman LTAs para asegurarse suministro, reforzando todavía más el poder de negociación de los fabricantes. De esto ya hablamos, la situación no ha mejorado demasiado.

La parte menos mala está en que el mercado empieza a salir del tramo más salvaje de la escalada. La parte incómoda es que la memoria sigue cara, seguirá subiendo, pero reduce esa subida en violencia, y todo indica que la IA va a seguir decidiendo quién recibe capacidad, a qué precio y en qué plazo. No es lo que nos gustaría decir, pero son “buenas noticias” viendo las previsiones anteriores.

Saludos.

miércoles, 1 de abril de 2026

Crean una pasta térmica revolucionaria creada con pan de oro y miel para refrigerar la CPU

Para poder mantener el procesador de nuestro PC con buenas temperaturas necesitaremos tener un disipador por aire o un sistema de refrigeración líquida, aunque claro, sin pasta térmica no importa que usemos, las temperaturas subirán mucho en poco tiempo. La pasta térmica es totalmente necesaria si queremos que haya contacto entre el disipador y el chip, pues actúa como capa intermedia con alta conductividad térmica. La pasta térmica tradicional puede causar irritación a los ojos y ser nociva si por alguna razón la ingieres. En cambio, la pasta térmica que ha creado un YouTuber con pan de oro y miel puedes comértela y no está nada mal para refrigerar.

Las pastas térmicas se encargan de cubrir los huecos microscópicos que hay entre el procesador y el disipador, normalmente poniéndose encima del IHS o capa de metal que protege el chip. Si consigues quitar el IHS o tienes el chip directamente puedes enfriar la CPU incluso mejor, pero puede haber peligro de que se derrame. La pasta térmica no suele ser conductora, pero si usamos metal líquido si estaremos en problemas.

Un YouTuber crea la primera pasta térmica comestible del mundo con pan de oro y miel

Cada pasta térmica es distinta y ofrece resultados que van variando dependiendo de la marca y el modelo, aunque podemos diferenciar 4 grupos de pastas térmicas. Las cerámicas usarán óxidos como el de aluminio y zinc además de nitruros de boro y aluminio. Las pastas metálicas añaden partículas de plata, aluminio o cobre para mejorar la conductividad. También tenemos pastas que usan componentes derivados del carbono y hasta polvo de diamante y como no, las de metal líquido que emplean galio, indio y estaño. Ninguna se parece a la pasta térmica que ha creado el YouTuber mryeester, pues esta es probablemente, la primera pasta térmica comestible del mundo.

Nadie esperaría comprar un tubo de pasta térmica, ponerle un poco a la CPU y el resto comértela, ¿verdad?. Pues la cosa es que el YouTuber ha querido combinar ambos conceptos por alguna extraña razón, dado que ha querido hacer que puede ser ingerida y a su vez tengan un rendimiento decente. Por supuesto no vas a usar una pasta térmica con alimentos que comemos en nuestro día a día, pues a nivel de conductividad térmica dejaría mucho que desear.

En su lugar ha empleado oro, uno de los materiales con mayor conductividad y, a diferencia de otros, comestible. Para hacerlo viable a nivel económico y también comestible, ha usado lo que se conoce como "pan de oro" que no es otra cosa que una lámina de oro muy fina. Estas láminas de oro de 24 quilates se han ido añadiendo sobre la superficie de la CPU, pero no es suficiente para tapar todas las imperfecciones y trasmitir el calor eficientemente. Debe crear una capa que cubra todo y ahí es cuando decidió combinarlo con miel.

Las temperaturas no están nada mal, son alrededor de un 10% peores que las de una pasta térmica tradicional

Aunque no hace mención del procesador usado, se puede comprobar que es una CPU más antigua viendo la placa base y en esta primera prueba la pasta térmica comestible logra muy buenos resultados, pues consigue 53 °C, así que no hay problemas de temperatura al 100% de uso. Más adelante decide usar su PC gaming que representaría el ordenador que desean muchos jugadores, pues tiene una CPU Ryzen 7 9850X3D. Aunque esta probablemente consuma más energía y se caliente mucho más que la anterior, lo cierto es que aguanta muy bien a 78 °C jugando Counter-Strike 2.

En juegos que piden más CPU como Cyberpunk 2077, aquí se alcanzan 81 °C, así que es viable para jugar. Quizá para una situación de estrés al 100% en renders o programas, esta pasta térmica no sea suficiente para mantener una temperatura más fresca y estable. Lo cierto es que rinde bastante bien, pues usando una pasta térmica tradicional alcanzaba 70 °C en CS2, así que rinde un 10% por debajo.

Saludos.