lunes, 6 de abril de 2026

Disney está interesada en comprar Epic Games

Epic Games está en horas bajas, como ocurre con la mayoría de los estudios de videojuegos, grandes y pequeños. La semana pasada trascendió que iba a despedir a mil empleados, por lo que como suele ocurrir en estos casos, los peces grandes se comen a los chicos. Disney estaría esperando su oportunidad para hacerse con Epic Games, lo cual supondría una curiosa reconfiguración del sector de los videojuegos.

A pesar de la caída de Fortnite, el otro negocio de la compañía es el motor Unreal. Eso ha provocado colaboraciones con la propia Disney, con una inversión de 1500 millones de dólares para fortalecer sus estudios de efectos especiales a través de un porcentaje de Epic Games que sería en torno al 10 %.

Bueno, ese dinero también es para una zona temática de Fortnite en los parques de Disney, y un universo persistente de Disney en Fortnite. Quizás para atraer a los jóvenes que detestan la mierda despiertita que ha hecho Disney durante años, una jugada que le ha salido fatal y ha dejado películas de animación y series realmente horribles. Sea como sea, la colaboración de Epic Games y Disney se va fortaleciendo. Así que entre unas cosas y otras, no sería raro que Disney terminara adquiriendo Epic Games.

Vía: WCCFTech.

Saludos. 

domingo, 5 de abril de 2026

Cómo conectar un portátil a un monitor y aprovechar sus ventajas

Conectar un portátil a un monitor es una buena manera de mejorar sus capacidades cuando trabajamos en el escritorio informático. Hoy repasaremos sus ventajas y casos de uso, las maneras de conectar estos periféricos y su gestión en sistemas operativos Windows.

Ya sabes que los portátiles son los dispositivos más vendidos del gran grupo de ordenadores personales. Su gran atracción se explica principalmente por su enorme versatilidad, ya que permiten trabajar en movilidad, transportarlos fácilmente y usarlos indistintamente en el hogar o en el trabajo. Aunque se puede trabajar con ellos de manera independiente, cuando estamos en el escritorio hay periféricos adicionales con los que mejorar las prestaciones de un portátil en cualquier tarea informática. Un caso típico es un ratón, más cómodo que un TouchPad. Y otro es el que nos ocupa: conectarle una pantalla adicional.

Casos de uso de la multipantalla

Si no tienes un ordenador de sobremesa y solo usas un portátil para todo, ya sabrás de su capacidad para unir lo mejor de los dos mundos, movilidad y escritorio. En estos casos, su conexión a un monitor o a un sistema de múltiples monitores es una opción excelente. Todos los sistemas operativos lo soportan y es seguro que tu equipo portátil (aunque sea antiguo) contará con los puertos necesarios para realizar la conexión. Algunos ejemplos de interés que podemos citar:

  • Profesionales de la edición de imagen, vídeo, audio o CAD que necesiten utilizar varias herramientas al mismo tiempo.
  • Programadores que necesiten ver el código en una pantalla con la otra reservada para la documentación.
  • Traductores que requieran varias pantallas de documentos abiertos.
  • Tareas financieras que requieran varias hojas de cálculo abiertas o visualización de cotizaciones bursátiles en directo.
  • Colaboración con videoconferencia en la pantalla adicional.
  • Juegos en doble pantalla, para chatear con los compañeros de un equipo, ver o hacer streaming en Twitch, etc.
  • En general, cualquier usuario que desee ver un contenido adicional mientras trabaja, sea un streaming o página web, o quien necesite mantener una pantalla fija en el escritorio.
Cómo conectar un monitor a un portátil

Decir antes de empezar que nos vamos a centrar en monitores informáticos para este tipo de conexiones, si bien también podríamos utilizar otro tipo de pantallas de visualización como televisores. Aquí hay que hacer las salvedades conocidas, un televisor no suele ofrecer la calidad de un monitor en resolución, tasa de refresco y otros parámetros. Sí se puede usar para ver contenido multimedia que saquemos desde el portátil a modo de streaming.

Cualquier ordenador portátil, por viejo que sea, incluye una o varias salidas de vídeo para poder conectarlo a una pantalla externa. Los más antiguos contarán al menos con un puerto analógico VGA u digitales como DVI (ambos en fase de extinción) o los más extendidos, HDMI o Display Port.

En cuanto a los portátiles (convertibles - 2 en 1 - detachables) más modernos, seguramente cuenten con un conector USB Tipo-C con interfaces Thunderbolt, el puerto perfecto para conectar uno o varios monitores ya que además de un enorme rendimiento, ofrece en un solo cable vídeo, audio, transmisión de datos y energía, además de compatibilidad con soportes nativos DisplayPort, HDMI 2 y USB 3.0.

La conexión a un monitor o múltiples monitores dependerá de ese tipo de conexiones, aunque la industria ofrece múltiples adaptadores y conversores para facilitarlas. Hay cableado VGA y DVI, macho o hembra, o los que convierten a HDMI para el portátil. Con ellos se puede conectar prácticamente cualquier monitor, aunque una mejor interfaz te ofrecerá mayor calidad de imagen y resolución. El cableado de conexión tiene un precio muy económico y será altamente rentable usarlo para conectar el portátil.

Otra opción que se utiliza mucho en ámbitos profesionales son las bases de expansión. Hay dedicadas para modelos particulares de un fabricante y hay otras generales a las que se pueden conectar monitores y otros periféricos. Las más avanzadas cuestan bastante más que un cable o conversor, pero puedes comprar una estándar desde una veintena de euros. Ofrecen bastantes opciones de conectividad y si trabajas habitualmente con el portátil en el escritorio es una gran opción.

Para finalizar, decir que no hace falta que el monitor que utilices sea ni nuevo ni de última generación y para empezar, puedes aprovechar cualquiera que tengas aparcado en casa o en el trabajo. Alta rentabilidad a bajo coste.

Gestión en Windows

Aunque todos los sistemas operativos modernos (Linux, macOS…) ofrecen soporte para estos usos, los últimos sistemas operativos de Microsoft facilitan enormemente la conexión a pantallas externas. Es tan simple como conectar tu portátil a un monitor en su respectivo puerto para que Windows extienda su escritorio. Además, ofrece otras configuraciones interesantes.

Para acceder a ellas conecta el equipo a una pantalla de visualización externa y pulsa el atajo de teclado “Windows + P”.

Verás cuatro opciones que se explican solas:

  • Sólo pantalla del PC : Windows sólo utilizan el monitor principal. El resto no se utilizan.
  • Duplicado : Windows mostrará la misma imagen en todos los monitores. Útil, por ejemplo, para una presentación.
  • Ampliar : Windows ampliará y extenderá el escritorio, lo que ofrece otra u otras pantallas para trabajar.
  • Sólo segunda pantalla : Windows apagará la pantalla principal y sólo utilizará la pantalla secundaria.

Para configurar las pantallas en Windows 10, accede a la herramienta de Configuración>Sistema>Pantalla o haz clic derecho en el escritorio y selecciona «Configurador de pantalla». Ahí puedes gestionar la identificación de cada pantalla conectada, elegir su orientación, el nivel de escala para cada una de ellas o establecer la principal:

El sistema también permite ampliar la barra de tareas de Windows a través de múltiples monitores, accediendo a  Configuración> Personalización> Barra de tareas:

La gestión de la multipantalla también se puede realizar en el software servido por los proveedores de chips gráficos, donde se pueden configurar sus parámetros de actuación. NVIDIA, Intel y AMD lo ofrecen en sus aplicaciones y drivers. Para el usuario que necesite mayor control y funciones, pueden usarse aplicaciones de terceros y como ejemplo, citar Universal Split Screen enfocada a juegos o la más profesional DisplayFusion.

En cualquier caso, te sirve con Windows (u otro sistema operativo) y un simple cable para conectar un portátil a un monitor y trabajar con la multipantalla, como habrás visto ideal para mejorar la productividad en el escritorio, permitiendo trabajar con un mayor número de aplicaciones, ventanas abiertas y tareas; ampliar la capacidad de visualización y mejorar la comodidad de uso.

 Saludos. 

sábado, 4 de abril de 2026

Ubuntu Linux 26.04 LTS sube un 50% los requisitos de RAM en el peor momento

Con el paso de los años, los PC son cada vez más potentes, pero también aumentan los requisitos de programas, juegos y hasta para el sistema operativo. Con los precios tan altos de la memoria RAM lo que menos queremos es tener que comprar más memoria ahora. Por eso nos ha resultado extraño que la popular distro de Linux Ubuntu haya decidido lanzar la versión 26.04 LTS pidiendo 6 GB de RAM para llegar a los requisitos mínimos.

Si tenemos un PC de sobremesa o portátil ya con bastantes años a sus espaldas, ponerle Windows 11 puede que sea una mala idea. Este sistema operativo pide más requisitos que Windows 10 y no va a ir más rápido o mejor. De hecho, si el ordenador tiene bastantes años y está limitado en hardware se recomienda pasarse a Linux. Por norma general, este sistema operativo consume menos recursos y suele ir mejor, pero como ya sabes, hay decenas de distros disponibles. A la hora de elegir una distro de Linux, va a depender de nuestras preferencias. Hay algunas que están optimizadas para gaming como Bazzite o CachyOS, las cuales nos van a permitir conseguir más FPS en juegos. También está SteamOS, pues no hace mucho que Valve liberó el sistema operativo para que pudieras instalarlo en otras consolas y ordenadores.

Ubuntu Linux 26.04 LTS sube los requisitos mínimos de memoria en un 50% y pasa de pedir 4 a 6 GB

Si no nos interesa mucho el gaming, tenemos distros de Linux para propósito general y Ubuntu sería una de las más populares basada en Debian. Esta la habrás visto también ser usada ampliamente en escuelas, institutos y universidades. Lo sorprendente es que sus requisitos son bastante más altos de lo que podríamos esperar de una distro tan popular y ahora han subido aún más con Ubuntu Linux 26.04 LTS tras anunciar que pedirá 6 GB de memoria RAM.

Previamente pedía 4 GB como Windows y esto ya era alto. En 2017, Ubuntu pedía solo 1 GB de memoria RAM, pero en 2018 con 18.04 LTS decidieron cuadruplicar la cantidad y exigir 4 GB para ahora subirla un 50% más. Sin duda no han escogido un buen momento para ello. En el resto de requisitos mínimos se lista una CPU de doble núcleo con una velocidad de 2 GHz y 25 GB de almacenamiento.

Ubuntu ya supera el requisito de memoria RAM que exige Windows 11, pero hay otras distros más ligeras como Lubuntu que solo pide 1 GB

Lo que más me choca de todo esto, es que con Windows 11 hubo quejas debido a que los requisitos eran más altos que con Windows 10, pero ahora Ubuntu pide más. Recordemos que los requisitos de Windows 11 son:

  • Procesador de 64 bits de 1 GHz o más con 2 o más núcleos
  • 4 GB RAM
  • 64 GB almacenamiento
  • Tarjeta gráfica DirectX 12 compatible con WDDM 2.0
  • Pantalla de 720p con 9 pulgadas o más y 8 bits de color
  • TPM 2.0 y UEFI

Si bien es cierto que en almacenamiento y gráfica, Windows pediría más, en RAM y CPU Ubuntu está por delante. Ahora bien, antes de pensar que Linux te ha decepcionado y ya no es el sistema operativo tan eficiente de antes, hay que aclarar varias cosas. Primero de todo, Ubuntu menciona que son requisitos flexibles y no necesitas 6 GB para instalarlo y usarlo, podrás instalarlo si tienes menos memoria. Lo segundo es que, como bien dice Mark Tyson de Tom's Hardware, esta es solo una de las muchas distros que hay de Linux y no es la más optimizada para bajos recursos. Tenemos Lubuntu por ejemplo que es una versión que pide solo 1 GB de RAM, una CPU de 1 GHz y menos de 10 GB de almacenamiento.

Saludos.

viernes, 3 de abril de 2026

El LG UltraGear evo 39GX950B es el primer monitor 5K2K OLED

Visto por primera vez a finales de 2025, no ha sido hasta ahora que LG ha anunciado oficialmente todos los detalles en torno a su monitor LG UltraGear evo 39GX950B (GX9). Este destaca por ser el primer monitor del mundo con una tecnología de escalado de la imagen por IA. Es decir, que no requiere ni de una potente tarjeta gráfica o de una CPU con una NPU para reescalar la imagen del contenido que visualices. Y es que este se trata de un monitor con una resolución 5K, y sí, prácticamente "no existe" contenido 5K. Por lo que la idea pasa por usar la IA para escalar todo el contenido que visualices a dicha resolución.

Ahora bien, en cuanto al escalado, hay muchísimas lagunas. LG lo describe como una “solución de IA integrada en el dispositivo” al utilizar un “procesador integrado” para mejorar la señal de entrada en tiempo real antes de enviarla al panel. Podría ser un SoC Alpha utilizado en sus televisores adaptado para el monitor. Este permite el escalado de la imagen por IA "desde cualquier dispositivo" hasta una resolución 5K2K, que es la resolución del panel. Evidentemente, no es un equivalente del NVIDIA DLSS, AMD FSR o Intel XeSS. Esta tecnología es bastante simple que se limita a recoger una señal de vídeo y la mejora, y no de apoyarse en el propio motor gráfico de un juego. Por lo tanto, es más un postprocesado avanzado sobre el frame final, que una reconstrucción de la imagen.

Especificaciones del monitor LG UltraGear evo 39GX950B

El LG UltraGear evo 39GX950B se construye en torno a un panel OLED curvo de 4ª generación Tandem / Primary RGB Tandem OLED de 39 pulgadas. Este tiene una resolución nativa 5K2K de 5.120 x 2.160 píxeles (21:9) con una tasa de refresco de 165 Hz. Gracias al Dual Mode, puedes reducir la resolución WFHD a 2.560 x 1.080 píxeles a 330 Hz. El panel ofrece un brillo máximo de hasta 1.500 nits (335 nits en SDR) y cubre el espacio de color DCI-P3 en un 99,5%. El tiempo de respuesta es de 0,03 milisegundos, y tienes las tecnologías de sincronización de imágenes VRR, AMD FreeSync Premium Pro y NVIDIA G-SYNC Compatible.

En cuanto a conectividad, ofrece un puerto DisplayPort 2.1 UHBR20, dos HDMI 2.1, y un puerto USB-C con carga rápida a 90W. Incluye también un sistema de sonido en estéreo con dos altavoces de 7W de potencia cada uno. Todo ello ligado a una mejora de sonido mediante IA (AI Sound). Esta promete ofrecer una experiencia de sonido virtual de 7.1.2 canales. Con ella se garantiza escuchar correctamente de dónde vienen los pasos.

La información del LG UltraGear evo 39GX950B se completa con AI Scene Optimization para ajustar la temperatura de color, realce y nitidez según el tipo de contenido reproducido. A diferencia del resto de la competencia, "únicamente" ofrece 2 años de garantía sobre el panel OLED (vs 3 años del resto de la industria). Ofrece un diseño sin bordes, una base que permite ajustar su altura, inclinación y giro, que poder reemplazar por un brazo o soporte de pared mediante el estándar VESA 100 x 100 mm. No podía faltar tecnologías relacionadas con el refresco de píxeles y otros algoritmos para aumentar la vida útil del panel.

En cuanto al precio, no hay ningún anuncio oficial. Aunque ya se ha podido ver un distribuidor europeo esperando que su precio se mueva entre los 1.799 a 1.829 euros

Saludos.

jueves, 2 de abril de 2026

La memoria empieza a frenar su subida, DRAM y NAND moderarán sus precios en los próximos meses

La memoria empieza a frenar su locura, pero conviene no confundir moderación con alivio, vaya esto por delante. Después de un 1Q26 desatado, TrendForce afirma que la memoria DRAM convencional y la NAND Flash seguirán subiendo en 2Q26, es inevitable, aunque con algo menos de violencia, es decir, reducirá la velocidad de la subida. La previsión apunta a un alza trimestral del 58% al 63% para la DRAM convencional y del 70% al 75% para la NAND Flash. Por lo tanto, parece que la crisis comienza a aflojar, y esperemos que así siga hasta terminar el año.

Venimos, eso sí, de un arranque de año todavía más agresivo, con incrementos estimados del 93% al 98% en DRAM convencional y del 85% al 90% en NAND Flash. ¿Se podía ir a peor? Pues sí, todo apuntaba a ello, pero lo que está ocurriendo en Ormuz parece que está cambiando los planes de los grandes diseñadores de IA.

La memoria dará un pequeño respiro y reducirá su subida tanto para la DRAM como NAND Flash

No es una buena noticia para quien compra memoria, pero sí cambia el tono del mercado y nos da un poco de esperanza a los usuarios. La subida sigue siendo enorme, solo que ya no se mueve en el mismo nivel de tensión extrema que hemos visto durante este trimestre. Ahí está el matiz que define todo el informe.

TrendForce sitúa el origen del problema en la reasignación de capacidad hacia HBM, DRAM de servidor y SSD empresarial, que son los productos más rentables para los fabricantes y son los que están ocasionando esta crisis.

En DRAM, además, se suma el llamado catch up pricing, una corrección al alza para reducir la diferencia de precios entre segmentos. Aunque la demanda de PC se ha revisado a la baja, los proveedores también han recortado envíos a OEM y ensambladores de módulos, así que quien recibe menos volumen acaba comprando más caro. Y ahí somos el eslabón más débil, aunque seamos muchísimos en el planeta.

En servidor, la presión sigue totalmente ligada a la Inteligencia Artificial. Los CSP norteamericanos están acelerando despliegues de inferencia, lo que dispara tanto la demanda de servidor de IA como la de servidor generalista.

RDIMM y NAND Flash en el foco del problema

Según TrendForce, el objetivo principal de compra son los RDIMM de alta capacidad. Mientras tanto, los proveedores priorizan esta categoría por su mayor rentabilidad y negocian acuerdos a largo plazo con clientes clave para sostener futuras ampliaciones de capacidad, aunque la oferta a corto plazo continúa muy ajustada.

En NAND Flash el panorama tampoco da tregua, aunque mejora un poco. TrendForce sostiene que la demanda de SSD empresarial para la IA generativa sigue creciendo sin freno, hasta el punto de prever una escasez clara en 2026. La firma añade que una expansión de capacidad con impacto real no llegaría hasta finales de 2027 o 2028. Por eso los CSP aceptan precios más altos y firman LTAs para asegurarse suministro, reforzando todavía más el poder de negociación de los fabricantes. De esto ya hablamos, la situación no ha mejorado demasiado.

La parte menos mala está en que el mercado empieza a salir del tramo más salvaje de la escalada. La parte incómoda es que la memoria sigue cara, seguirá subiendo, pero reduce esa subida en violencia, y todo indica que la IA va a seguir decidiendo quién recibe capacidad, a qué precio y en qué plazo. No es lo que nos gustaría decir, pero son “buenas noticias” viendo las previsiones anteriores.

Saludos.

miércoles, 1 de abril de 2026

Crean una pasta térmica revolucionaria creada con pan de oro y miel para refrigerar la CPU

Para poder mantener el procesador de nuestro PC con buenas temperaturas necesitaremos tener un disipador por aire o un sistema de refrigeración líquida, aunque claro, sin pasta térmica no importa que usemos, las temperaturas subirán mucho en poco tiempo. La pasta térmica es totalmente necesaria si queremos que haya contacto entre el disipador y el chip, pues actúa como capa intermedia con alta conductividad térmica. La pasta térmica tradicional puede causar irritación a los ojos y ser nociva si por alguna razón la ingieres. En cambio, la pasta térmica que ha creado un YouTuber con pan de oro y miel puedes comértela y no está nada mal para refrigerar.

Las pastas térmicas se encargan de cubrir los huecos microscópicos que hay entre el procesador y el disipador, normalmente poniéndose encima del IHS o capa de metal que protege el chip. Si consigues quitar el IHS o tienes el chip directamente puedes enfriar la CPU incluso mejor, pero puede haber peligro de que se derrame. La pasta térmica no suele ser conductora, pero si usamos metal líquido si estaremos en problemas.

Un YouTuber crea la primera pasta térmica comestible del mundo con pan de oro y miel

Cada pasta térmica es distinta y ofrece resultados que van variando dependiendo de la marca y el modelo, aunque podemos diferenciar 4 grupos de pastas térmicas. Las cerámicas usarán óxidos como el de aluminio y zinc además de nitruros de boro y aluminio. Las pastas metálicas añaden partículas de plata, aluminio o cobre para mejorar la conductividad. También tenemos pastas que usan componentes derivados del carbono y hasta polvo de diamante y como no, las de metal líquido que emplean galio, indio y estaño. Ninguna se parece a la pasta térmica que ha creado el YouTuber mryeester, pues esta es probablemente, la primera pasta térmica comestible del mundo.

Nadie esperaría comprar un tubo de pasta térmica, ponerle un poco a la CPU y el resto comértela, ¿verdad?. Pues la cosa es que el YouTuber ha querido combinar ambos conceptos por alguna extraña razón, dado que ha querido hacer que puede ser ingerida y a su vez tengan un rendimiento decente. Por supuesto no vas a usar una pasta térmica con alimentos que comemos en nuestro día a día, pues a nivel de conductividad térmica dejaría mucho que desear.

En su lugar ha empleado oro, uno de los materiales con mayor conductividad y, a diferencia de otros, comestible. Para hacerlo viable a nivel económico y también comestible, ha usado lo que se conoce como "pan de oro" que no es otra cosa que una lámina de oro muy fina. Estas láminas de oro de 24 quilates se han ido añadiendo sobre la superficie de la CPU, pero no es suficiente para tapar todas las imperfecciones y trasmitir el calor eficientemente. Debe crear una capa que cubra todo y ahí es cuando decidió combinarlo con miel.

Las temperaturas no están nada mal, son alrededor de un 10% peores que las de una pasta térmica tradicional

Aunque no hace mención del procesador usado, se puede comprobar que es una CPU más antigua viendo la placa base y en esta primera prueba la pasta térmica comestible logra muy buenos resultados, pues consigue 53 °C, así que no hay problemas de temperatura al 100% de uso. Más adelante decide usar su PC gaming que representaría el ordenador que desean muchos jugadores, pues tiene una CPU Ryzen 7 9850X3D. Aunque esta probablemente consuma más energía y se caliente mucho más que la anterior, lo cierto es que aguanta muy bien a 78 °C jugando Counter-Strike 2.

En juegos que piden más CPU como Cyberpunk 2077, aquí se alcanzan 81 °C, así que es viable para jugar. Quizá para una situación de estrés al 100% en renders o programas, esta pasta térmica no sea suficiente para mantener una temperatura más fresca y estable. Lo cierto es que rinde bastante bien, pues usando una pasta térmica tradicional alcanzaba 70 °C en CS2, así que rinde un 10% por debajo.

Saludos.

martes, 31 de marzo de 2026

Hace años que se había de DirectX 13 pero este no existe, ¿por qué Microsoft no lo ha lanzado todavía?

DirectX 13 ha sido un rumor recurrente desde hace varios años, pero Microsoft nunca ha lanzado esa versión de su conocido conjunto de APIs, y eso que ha tenido muchas oportunidades para hacerlo desde el lanzamiento de DirectX 12 allá por 2015.

¿Por qué nunca hemos visto ese cambio de versión de DirectX 12 a DirectX 13? Microsoft nunca ha dado una explicación directa y oficial al respecto, pero parece que todo se debe a un cambio de estrategia muy claro que ha llevado a la compañía a pasar a un ciclo de renovaciones modulares, manteniendo a DirectX 12 como la versión central por defecto.

En esa nueva estrategia a Microsoft ya no le importa la numeración. Mantiene los pilares de DirectX 12 como la base del gaming moderno, y sobre esa base va «construyendo» nuevas tecnologías que se incorporan como módulos que traen cambios más o menos marcados.

Si Microsoft quisiera crear algo que realmente se pudiera llamar DirectX 13 tendría que cambiar por completo los pilares de DirectX 12, e introducir un enfoque totalmente nuevo, como hizo en su momento al pasar de DirectX 11 a DirectX 12. Esto sería muy complejo, y nos llevaría a una nueva etapa que resultaría bastante difícil para los jugadores y para los desarrollares.

Os pongo como ejemplo la transición de DirectX 11 a DirectX 12. Uno de los cambios más importantes que introdujo DirectX 12 se produjo a nivel de drivers, ya que daba más responsabilidades en este sentido a los desarrolladores de los juegos. También opera a un nivel más bajo, y permite un mejor aprovechamiento de procesadores multinúcleo.

Pasar de DirectX 11 a DirectX 12 representó un cambio tan grande que generaciones de tarjetas gráficas que rendían bien con DirectX 11 pasaron a rendir bastante peor con DirectX 12, y a la inversa. Por ejemplo, Las GTX 600 y GTX 700 estaban mejor preparadas para DirectX 11.

¿Lanzará Microsoft alguna vez DirectX 13?

La verdad es que al final estamos hablando de un simple cambio de nombre, y en realidad Microsoft ya presentó en su momento una evolución que podríamos considerar como algo muy parecido a una nueva versión de DirectX.

Me refiero a DirectX 12 Ultimate, una gran revisión del ecosistema de APIs del gigante de Redmond que introdujo DXR para respaldar la creciente adopción del trazado de rayos, y también otras tecnologías como shaders mallados, sombreador de tasa variable y retroalimentación de muestras.

Hace solo unas semanas Microsoft anunció nuevos cambios que llegarán a DirectX para adaptarlo a la era de la IA y del renderizado neural, otra gran actualización que podría haber aprovechado para anunciar a bombo y platillo un cambio de numeración, pero no lo hizo.

Este enfoque indica lo que os he comentado anteriormente, que Microsoft no tiene interés, ni siente la necesidad, de lanzar DirectX 13, pero esto no significa que se haya quedado estancada, nada más lejos de la realidad. DirectX ha recibido tantas novedades y actualizaciones que se mantiene como un conjunto de APIs a la última, lo único es que ya no ha cambiado de numeración.

Saludos. 

lunes, 30 de marzo de 2026

La AMD Radeon HD 6990 cumple 15 años de vida, la que una vez fue la GPU más rápida del mundo

Si, AMD tuvo una época donde incluso superaba a NVIDIA en rendimiento, y esto ocurrió con su Radeon HD 6990. Hablamos de una época donde era normal tener tarjetas gráfica con un diseño de doble chip (Dual GPU) para superar los límites del rendimiento. Y sí, superó en rendimiento a una NVIDIA que también recurría a estos diseños. En concreto, en dicha época compitió con la NVIDIA GeForce GTX 590.

Y si tienes una edad, sabes que hablamos de GPUs muy potentes. Pero si miramos ahora hacia atrás, vemos cómo ha evolucionado todo. Y es que la Radeon HD 6990, pese a ser la GPU más potente del año 2011, con un diseño de Dual GPU, "únicamente" ofrecía 4 GB de VRAM. En aquella época AMD ganó en todos los sentidos. En frecuencias más elevadas, más capacidad de memoria, e incluso se incentivaba el overclock para tener aún más rendimiento. Esto hizo que la GeForce GTX 590 no tuviera ninguna opción de competir con AMD.

AMD Radeon HD 6990 cumple 15 años de vida: así era una GPU gaming en la época dorada del hardware

Esto es cómo la Fórmula 1, los vehículos de antaño son mejores que los de ahora, y lo mismo ocurre con el hardware. A día de hoy, la F1 es un espejo de lo que era, todo ello incentivado por normativas donde la fuerza de empuje es ofrecida un 50% por un motor de combustión y un 50% por un motor eléctrico unido a una batería que dura un suspiro. Con el hardware ocurre lo mismo, hemos pasado de tener un motor V10, a un motor V8 acompañado de muchísima tecnología de IA para suplir la falta de potencia bruta. Y sí, la AMD Radeon HD 6990 destacó por su potencia bruta.

La AMD Radeon HD 6990 llegó con dos chips gráficos Antiles XT fabricados por TSMC a 40 nm y dotados de la arquitectura TeraScale. Cada chip gráfico ofrece una configuración de 1.536 núcleos a 830 MHz, y cada uno de ellos estaba unido a 2 GB de memoria GDDR5 a 5 Gbps. Junto a una interfaz de memoria de 256 bits para cada chip gráfico, esta gráfica ofrecía un ancho de banda de 320 GB/s (160 GB/s x2). Todo ello daba lugar a una GPU con un TDP de 375W alimentada por dos conectores de alimentación de 8 pines, y con un diseño que a día de hoy se puede considerar compacto al ocupar únicamente dos ranuras PCI. Gracias al modo overclock, esta gráfica podía alcanzar los 450W.

La La AMD Radeon HD 6990, en esencia, combinaba dos Radeon HD 6970 en un mismo PC. Por su parte, NVIDIA, con su GeForce GTX 590, se vio forzar a reducir notablemente las frecuencias. Y el problema era muy simple, recurría a dos chips de una GTX 580. GPU que se hizo muy famosa en su día por los problemas de temperatura. Es por ello que NVIDIA tuvo que bajar la velocidad de los 772 MHz a 607 MHz, básicamente, para que la GPU no se derritiera o saltaran los plomos de la casa. Además, la GPU de NVIDIA ofrecía 3 GB de VRAM, ya que cada chip quedaba unido a 1,5 GB.

¿Cual es el rendimiento de esta GPU a día de hoy?

                   AMD Radeon HD 6990 con sistema de refrigeración de Arctic: sí, en aquella época podías
                   comprar sistemas de refrigeración para tu GPU.

Para lograr esta potencia, AMD Radeon HD 6990 era delgada, pero extremadamente larga. Con 305 mm, para aquella época, era una GPU enorme, tanto, que muchos usuarios tuvieron que cortar una parte del chasis para dejar espacio. Como punto negativo, era muy ruidosa, sonaba como un secador de pelo industrial al tener un único ventilador. Pese a ser la más potente, el CrossFire de AMD en aquella época daba más tirones que el NVIDIA SLI, por lo que en algunos juegos la GTX 590 daba sensación de mayor fluidez pese a ser menos potente. Aunque bueno, se quemaron bastantes GTX 590 por el camino al intentar hacer overclock en su lanzamiento.

En cuanto al rendimiento, había una limitación, y es que la GPU de AMD solo aportaba esta notable mejora de rendimiento en juegos optimizados para AMD CrossFire. Es decir, la tecnología que permitía combinar varias GPU para su uso. Por ejemplo, en juegos como Metro 2033 o Alien vs Predator, la Radeon HD 6990 era la ganadora. En juegos como Crysis 2, la GTX 590 dominaba.

Respecto a una GPU moderna, ambas gráficas pierden ante una simple AMD Radeon RX 6400. Hablamos de una GPU de perfil bajo, lanzada en el 2022, con un consumo de apenas 55W alimentada por la propia placa base. Esta GPU es en torno a un 16% más rápida que la AMD Radeon HD 6990 y la NVIDIA GeForce GTX 580. Es más, una más conocida NVIDIA GeForce GTX 1050 Ti rinde casi lo mismo que estas HD 6990 y GTX 590.

Saludos.

domingo, 29 de marzo de 2026

El AMD Ryzen 5 5500X3D aparece en Reino Unido a un precio de 207 euros

El procesador AMD Ryzen 5000 con la tecnología X3D más básico, el Ryzen 5 5500X3D, ha dejado de ser exclusivo para el mercado latino. Así es, y es que AMD lanzó este procesador de forma exclusiva para el mercado de América Latina siendo, hasta ahora, el Ryzen 5 5600X3D, el modelo X3D más modesto que si estaba disponible más globalmente. En esencia, ambos procesadores son idénticos, salvo por unas frecuencias más bajas y claro, un precio aún más asequible.

Este procesador fue lanzado el pasado 5 de junio de 2025 con una limitación regional ligada a LATAM. Ahora la novedad, es que este chip ha comenzado a venderse en Reino Unido, lo que podría ser la señal definitiva de que este procesador ha dejado de ser exclusivo para una región en concreto. Todo ello, pese a que AMD no haya anunciado de forma pública un despliegue más amplio de este procesador. Este procesador fue listado por 179,99 libras esterlinas, lo que se traduce en unos 207 euros.

El AMD Ryzen 5 5500X3D ahora busca ser una opción gracias a su bajo precio y la RAM DDR4

El AMD Ryzen 5 5500X3D se trata de un procesador de 6 núcleos y 12 hilos de procesamiento que recurre a la arquitectura AMD Zen 3. Lo más importante de todo, es que utiliza el socket AMD AM4, el cual sigue más vivo que nunca gracias a la crisis actual de memoria. Y es que el punto positivo de este procesador es que con una memoria RAM DDR4 a 3.200 MT/s ya se va perfecto. Evitando así recurrir a una memoria DDR5 más costosa, y depender también de una memoria mucho más rápida que también encarece notablemente el presupuesto.

Este procesador funciona a una frecuencia Base de 3,00 GHz y alcanza los 4,00 GHz con sus frecuencias Turbo. Su punto fuerte es la tecnología 3D V-Cache, lo que le otorga 96 MB de caché L3. Este procesador tiene un TDP base de 105W, y ofrece una interfaz PCI-Express 4.0. Este procesador es compatible con placas base con el chipset AMD X570, X470, X370, B550, B450, B350 y A520. Como referencia, el Ryzen 5 5600X3D ofrece una frecuencia Base de 3,30 GH y una frecuencia Turbo de 4,40 GHz. Por lo que hay una notable diferencia, que luego también se nota en el bolsillo del jugador.

Este procesador tiene muchísimo sentido a nivel de posicionamiento dentro del ecosistema X3D de AM4. AMD ya había dejado claro en 2024, con el lanzamiento del Ryzen 7 5700X3D, que no pensaba abandonar de golpe una plataforma con una base instalada enorme. Y más aún con la actual crisis de memoria y precios en las plataformas modernas. De hecho, en su propio comunicado habló de seguir construyendo sobre la longevidad “sin precedentes” de AM4. Y es que el socket AM4 ya tiene 10 años de vida. El AMD Ryzen 5 5500X3D encaja justo en esa estrategia. No pretende competir con AM5, sino ofrecer una ruta de actualización barata para quien ya tiene una placa AM4 y quiere más rendimiento en juegos sin cambiar medio PC. O claro, para el que quiera comprar una nueva CPU y ahorrar al máximo en la plataforma. Pero recurriendo a una CPU gaming más que sobrada para configuraciones 2K y 4K.

Saludos.

sábado, 28 de marzo de 2026

Scythe lanza Magoroku, el disipador Dual-Tower de dos ventiladores con un precio muy bajo

Según se va acercando el verano, las temperaturas van subiendo y tu no eres el único que va a estar pasando calor. Tu ordenador puede acabar sufriendo de altas temperaturas, lo que se traducirá en ver como los juegos y programas te van mal, bajones de FPS y peor aún, crasheos y pantallazos azules. Si estando en primavera ya tienes temperaturas que son bastante altas, es recomendable que no te esperes a verano y vayas buscando un disipador para el PC, que puede ser por aire o usando refrigeración líquida. Los de aire son más recomendados si queremos ahorrar y en estos tiempos que todo está tan caro, es de agradecer que Scythe mantenga unos precios muy competitivos, pues su disipador Dual-Tower Magoroku es tan barato que los dos ventiladores que incluye podrían costar más dinero.

Los PC son cada vez más caros y eso es algo que no podemos negar. Con la subida de precio que han experimentado varios componentes (sobre todo la RAM), los ordenadores ya no son tan baratos como antes y muchos han decidido no comprarse uno o retrasar la compra de componentes. Por suerte, no todas las piezas se han visto afectadas y la subida ha afectado principalmente a la memoria. Componentes como los disipadores deberían costar prácticamente lo mismo que antes y siguen existiendo marcas que intentan lanzar los productos con el precio más competitivo posible sin acabar con pérdidas.

Scythe Magoroku, disipador Dual-Tower para PC de escritorio que incluye dos ventiladores, 6 heat pipes y tiene una altura de 155 mm

Marcas como Noctua son conocidas por ser de lo mejor en refrigeración y baja sonoridad, pero son muy caras y puedes acabar pagando 100 euros o incluso más por uno de sus disipadores de gama alta. Hay alternativas baratas de gama media y hasta gama alta de algunas marcas como Thermalright y Scythe. Precisamente Scythe ha anunciado recientemente su nuevo disipador SCMR-1000, más conocido como "Magoroku". Se trata de un disipador que se mostró en 2024, lo vimos en el Computex 2025 y ahora por fin lo tenemos aquí. Con una altura de 155 mm y dos ventiladores de 26 mm (por tener 1 mm de goma antivibración) promete ofrecer un gran rendimiento.

Los ventiladores son de 120 mm y tienen un diseño que nos recuerda a los últimos Noctua de alto rendimiento, se conectan por PWM y tienen un rango de 350 (±200 RPM) a 2000 RPM (±10%). Gracias a esto consiguen un caudal de aire que va desde los 7,68 a 60,29 CFM con un ruido desde los 3 dBA a 26,88 dBA y una presión estática de hasta 2,45 mmH2O.

El disipador se pondrá a la venta por solo 27 euros y recibiremos este junto a dos ventiladores, distintos brackets para socket y hasta un destornillador

Este disipador es un Dual Tower como puedes comprobar, es decir, tiene dos bloques de metal que se encargarán de disipar el calor junto a los ventiladores que pongamos. Dispone de 6 heat pipes para distribuir todo el calor y un peso de 1.036 gramos con los ventiladores incluidos. Es compatible con las plataformas de Intel LGA 1851, 1700, 1200 y 115x, así que básicamente podrás usarlo con los últimos procesadores al igual que con los que existían hace 15 años. En AMD funcionará con AM4 y AM5, así que lo mismo, soporta cualquier CPU Ryzen. Tras esto vamos a su precio que es lo que más te interesará saber y aquí están las buenas noticias, pues saldrá a la venta el 10 de abril por 4.980 yenes.

Debido al bajo valor del yen que se encuentra a niveles de los años 90, el precio del disipador se traduce en solo 27 euros. Antes de que vayas buscando donde comprarlo, debemos recordarte que Scythe ya no opera en Europa tras acabar en bancarrota. Eso no significa que se pueda comprar, pues siempre puede haber alguna tienda que lo importe desde allí.

Saludos.