lunes, 30 de junio de 2025

Vuelve el Walkman, ahora con Bluetooth y batería recargable por USB-C

Lo retro está de moda, y hoy nos encontramos con un Walkman o reproductor de cassette (o casete, caset o cinta). Los más jóvenes no sabréis de lo que hablamos. Pero hablamos una tecnología que comenzó a ser ampliamente utilizada en la década de 1970. En concreto, un formato de grabación de sonido en una cinta magnética. Existiendo en la época también un formato de vídeo en cinta magnética llamado VHS. Pero eso es otra historia.

Reproducir música con cassete era lo más normal desde la década de 1970 hasta finales de la década de 1990, cuando fue reemplazado por los CD. Pues si aún guardas estos cassettes, o familiares tuyos, el fabricante japonés Maxell anunció el lanzamiento de un Walkman portátil para que disfrutes de estos cassette. Así que conozcamos cómo esta tecnología de sonido retro ha sido adaptada a los nuevos tiempos con tecnología moderna.

Maxell MXCP-P100: el Walkman que te permitirá escuchar tus cassette en pleno 2025

El Maxell MXCP-P100 tiene el diseño de cualquier clásico Walkman de la época fabricado por Sony, Panasonic o los principales fabricantes de la época. Si bien te permitirá reproducir estos cassette antiguos, al menos incluye tecnología moderna. Como olvidarte de las pilas por tener una batería recargable por medio de un moderno puerto USB-C. Por no hablar de incluso tener conectividad inalámbrica en forma de Bluetooth 5.4. Lo que te permitirá escuchar la música con auriculares inalámbricos. Algo que si hubiera ocurrido en su época hubiera sido bautizado de brujería. Y es que no fue hasta 1999 cuando salieron a la venta los primeros auriculares inalámbricos con conectividad Bluetooth 1.0.

En cuanto a la autonomía, el fabricante indica que su Walkman es capaz de ofrecer hasta 9 horas de autonomía si utilizas auriculares con cable (jack 3,5 mm). Reduciendo la autonomía hasta 7 horas si recurres a auriculares inalámbricos por Bluetooth. Aunque podrás escuchar música sin auriculares, ya que incluso esconden un altavoz. Gracias al conector jack, incluso podrás grabar directamente en una cinta desde una fuente de audio externa. Además de ser compatible con cassettes de Tipo I y Tipo II, que son de mayor calidad.

Disponibilidad y precio de lanzamiento

El Walkman Maxell MXCP-P100 por ahora se venderá exclusivamente en Japón a un precio recomendado de 13.000 yenes, lo que se traduce en unos 77 euros o 90 dólares de forma respectiva. Maxell vende en muchos países, incluido en Europa sus productos. Aunque quizás le conozcas por vender formatos de vídeos ya obsoletos como CD y DVD para almacenar información.

El precio no se puede catalogar como barato o caro. Es un producto de nicho y retro, lo que siempre encarece un producto. Está claro que para la gente que tenga estas cintas en casa y quieran volver a disfrutarlas, un dispositivo moderno será mucho más recomendable de utilizar por las facilidades que plantea. Además de evitar que un mal funcionamiento pueda terminar dañando las cintas. Pues su diseño además ayuda a reducir las irregularidades de rotación y proporciona un sonido de alta calidad. Retomando la duda del precio, un claro ejemplo es la industria del audio por vinilo, que está en auge.

El Walkman tiene unas dimensiones de 122 x 91 x 38 mm de espesor con un peso de 210 gramos. Todo ello estando disponible en dos colores (blanco y negro). Así que ya sabes, si crees que es un buen regalo, tienes aún tiempo hasta las navidades para intentar comprarlo desde la distancia.

Saludos. 

domingo, 29 de junio de 2025

La GeForce RTX 5070 SUPER vendrá únicamente con 6.400 CUDA Cores y 18 GB de VRAM

NVIDIA ha visto como se han filtrado las especificaciones de la NVIDIA GeForce RTX 5070 SUPER. Estas especificaciones llegan apenas 4 meses después de que se lanzara la GeForce RTX 5070, lo que resulta llamativo. También es llamativo que esta GPU no llegue ni con una configuración de memoria de 16 GB o 24 GB. Sino que ofrece una opción intermedia gracias a los nuevos módulos de 3 GB de capacidad respecto a los módulos de 2 GB utilizados en modelos como la propia RTX 5070 que le precede.

Quizás lo peor de todo, es que si bien ofrece más memoria que una GeForce RTX 5070 Ti e incluso GeForce RTX 5080, no podía faltar capar el rendimiento. Es por ello que esta gráfica mantendrá la interfaz de memoria de 192 bits vista en la GeForce RTX 5070. Quedándose así muy atrás en ancho de banda respecto a las GeForce RTX 5080 Series y la RTX 5070 Ti, las cuales tienen una interfaz de 256 bits.

Estas son las especificaciones filtradas de la NVIDIA GeForce RTX 5070 SUPER

Según el conocido leaker kopite7kimi, la NVIDIA GeForce RTX 5070 SUPER llegará con el chip gráfico NVIDIA GB205-400-A1. Este chip ofrecerá una configuración de 6.400 CUDA Cores, lo que es, únicamente, 256 CUDA Cores más respecto a la GeForce RTX 5070. Lo que implica poco más de un 4% más de núcleos. Por lo que la diferencia de rendimiento es irrisoria. Y más si tenemos en cuenta que la GeForce RTX 5070 Ti ofrece 8.960 CUDA Cores. Es decir, un 40% más de núcleos. Por lo que si estas especificaciones son correctas, la NVIDIA GeForce RTX 5070 SUPER no tiene nada de SUPER. Y es que no solo no ofrece un rendimiento intermedio entre ambos modelos. Sino que ni tan siquiera ofrecerá un gran avance respecto al modelo normal más allá de ofrecer más capacidad de memoria.

Ya que hablamos de la memoria, la GeForce RTX 5070 SUPER llegaría con 18 GB de memoria GDDR7 a 28 Gbps junto a una interfaz de 192 bits. Esto implica ofrecer el mismo ancho de banda de 672 GB/s respecto a la GeForce RTX 5070. Con la salvedad de tener 18 GB de VRAM respecto a 12 GB.

Todo ello estaría ligado a un nuevo consumo energético de 275W. Lo que presenta 15W más respecto a la GeForce RTX 5070. Este aumento de consumo está ligado a estos núcleos extra, la mayor cantidad de memoria, y es de esperar que al menos el chip llegue a unas frecuencias más elevadas para intentar separarse algo más en términos de rendimiento con el modelo original.

También hay una actualización con la RTX 5080 SUPER

Adicionalmente a la RTX 5070 SUPER, tenemos una actualización de los requisitos de la NVIDIA GeForce RTX 5080 SUPER, su hermana mayor. Esta gráfica llegaría con el núcleo NVIDIA GB203 con 10.752 CUDA Cores a 3,00 GHz de frecuencia Turbo y 24 GB de memoria GDDR7 a 32 Gbps con una interfaz de 256 bits y un consumo energético de 415W.

Esto es una gran decepción, por no decir algo bastante más fuerte, respecto a la GeForce RTX 5080 original. Pues hablamos de tener el mismo número de núcleos. Estando la única diferencia en pasar de tener 16 GB de memoria a 24 GB. Equiparándose así en cantidad de memoria respecto a la nueva GeForce RTX 5090 DD capada para el mercado chino. Salvo que esta GPU tiene el doble de núcleos y una interfaz de 384 bits.

Saludos.

sábado, 28 de junio de 2025

Así será el sustituto del pantallazo azul de la muerte de Windows

El infame pantallazo azul de la muerte, todo un clásico en los sistemas operativos Windows, tiene los días contados. Microsoft ha confirmado que tiene preparado a su sucesor, y que este se empezará a implementar en Windows 11 24H2 entre finales de agosto y septiembre de este año.

Los pantallazos azules llevan con nosotros alrededor de 40 años, y estuvieron presentes desde el nacimiento de Windows, así que podemos decir que llevan toda una vida acompañando a este sistema operativo.

A pesar de lo temidos que son la verdad es que juegan un papel muy importante. Cuando aparece un pantallazo azul este indica que se ha producido un error crítico con nuestro PC, ya sea a nivel de Windows o de hardware y detiene automáticamente todos los procesos para evitar daños, mostrando además datos de diagnóstico que pueden ayudar a determinar qué es lo que ha ocurrido.

El problema es que esa información de diagnóstico no es fácil de entender para el usuario medio, y al final resulta imprescindible tomar nota o hacer una foto para luego buscar el código de error y entender ese pantallazo azul.

Os pongo como ejemplo algo que me ocurrió a mí recientemente. Sufrí una ralentización súbita en el PC con petardeo en el sonido, el teclado se desconectó y apareció un pantallazo azul de repente. No identificaba el código de error que me mostró el pantallazo azul de Windows 11, así que lo busqué al terminarse el reinicio del equipo, y supe que todo se había debido a un problema con el driver de la tarjeta de sonido.

Buscando más información en la web de Creative descubrí que la compañía reconoce la existencia de problemas de este tipo con equipos basados en Windows 11 y procesadores AMD, así que ese pantallazo me fue de gran utilidad, aunque tuve que molestarme en investigar.

El pantallazo negro de la muerte será el sucesor del pantallazo azul en Windows 11

Y tiene la pinta que veis en la imagen adjunta. En él podemos ver que se indica que el equipo ha encontrado un problema y que necesita reiniciarse. Justo debajo tenemos el porcentaje de progreso en el proceso de reinicio, y en la parte inferior aparecen el código de error y lo que ha fallado exactamente, es decir, el culpable de ese error.

Con este nuevo pantallazo, Microsoft espera reducir el tiempo de recuperación de un equipo que haya sufrido un «crasheo» a solo dos segundos, y ofrecer una información más clara al usuario afectado. Es un buen enfoque, pero creo que ya puestos habría estado bien que el gigante de Redmond hubiera incluido información más completa con indicaciones que puedan ser útiles en función del contenido de cada pantallazo, todo con el objetivo de evitar que vuelvan a producirse.

El uso del color negro tampoco me termina de gustar. La verdad es que habría preferido que hubieran mantenido directamente el color azul, o incluso que hubieran utilizado otro tipo de color, como el verde, por poner un ejemplo.

Saludos.

viernes, 27 de junio de 2025

Aparece la primera CPU Intel con caché vertical L4 «Adamantine» con 500W de consumo

Vamos camino a los dos años desde que publicamos la primera información sobre lo que debería ser la respuesta a la caché vertical de AMD, y no, no estamos hablando de Nova Lake-S, que al parecer, sí que la tendrá disponible. Lo que se ha filtrado desde la NDB es una CPU de Intel con 500W, donde un leaker afirma que incluirá una SRAM vertical (¿L4 Adamantine?), además, en el Base Tile. ¿Es este el camino que seguirá Intel con sus CPU para gaming?

La información se cruza con lo que vimos en 2023 y que retomaremos para sintetizar un poco todo este embrollo, puesto que lo que se va a ver es algo nuevo en los azules y no tiene nada que ver con lo que hace AMD. Si la información es correcta, la L4 de Intel será otra pequeña revolución en el sector de los procesadores.

Intel usará SRAM en los Base Tile como caché vertical, y la primera CPU podría ser de servidor con 500W

La información que se ha visto en el NDB es la que tienes sobre este párrafo, la cual no dice realmente demasiado y son los datos anexos del leaker los que nos sitúan un poco más. Como vemos, el registro se produjo a finales del año pasado, lo cual es muy extraño, porque o bien se ha ocultado, o bien nadie lo detectó hasta ahora.

Se puede leer perfectamente MICROPROCESSOR INTEL CPU CWF-AP XDCC, lo que sugiere que es un modelo Client Workstation Family Advanced PLatform. Lo interesante aquí es la nomenclatura XDCC, que está dando vueltas entre bambalinas y puede significar varias cosas a raíz de lo que se comenta de la SRAM en Base Tile:

  • eXtended Distributed Coherent Cache
  • eXtended Direct Coherent Cache
  • eXtended Data Center Cache

La primera opción parece ser la más afinada según se está hablando "off the record", en teoría, para Diamond Rapids, puesto que Clearwater Forest como arquitectura no debería incluir esta L4 Adamantine debido al uso de PCB + sustrato + Base Tile x 3, y esto lo intuimos porque en la patente que vimos en su momento Intel explicaba brevemente para qué iba a ser incluida.

Nova Lake-S tendría esta caché vertical L4 Adamantine en el Base Tile

Como hemos visto ya bastantes veces, en referencia a la diapositiva superior que precede a este párrafo, Intel tendrá dos configuraciones de procesadores en escritorio y portátiles, pero ambos incluirán obviamente un Base Tile. Lo que dijo la patente de 2023 es que la CPU de escritorio tendría una L4 Adamantine que funcionaría a modo de Base Tile, por lo que a diferencia de AMD, esta SRAM haría de sustrato para el resto de Tiles.

Si esto es cierto, y no es solo para el CPU Tile, algo que la patente descartó, puesto que engloba todos los Tiles y parece accesible y transparente para ellos, hablaríamos de una L4 masiva en tamaño, físico y lógico, que Intel describió así:

Las arquitecturas SoC de cliente de próxima generación pueden introducir grandes cachés en el package, lo que permitirá usos novedosos. El tiempo de acceso a la L4 (por ejemplo, "Adamantine" o "ADM") de esta caché puede ser mucho menor que el tiempo de acceso a la DRAM, que se utiliza para mejorar las comunicaciones de la CPU del host y del controlador de seguridad.

Esto dejaría la L3 actual de AMD en poco menos que un juego de niños con sus 64 MB por Chiplet, ya que aquí parece ser de mucha mayor capacidad por simple área del silicio. ¿Se llevará un concepto así a servidores? No lo parece. En Diamonds Rapids quizás podamos ver dos L4 Adamantine que hagan el mismo trabajo que Intel dijo.

Y esto lo podemos intuir por la distribución de pines del socket LGA9324 ya que vimos en su momento y que podéis contemplar justo arriba en imagen. La impresión es que esa SRAM en el Base Tile podría ser por doble, una en cada lado del socket, gestionando la mitad de los recursos del IO Tile y CPU Tile.

Es pronto para saberlo, ya que no hay todavía imágenes reales y físicas de la CPU como para saber lo que Intel ha hecho, pero según parece, está todo muy avanzado y su implementación será totalmente distinta en PC y servidor.

Saludos.

jueves, 26 de junio de 2025

AMD crea una increíble técnica de renderizado que mueve la generación de árboles y vegetación de la CPU a la GPU

En un avance significativo para el renderizado en tiempo real y en pleno 2025, AMD y la Universidad de Ciencias Aplicadas de Coburg han presentado una técnica que permite generar y visualizar árboles y vegetación compleja en juegos desde la CPU hacia la GPU con una fracción mínima de memoria. Denominada internamente por AMD como Real-Time GPU Tree Generation, puede ser un paso interesante para reducir el uso y consumo de VRAM en las tarjetas gráficas dentro de este contexto, además, acelerando el rendimiento.

AMD afirma que gracias al uso de gráficos de trabajo (work graphs) y nodos mesh bajo DirectX 12, la escena completa de 1.200 árboles y arbustos que propusieron como muestra se genera desde apenas 51 KiB de datos, eliminando la necesidad de almacenar hasta 34,8 GB que normalmente ocuparía un enfoque tradicional. Sobra decir del potencial de esta técnica, que, en su base, curiosamente, no es nueva.

AMD Real-Time GPU Tree Generation, un ahorro de VRAM gracias a una técnica que mueve la vegetación y árboles de la CPU a la GPU

Si bien en plena polémica por la poca VRAM de las tarjetas gráficas en general esta noticia e innovación puede parecer casi magia, realmente su impacto es acotado, pero en el camino correcto.

Esta solución no solo reproduce en tiempo real todos los elementos botánicos con animaciones detalladas y estaciones del año, sino que mantiene una calidad visual altísima con tiempos de renderizado por frame por debajo de los 8 ms, incluso incluyendo sombras, iluminación diferida y efectos como SSAO, reflejos y TAA. Esto quiere decir que no solamente vamos a ahorrar memoria como tal, dejándola “libre”, sino que el rendimiento es muy bueno.

El sistema parte de una necesidad evidente en los entornos gráficos actuales: cómo representar escenas naturales (árboles y vegetación) extremadamente ricas sin sacrificar memoria ni rendimiento. Con el incremento exponencial en potencia de cálculo de las GPU, pero sin igualar en velocidad el crecimiento de la memoria surge la urgencia de generar geometría sobre la marcha en lugar de almacenarla en buffers estáticos. Y ahí AMD se anota un pequeño tanto, de momento.

Vegetación realista sin coste de memoria: así funciona la tecnología de AMD

La técnica se basa en el modelo procedural Weber-Penn, creado en 1995 nada menos, pero que es ampliado con splines suaves en los troncos, animación direccional del viento, desplazamiento procedural para corteza y nieve, gestión completa de estaciones del año, y un sistema de edición intuitiva en tiempo real con poda por Ray Tracing.

Explicado de la forma más simple y según lo que expone AMD, diremos que en lugar de “precalcular” (nótense las comillas) los árboles con múltiples niveles de detalle y exportarlos como mallas (Mesh), se genera todo directamente en la GPU mediante un grupo de trabajo, donde cada nodo representa una tarea de generación, animación o renderizado.

Los nodos mesh lanzan directamente la geometría al rasterizador, evitando tráfico de memoria innecesario. La teselación se ajusta dinámicamente según la proyección en pantalla, y se incluyen optimizaciones como compresión de registros, agrupación de sheets y fusión de pases de renderizado y sombras en un solo recorrido.

Los árboles se dividirán en los juegos en cuatro partes para lograr el objetivo

Y es otro de los puntos clave, la división de los árboles, donde además de estos, las ramas y hojas también tienen lo suyo. El objetivo es simplificar el trabajo, y para ello, nada mejor que la segmentación, aunque explicarlo no es sencillo, pero vamos allá.

Los árboles se dividen jerárquicamente en hasta cuatro niveles de stems (tallos) cada uno capaz de clonar ramas y aplicar parámetros como atracción solar o gravedad.

Para cada segmento, se calcula una spline cúbica de Hermite que sustituye los conos truncados del modelo original.

Las hojas se representan con curvas de Bézier cuadráticas, incluyendo múltiples lóbulos, y en distancias largas se simplifican y escalan progresivamente para reducir el número de triángulos, desapareciendo suavemente con interpolación visual. O lo que es lo mismo, como estás lejos del árbol, las hojas directamente pasan a ser secundarias y no se les da prioridad.

La reducción de memoria usada es espectacular, el rendimiento bajo una RX 7900 XTX sobresaliente

AMD especifica que cada tipo de árbol se define con solo 704 bytes, y el total de 1.200 árboles en escena de prueba usa tan solo 51 KB de memoria. La generación se ajusta automáticamente para mantener una tasa de refresco objetivo en pantalla mediante un sistema de auto-LOD que degrada progresivamente los parámetros menos visibles si se excede el tiempo por frame.

En otras palabras, el uso de VRAM es mínimo, se da prioridad a la velocidad de renderizado de los frames y se gestiona con un auto-LOD simple.

En cuanto a rendimiento, las pruebas se realizaron en una AMD Radeon RX 7900 XTX bajo Direct3D 12 a 1080p. La generación y renderizado completo de árboles para el G-Buffer toma de media 3,13 ms, lo cual es un impacto mínimo. Al añadir la creación del mapa de sombras, el tiempo sube a 4,72 ms. Con todos los efectos visuales activados, y son bastantes en la prueba, el tiempo total por frame es de 7,74 ms, cumpliendo el objetivo de 120 Hz.

Real Time GPU Tree Generation, ¿cuándo llegará a los juegos?

En cuanto a ahorro de recursos, un solo árbol Sassafras con máxima calidad ocupa 151,4 MB, y toda la escena tradicionalmente requeriría 34,8 GB, imposibles de mantener incluso en GPU de gama alta. Con esta técnica, esos 34,8 GB se generan desde 51 KB en cada frame sin afectar al rendimiento. Sobra decir que la mejora es espectacular.

La solución permite además editar árboles en tiempo real, modificar su estructura con splines personalizados, ajustar el número de ramas o frutos, y aplicar cortes automáticos si las ramas colisionan con geometría de la escena. Todo esto con retroalimentación inmediata para el desarrollador gracias al ínfimo tamaño de los parámetros transferidos desde la CPU a la GPU.

En definitiva, Real Time GPU Tree Generation va a suponer un salto de gigante en aquellos juegos con mucha vegetación y árboles, selváticos, puesto que ahí se ganará rendimiento y fidelidad ahorrando además mucha VRAM. ¿Cuándo estará disponible? No está claro, ya que es una investigación de AMD y la Universidad alemana de Coburg, así que podría ser realmente en cualquier momento.

Saludos.

miércoles, 25 de junio de 2025

Crean una GPU «Frankenstein», la AMD Radeon GeForce RTX 9070 XT

Si estamos interesados en la compra de una nueva tarjeta gráfica, nos va a tocar elegir primero si queremos una de Intel, AMD o NVIDIA. Intel es complicada la situación donde se encuentra, pues aunque sus GPU están bastante bien de rendimiento/precio y tienen mucha VRAM, sus drivers no son muy buenos y hay problemas. En cuanto a NVIDIA, todos sabemos que esta es la más popular de todas, pero esta generación de AMD está demostrando que puede superar a NVIDIA y atraer a más clientes. En mitad de todo esto tenemos ahora un usuario que ha recibido una GPU Frankenstein que podríamos llamarla como AMD Radeon GeForce RTX 9070 XT al incluir marcas de AMD y NVIDIA en ella.

A principios de 2025 fue cuando NVIDIA anunció sus RTX 50 en el CES, momento que millones de jugadores esperaban en todo el mundo, pues llevábamos más de 2 años esperando por estas. Tras la sorpresa (por el rendimiento) y también decepción (por el precio) de las RTX 40, muchos decidieron esperarse a las nuevas para ver si estas valían más la pena. Si bien bajo el papel no estaban del todo mal, en la práctica no fue del todo así, pues apenas recibimos mejoras de rendimiento de un 15-30% entre la pasada y la nueva generación.

Un usuario recibe una GPU que combina AMD y NVIDIA, la "AMD Radeon GeForce RTX 9070 XT"

Las RTX 50 de NVIDIA tuvieron un muy mal lanzamiento, con pocas unidades disponibles, un stock que parecía que no iba a recuperarse y un precio absurdamente elevado. Estos problemas de la nueva generación de gráficas de NVIDIA provocaron que los jugadores desesperados optasen por alternativas como las RX 9070 XT de AMD. Estas fueron un éxito inmediato cuando salieron en marzo de 2025 y las tiendas anunciaron que la demanda era mayor de lo esperado.

Ahora tenemos una tarjeta gráfica que llega para satisfacer a aquellos que querían NVIDIA, pero también AMD. Al menos esa ha sido la sensación que nos ha dado la "AMD Radeon GeForce RTX 9070 XT", pues como podemos ver, un usuario de Reddit ha mostrado esta GPU Frankenstein que mezcla ambas. Esto no es una gráfica que puedas comprar en tiendas, pues al parecer la recibió tras solicitar una devolución.

La gráfica es producto de un error en la línea de producción, pues las ASUS TUF de AMD y NVIDIA son muy similares

Todo empezó cuando compró una ASUS TUF Gaming Radeon RX 9070 XT OC que no funcionaba bien y decidió devolverla a Micro Center. En lugar de recibir esta gráfica como reemplazo, lo que llegó fue una tarjeta gráfica que, como podemos ver, incluye el logotipo de GeForce RTX en el lateral de la gráfica y AMD Radeon TUF Gaming en la zona trasera donde está el backplate de metal. Esto se debe a que ASUS se confundió y combinó partes de ambas gráficas para crear esta mezcla en la línea de producción y que el usuario la recibiera.

Esta confusión proviene debido a que tanto la TUF Gaming Radeon RX 9070 XT OC Edition como la TUF Gaming GeForce RTX 5070 Ti OC Edition pertenecen a la misma gama y usan disipadores similares. Así pues, la GPU en sí es la Radeon RX 9070 XT, pues el chip pertenece a esta, pero luego el sistema de disipación con triple ventilador es el de la variante de NVIDIA.

Saludos.

martes, 24 de junio de 2025

Noctua NF-A12x25 G2, probablemente el mejor ventilador de 120 mm del mercado

Noctua anunció el lanzamiento de su nuevo ventilador de 120 mm tope de gama, el NF-A12x25 G2. Como su propio nombre deja claro, básicamente es una versión mejorada de su exitoso NF-A12x25 original lanzado en el año 2018. Esta versión G2 incorpora una geometría de aspas refinada y un novedoso diseño de motor. Básicamente, Noctua ha mejorado el que se trata de su ventilador más exitoso. Ya sea a nivel de premios recibidos o ventas logradas.

La principal mejora que integra estos cambios es ofrecer una mejora significativa en cuanto a la relación del rendimiento ofrecido por ruido generado. Lo que implica reducir la temperatura de sistema de refrigeración o mejorar el flujo de aire del chasis sin representar una desventaja a nivel sonoro. Si buscas uno de los mejores ventiladores de 120 mm que puedas comprar, a continuación seguimos ofreciéndote los detalles.

Estas son las mejoras realizadas en los ventiladores Noctua NF-A12x25 G2

El Noctua NF-A12x25 G2, al igual que su galardonado predecesor, está fabricado con Sterrox LCP (polímero de cristal líquido) y presenta una distancia entre puntas extremadamente estrecha de únicamente 0,5 mm. Al mismo tiempo, su impulsor de curvatura progresiva optimizado con aletas, los canales de aceleración de flujo y el nuevo cubo turbulador centrífugo, permiten a la versión G2 superar en rendimiento al NF-A12x25 original, convirtiéndolo así en el nuevo buque insignia de Noctua en la gama de 120 mm.

"El NF-A12x25 de primera generación estableció un nuevo punto de referencia para los ventiladores de 120 mm y se ha convertido en uno de los ventiladores Noctua más exitosos de todos los tiempos, por lo que estamos entusiasmados de poder ofrecer otra mejora significativa del rendimiento con respecto a este renombrado modelo", afirma Roland Mossig, CEO de Noctua.

"Utilizando el mismo motor y enfoque de diseño aerodinámico que el modelo G2 de 140 mm, el nuevo NF-A12x25 G2 se ha refinado aún más en prácticamente todos los aspectos, lo que le permite superar aún más los límites en términos de eficiencia rendimiento-ruido".

El Noctua NF-A12x25 G2 destaca por ser un ventilador todoterreno. Esto implica que ofrece excelentes resultados independientemente de donde lo uses. Ya sea en aplicaciones de baja impedancia orientadas al flujo de aire, como la refrigeración de un chasis, o en escenarios de alta impedancia y presión estática exigentes, como en disipadores por aire y radiadores para conformar un sistema de refrigeración por agua de alto rendimiento.

Adicionalmente, estos ventiladores se pueden acompañar del marco AAO (Advanced Acoustic Optimization). El cual puede combinarse con la junta antivibraciones NA-AVG1, incluida, para un sellado más hermético en radiadores. O con el marco espaciador lateral de entrada NA-IS1-12 opcional, que se vende por separado, y que puede ayudar a conseguir una acústica de aspiración superior y un caudal mejorado en configuraciones Pull exigentes.

Resto de la información, disponibilidad y precio de lanzamiento

La información del Noctua NF-A12x25 G2 se va completando con un motor etaPERF de pérdidas ultrabajas y tecnología Smooth Commutation Drive 2. Esta no solo está diseñada para proporcionar una eficiencia energética y una suavidad de funcionamiento sin precedentes, sino que, gracias a la nueva función SupraTorque, también puede aprovechar un margen de par adicional para mantener el ventilador a la velocidad deseada cuando trabaja contra la contrapresión, garantizando así un rendimiento aún mejor en disipadores y radiadores.

El Noctua NF-A12x25 G2 está disponible en una versión PWM estándar con una velocidad máxima de 1.800 RPM. Hay una versión LS-PWM ultrasilenciosa con hasta 1.100 RPM. Así como en un conjunto Sx2-PP que contiene dos ventiladores cuya velocidad está desfasada en +/- ~50 RPM. Este desfase de velocidad puede ser beneficioso en configuraciones Push & Pull, así como en situaciones en las que dos o más ventiladores funcionan uno al lado del otro, con el fin de evitar zumbidos periódicos u otros fenómenos de interacción acústica no deseados.

Rematado con rodamientos SSO2, un completo paquete de accesorios y 6 años de garantía, el Noctua NF-A12x25 G2 es prácticamente el mejor ventilador del mercado.

"Su rendimiento superior, amplio conjunto de características, construcción de vanguardia y materiales de última generación establecen un nuevo estándar dentro de la cartera de Noctua y lo convierten en una opción de élite para las demandas más exigentes".

En cuanto al precio, el Noctua NF-A12x25 G2 PWM llega a un precio recomendado de 34,90 euros o dólares. Pasando por 64,90 euros o dólares para la versión NF-A12x25 G2 PWM Sx2-PP (los 2 ventiladores con un leve desfase para configuraciones Push & Pull), y 34,90 euros o dólares para la versión silenciosa (LS-PWM a 1.100 RPM).

Saludos.

lunes, 23 de junio de 2025

La RTX 5090 con Shunt Mod supera a la RTX PRO 6000 en FPS, pero con 800W de consumo

Cuando NVIDIA lanzó sus tarjetas gráficas RTX 50, estas fueron una decepción para muchos jugadores. Estamos hablando de una nueva generación tras esperar más de dos años que ha acabado con mejoras mínimas. Al emplear el mismo nodo de TMSC que con las RTX 40, no hay mucho que hacer al respecto. Así es como hemos visto que gráficas como la RTX 5090 ofrecen un 30% de rendimiento adicional sobre la RTX 4090, pero a cambio consume precisamente ese 30% más. Ahora la RTX 5090 ha sido sometida a un shunt mod que le permitirá ir más allá hasta alcanzar un consumo de 800W.

Si has tenido intención de comprarte una nueva tarjeta gráfica, habrás visto que casi todas las que se venden actualmente son de la última generación. Al menos en el caso de NVIDIA lo que más te habrás encontrado son gráficas de la familia RTX 50. Esto se debe a la decisión de la compañía de dejar de fabricar las RTX 40, algo que ocurrió a finales de 2024. Primero fue la RTX 4090 y después le siguieron otros modelos de menor potencia.

Der8auer hace un shunt mod a la RTX 5090 para ver hasta donde llega en rendimiento y consumo

La estrategia de NVIDIA de dejar de fabricar RTX 40 era para crear una necesidad de adquirir las nuevas, las cuales a su vez eran más caras debido a su bajo stock. Esta situación fue un desastre para la compañía, pues ya vimos que AMD se aprovechó de esto para comenzar a vender sus Radeon RX 9000 que fueron un éxito. Ahora la situación con NVIDIA se ha normalizado tenemos sus gráficas a un precio más decente, aunque siguen siendo caras para lo que ofrecen.

La RTX 5090 se mantiene como la tarjeta gráfica más rápida para gaming de la gama GeForce. Esta ofrece 32 GB de VRAM y ese +25-30% sobre la RTX 4090 que le permite superarla, aunque claro, con un consumo mayor. El YouTuber der8auer ha querido superar los límites de esta RTX 5090 y en lugar de conformarse con los 575-600W que consume de fábrica ha decidido hacer un shunt mod, pudiendo así elevar hasta los 800W el consumo y llevar la gráfica a un nuevo nivel de rendimiento. Este mod es bastante conocido y se ha utilizado en muchas tarjetas gráficas, pues básicamente tiene como objetivo "engañar" a la gráfica sobre su consumo, lo que teóricamente permitirá aumentar el límite que viene de fábrica.

Esta RTX 5090 logra solo un 8% más de rendimiento y su consumo sube casi 250W

Antes de ver la mejora de rendimiento con el shunt mod, tenemos la RTX 5090 de base que logra 14.570 puntos en 3DMark Speed Way, lo que se traduce en 145,7 FPS con un consumo de unos 580-590W. Tras hacer el shunt mod ha pasado de nuevo la prueba de Speed Way y aquí tenemos 15.047 puntos, lo que se traduce en 150 FPS. Si bien la mejora es de solo un 3%, el consumo ha subido un 10% situándose en unos 660W.

Como no estaba contento con el rendimiento, ha estado realizando varios intentos de overclock manual, dejando que la RTX 5090 consumiera todo lo que podía. Por lo que hemos llegado a un pico de 800W y una media de 778W al final, logrando 15.796 puntos en Speed Way. Esto se traduce en una mejora de un 8% superando ligeramente a la RTX PRO 6000 a cambio de sumar casi 250W al final.

Saludos.

domingo, 22 de junio de 2025

ASUS anuncia su ROG NUC (2025) por 2.849 dólares (Core Ultra 9 275HX y RTX 5080)

ASUS anunció el lanzamiento de su Mini-PC gaming tope de gama, el ROG NUC (2025). Hay que recordar que hace unos años ASUS compró el negocio de los ordenadores compactos NUC de Intel. Por lo que, en este caso concreto, estamos ante un ordenador de muy alto rendimiento en un tamaño muy compacto. Y es que su chasis tiene un tamaño equivalente a 3 litros. Es decir, que el espacio interno de este ordenador equivale a tres botellas de agua de 1 litro de capacidad.

Como ya viene siendo habitual por parte de ASUS. Estos equipos mantienen parte de su esencia original, que es seguir recurriendo al uso de procesadores de Intel. Mientras que a nivel de gráficos tampoco ha cambiado nada. Pues ASUS ha seguido recurriendo a los gráficos dedicados de NVIDIA. En concreto, a las versiones Laptop, originalmente diseñada para portátiles.

Un vistazo de cerca al ASUS ROG NUC (2025) 

El ASUS ROG NUC (2025) que ya se pudo encontrar listado es el tope de gama. Este llega con un procesador Intel Core Ultra 9 275HX. El cual ofrece una configuración de 24 núcleos y 24 hilos por medio de 8 núcleos P-Core a 5,40 GHz y 16 núcleos E-Core. Estos están respaldados por 76 MB de memoria caché, y de unos gráficos Intel Xe de 4 núcleos. Este procesador admite un máximo de hasta 96 GB de memoria RAM DDR5. De fábrica, el equipo llega con 32 GB de memoria a 6.400 MT/s preinstalada junto a un SSD NVMe PCI-Express 5.0 de 1 TB de capacidad.

En cuanto a gráfica, el ASUS ROG NUC (2025) tope de gama recurre a una NVIDIA GeForce RTX 5080 Laptop. GPU que ofrece una configuración de 7.680 CUDA Cores y 16 GB de memoria GDDR7. A nivel de rendimiento, recordemos que es un modelo específicamente diseñado para portátiles. Por lo que realmente llega a rendir casi como una GeForce RTX 5070 de sobremesa. En un sistema de este tipo es inviable pensar en añadir una GeForce RTX 5090 Laptop. Pues ya generaría serios problemas de sobrecalentamiento.

Para que todo esto funcione como debe, se ha recurrido a un sistema de doble refrigeración para la GPU. Mientras que la CPU cuenta con sus propio sistema de refrigeración individual. Es muy probable que, al igual que los portátiles gaming tope de gama ASUS ROG. Este Mini-PC también cuenta con un compuesto térmico de metal para aportar una ayuda adicional en cuanto a reducir las temperaturas.

Resto de la información, disponibilidad y precio

Para terminar, toca hablar de la conectividad. El ASUS ROG NUC (2025) te ofrece la conectividad inalámbrica más avanzada, que es el Wi-Fi 7 y Bluetooth 5.4. En cuanto a puertos físicos, tienes acceso un puerto UBS4 / Thunderbolt 4, 6x puertos USB 3.2, 1x USB-C, además de cuatro salidas de vídeo 4K en forma de 2x DisplayPort 2.1 + 2x HDMI 2.1. Por si no fuera suficiente, tienes un puerto Ethernet a 2,5 Gbps, lector de tarjetas SD, y un puerto para auriculares por medio del conector jack de 3,5 mm.

Ahora llega lo más importante, el precio. El ASUS ROG NUC (2025) citado ya se encontró en listado en la web de ASUS por 2.849 dólares. Un precio realmente elevado, pero estás combinando un hardware de muy alto rendimiento en un chasis extremadamente compacto. También puedes recurrir a versiones más económicas con una CPU Intel Core Ultra 7 255HX y gráficos GeForce RTX 5070 Ti, RTX 5070 y RTX 5060.

Saludos.

sábado, 21 de junio de 2025

Qué es un SoC y por qué es tan importante en la industria de los semiconductores

Un SoC, traducido del inglés como sistema en chip, es un circuito integrado que unifica y controla todos los componentes principales de un sistema o dispositivo electrónico. Aunque han existido desde los mismos inicios de las tecnologías de consumo, hoy han alcanzado una gran importancia y son el diseño que por número de unidades lidera la industria de los semiconductores.

No es fácil para el usuario de a pie estar al día de todos los conceptos que definen la industria actual del hardware. SoC, APU, CPU, GPU, NPU, PSU, RAM, SSD… Son decenas los vocablos que pueden encontrarse para definir todo tipo de componentes. Aunque una buena parte de usuarios compra su flamante iPhone y no piensa en mucho más, otros buscan algo más de información, como conocimiento o comparación de lo que están comprando. En este artículo le dedicaremos un acercamiento a uno de esos componentes principales, su diseño, concepto y aplicaciones principales.

Qué es un SoC

La traducción de ‘Sistema en un solo chip’ ofrece la primera pista para definir lo referido a un único circuito integrado (o chip) que puede integrar todos (o gran parte) de los componentes principales de una computadora salvo. Dependiendo de su enfoque de uso, puede estar basado en circuitos digitales, analógicos o mixtos, y a menudo suma también módulos de radiofrecuencia como los empleados en comunicación inalámbrica.

Un SoC suele incluir la unidad central de procesamiento (CPU), la unidad de procesamiento gráfico (GPU), otros co-procesadores para tareas dedicadas (como la seguridad), la memoria, los puertos de entrada/salida, módems de conectividad inalámbrica como Wi-Fi y Bluetooth, y, más recientemente, hardware dedicado para tareas de inteligencia artificial, las unidades de procesamiento neuronal o NPU.

El objetivo principal para alojar todos estos componentes en un formato compacto es centralizar las funciones de procesamiento y control, además de reducir el consumo de energía y ahorrar espacio dentro de los dispositivos que motorizan. Esta configuración difiere de los sistemas informáticos tradicionales, con chips o placas de circuitos independientes para diferentes funciones y características, como los diseños de una torre de sobremesa típica.

Los SoC se fabrican con tecnología de semiconductores y se basan en un único sustrato (silicio) para integrar toda su funcionalidad. Este diseño optimiza la comunicación entre componentes y permite una transferencia de datos más rápida, una menor latencia y una mayor eficiencia energética, lo que lleva a un mejor rendimiento por vatio. Otra de sus grandes ventajas es el menor espacio ocupado, por no hablar que su proceso de fabricación es infinitamente más económico que producir todos los componentes que integra por separado.

Aunque ARM es (a mucha distancia) la arquitectura que más diseños SoC suministra, hay que decir que este tipo de tecnologías pueden usarse con otras arquitecturas como x86 y, de hecho, tanto Intel como AMD las han producido y las producen.

Qué dispositivos lo utilizan

Los SoC son fundamentales para muchos dispositivos digitales modernos, especialmente aquellos donde el espacio, la eficiencia energética y la rentabilidad son la gran prioridad durante el desarrollo del producto. Su diseño compacto permite a los fabricantes integrar capacidades complejas en formatos pequeños.

Aunque los diseños SoC se usan desde hace décadas en los sistemas embebidos, la revolución de la movilidad con la llegada de los móviles inteligentes ha sido determinante para su uso masivo. Hoy en día, prácticamente el 100% de los smartphones que llegan al mercado los utilizan en unos diseños simplemente impresionantes, que gestionan desde el procesamiento básico hasta los juegos de alta gama, el procesamiento de imágenes de la cámara, la conectividad celular, la inalámbrica o todo lo relacionado con la IA.

Además de móviles, estos diseños de ‘un solo chip’ son esenciales para el grupo de wearables, como los relojes inteligentes, pulseras de actividad física o los auriculares inalámbricos donde el espacio es extremadamente limitado. También los usan la gran mayoría de tabletas electrónicas, al igual que otro buen número de consolas portátiles y prácticamente la totalidad del grupo de computadoras de placa única (SBC) como las Raspberry Pi.

Otro grupo que cada vez tiene más importancia es la industria automotriz donde los SoC se usan masivamente para los tableros digitales, los sistemas de info-entretenimiento o la conducción autónoma. Electrodomésticos inteligentes, drones, domótica, altavoces inteligentes, termostatos o todo lo que llega de los dispositivos de Internet de las Cosas suman un número incalculable.

¿Y en PCs y Servidores?

Cómo habrás leído, los SoC son (a mucha distancia) el diseño principal (por número de unidades) de los motores de procesamiento de los dispositivos digitales modernos. Pero, ¿y en computadoras personales? También, pero menos. La entrada de la arquitectura ARM en PCs, especialmente de la mano de Apple con sus diseños propios para Mac, ha abierto un nuevo camino que están siguiendo otros proveedores como Qualcomm, Y se espera que otros gigantes como NVIDIA entren pronto en este mercado.

Aunque se espera que su presencia aumente y bastante en los próximos años, especialmente en portátiles ligeros o mini-PCs básicos, las computadoras de escritorio y mayoría de portátiles de consumo y profesionales seguirán usando la arquitectura de hardware convencional, debido a las necesidades de mayor flexibilidad, mayor nivel de potencia y capacidad de expansión.

Como sabes, estas computadoras suelen instalar sus principales componentes por separado (CPU, GPU, RAM y almacenamiento), instalados individualmente en una placa base donde se incluye el chipset que maneja la comunicación entre ellos, los componentes de Entrada/Salida o los de conectividad inalámbrica.

Aquí conviene hacer una aclaración con los procesadores que incluyen una gráfica integrada en la misma die. Intel lo usa masivamente al igual que AMD que tiene una denominación propia como referencia. Los verás como APU o unidad de procesamiento acelerado. Conviene no confundirlos con los SoC porque éstos son un diseño diferente.

No es sencillo que la tecnología SoC se imponga en PCs porque la arquitectura convencional tiene unas ventajas imposibles de superar, como un diseño modular que permite a los usuarios actualizar o reemplazar componentes. O el apartado del rendimiento, en juegos, edición de video, renderizado 3D, computación científica u otras aplicaciones profesionales. Y es que los SoC presentan limitaciones al gestionar todo este tipo de tareas, si bien diseños como los Apple M han avanzado también en rendimiento de manera impresionante.

Aún así, muchos fabricantes de computadoras aún prefieren la arquitectura tradicional a los SoC porque estos últimos no están diseñados para cargas de trabajo sostenidas, grandes cachés y memoria de alto ancho de banda. Todo esto es más fácil de implementar con los sistemas informáticos tradicionales. Imagina la imposibilidad de integrar la potencia y consumo de energía de una tarjeta gráfica dedicada moderna en un sistema en un solo chip.

¿Y en servidores? Estaciones de trabajo profesionales y servidores para centros de datos requieren escalabilidad y arquitecturas multicomponente para poder gestionar tareas de procesamiento masivas simultáneamente, algo que los SoC no pueden gestionar. Sin embargo, es posible que los SoC se introduzcan pronto en el sector de los centros de datos a medida que se realicen más avances tecnológicos y la propia industria comience a reconocer el potencial de los microchips para optimizar el rendimiento y consumo en una era donde la IA se ha vuelto insaciable y amenaza incluso la sostenibilidad global en el consumo de energía.

Saludos