viernes, 5 de diciembre de 2025

ASRock lanza una placa base que soporta memoria DDR4 y DDR5

A las puertas de 2026, ASRock ha anunciado el lanzamiento de una placa base Intel con el chipset H610M con soporte para memoria DDR4 y DDR5. Evidentemente, esta placa base refleja el miedo de la industria: si no hay memoria RAM, o hay, pero muy cara, nadie renovará su PC. Esto implica que el problema de la memoria arrastrará al resto de la industria. Y es por ello que ASRock está buscando que el usuario se piense seriamente en adquirir memoria RAM de anterior generación, DDR4, la cual tiene un precio más asumible.

La memoria RAM DDR4 no ha sido inmune a los aumentos de precio, pero claro, por mucho que suba de precio, siempre será más barata que la DDR5. Y más si tenemos en cuenta que en Aliexpress podemos encontrar muchos módulos de memoria DDR4 de fabricantes chinos con precios más competitivos. Por lo que si necesitas un PC, pero el dinero no te da, la única opción posible es comenzar a usar hardware de anterior generación.

Así luce esta ASRock H610M Combo con soporte para memoria DDR5 y DDR4

Como su propio nombre indica, esta placa base de ASRock hace uso del chipset Intel H610, lo que implica ir ligado al socket Intel LGA1700. O dicho de otra forma, una placa base para utilizar procesadores Intel Core de 12ª, 13ª y 14ª Generación. Aquí lo único que importa, es que esta placa base es capaz de funcionar con memoria DDR5 o memoria DDR4. De esta forma el usuario puede utilizar cualquier memoria actual que pueda encontrar al precio que pueda, o quiera pagar. Pero es lógico que esta placa sólo interesa por poder usar una memoria DDR4 más económica.

En concreto, esta placa base es capaz de soportar hasta 96 GB de memoria RAM DDR5 a 4.800 MT/s por medio de cuatro ranuras DIMM. Por otro lado, podrás recurrir a un máximo de 64 GB de memoria DDR4 a 2.666 MT/s por medio de dos ranuras DIMM. Por lo demás, esta ASRock H610M COMBO es una placa base de gama baja. Es por ello que visualmente es muy simple, solo con un pequeño disipador para el chipset.

La CPU se alimenta mediante un VRM muy básico de 3+1 fases de alimentación, tienes acceso a una ranura PCI-Express 4.0 x16, 2x PCIe 3.0 x16 y 1x PCI. Podrás instalar un SSD M.2 NVMe PCIe 3.0, y tienes acceso a 4x puertos SATA III @ 6 Gbps. Incluso tendrás salida de vídeo VGA y DVI para la gráfica integrada de la CPU. Además de DisplayPort 1.4 y HDMI 1.4. Todo ello llega en un formato Micro-ATX.

¿Y bueno, realmente este movimiento sirve para algo?

Realmente la ASRock H610M Combo no cambia mucho las cosas, pero será la opción perfecta para aquella persona que quiera conformar un equipo de muy bajo coste. En el momento de la redacción, se puede encontrar 32 GB de memoria RAM DDR4 a un precio mínimo que ronda los 150 euros. Pero en julio, esta memoria costaba apenas 65 euros. En los últimos meses subió de precio por la escasez natural hacia la transacción de las fábricas a memoria DDR5. Por no hablar de la crisis actual. Sí, ha subido de precio, pero poco más del doble. Que es muy poco si consideramos que la memoria DDR5 ha cuadruplicado, e incluso quintuplicado su precio.

Ahora bien, aún se puede encontrar memoria RAM DDR5 "barata" respecto a los precios más actualizados. Y es que el kit de memoria DDR5 de 32 GB más económico ronda los 175 euros. Estamos hablando de apenas 25 euros más por una DDR5 a 6.000 MT/s CL30 respecto a una DDR4 a 3.200 MT/s CL16.

De esta forma, para que la ASRock H610M Combo tenga sentido, hay que pensar en la memoria DDR4, pero de segunda mano. Si nos vamos a Wallapop, es muy fácil encontrar 32 GB de memoria DDR4 por precios que se mueven entre los 60 y 80 euros. Evidentemente, hay otras opciones a 150 euros. Pero es evidente que estos perfiles de usuarios ya saben lo que está pasando, y quieren aprovecharse de ello, claro. Hablamos así de pagar menos de la mitad respecto al precio en tienda, y es donde está el verdadero ahorro de recurrir a una plataforma que permita el uso de memoria DDR4. Otra opción es Aliexpress. Donde incluso encontrarás 16 GB de RAM DDR4 desde 29 euros.

Saludos.

jueves, 4 de diciembre de 2025

ENERMAX PlatimaxII 1200DF: ATX 3.1, 1.200W de potencia, 80 PLUS Platinum y 13 años de garantía

ENERMAX anunció su fuente de alimentación tope de gama, la PlatimaxII 1200DF. Estamos ante el nuevo modelo tope de gama de la compañía, y quizás en el producto de mayor calidad sacado en su historia. Y una prueba de ello es que la compañía está tan segura de la calidad y fiabilidad de su fuente de alimentación, que ofrece nada menos que 13 años de garantía. Esto son 3 años más respecto a la garatía ya estandarizada en 10 años que podemos ver en las mejores fuentes de alimentación del mercado. Así que es una fuente de alimentación que te acompañará durante una buena parte de tu vida.

Como cualquier fuente de alta gama que se anuncie ya a estas alturas, cumple con el estándar Intel ATX 3.1, y como no podía ser de otra forma, incluye de forma nativa el conector de alimentación 12V-2x6 pensando en la nueva generación de gráficas. Donde un único cable de este tipo es capaz de suministrar hasta 600W de energía. Evidentemente, estamos ante una fuente de alimentación con un diseño completamente modular. Esto te permite únicamente utilizar el cableado necesario, eliminando así una gran cantidad de cableado que molesta a la hora de esconderlo, además de afectar al flujo de aire interno del sistema.

Un vistazo de cerca a la ENERMAX PlatimaxII 1200DF

Como su propio nombre adelanta, la ENERMAX PlatimaxII 1200DF ofrece 1.200W de potencia. Lo más interesante de todo, es que llega doblemente respaldada. Para ello, cuenta con los certificados energéticos 80 PLUS Platinum y Cybenetics Platinum como prueba de su alta eficiencia energética. Para ello, utiliza componentes de gran calidad, junto a unos condensadores 100% japoneses de categoría industrial para ofrecer una gran estabilidad con el paso del tiempo, y una regulación de voltaje precisa durante intensas cargas de trabajo. A fin de cuentas, estos condensadores son considerados los más fiables y duraderos del mercado. Y es que son los que mayor resistencia ofrecen al calor, y tienen una menor tasa de fallo a largo plazo.

A ello se le suma que la fuente de alimentación es capaz de soportar hasta un 235% de Power Excursion. Es decir, que la fuente es capaz de soportar picos de consumo muy altos. Para ser exactos, hasta 2,35 veces su potencia nominal durante un periodo corto de tiempo. Esto implica que la fuente sería capaz de soportar picos de hasta 2.820W sin apagarse o dañarse.

Como características importantes de la ENERMAX PlatimaxII 1200DF, terminamos con su facultad anti-polvo. Y sí, esta fuente incluye un imponente ventilador semi-fanless de 135 mm con la tecnología patentada Dust-Free Rotation (DFR). Este ventilador se mantendrá parado a baja temperatura o siempre que la carga de la fuente no supere el 60% para mantenerse siempre silenciosa. Lo mejor de todo, es que la tecnología de anti-polvo permite que el ventilador gire de forma inversa durante 20 segundos para expulsar todo el polvo durante cada apagado del sistema.

Resto de la información, disponibilidad y precio

Terminamos con la ENERMAX PlatimaxII 1200DF conociendo que hace uso de un cableado premium con sleeving para un diseño más atractivo y mayor durabilidad. Tenemos todas las protecciones energéticas de grando industrial (OCP, OVP, UVP, OPP, OTP y SCP). Y en cuanto a dimensiones, un tamaño estándar de 150 x 150 x 86 mm de altura.

En cuanto a la gráfica, debes saber que incluye una única línea de +12v capaz de suministrar hasta 1.200W de energía. Esta te permitirá alimentar una GPU tope de gama de dos formas: con el conector PCIe 5.0 12V-2x6 o mediante 3x convencionales conectores PCI-Express de 6+2 pines.

La ENERMAX PlatimaxII 1200DF llega tanto en color negro como blanco para adaptarse a todos los equipos a nivel de diseño. Tiene un certificado que acredita que es capaz de funcionar hasta 5.000 metros de altura (por si te la llevas de paseo), y llega a un precio recomendado de 229,99 dólares (239,99 dólares si la quieres en color blanco).

Saludos.

miércoles, 3 de diciembre de 2025

Según un ingeniero de Windows XP, Windows 11 necesita un Service Pack

Windows 11 está en el ojo del huracán. No son pocos los que califican el sistema operativo como ‘desastre’ y el futuro de su desarrollo no se presenta esperanzador para los usuarios que suplicamos por un sistema ligero, rápido y sin errores. Todo lo contrario de lo que hasta ahora ha sido Windows 11, si bien los problemas son previos a su lanzamiento como luego veremos.

Si Microsoft se empeña en desarrollar Windows 11 en torno a una IA insustancial, diseñada para contentar a inversores y accionistas (hasta que la burbuja explote) pero que está lejos de lo que piden y necesitan los consumidores, habrá poco que hacer. Si Microsoft pone inteligencia humana encima de la mesa y escucha las críticas de sus clientes, Windows 11 tiene solución.

El ingeniero retirado de Microsoft, Dave Plummer, cuyo último trabajo fue el Service Pack para Windows XP, ha aportado un punto de vista del que algunos llevamos hablando hace años cuando exponíamos el problema de calidad de software de Windows. El ingeniero dice lo que muchos pensamos: cree que es hora de hacer una «pausa» y apostar por un «momento SP2» que a la compañía le funcionó muy bien en el pasado.

¿Tiene arreglo Windows 11?

Ya te hemos hablado hasta la saciedad de la problemática de un desarrollo que nació como un ‘Windows 10 tuneado’, pero más inflado, con más telemetría, lleno de bloatware, menos personalizable y servido para promocionar servicios y aplicaciones de Microsoft. A ello se sumó un incremento de requisitos de hardware que, bajo el socorrido argumento de la seguridad, pocos entendieron y más después de una gestión caótica de los mismos.

La inconsistencia de la interfaz se mantiene desde el primer día con apartados esenciales como la barra de tareas o menú de inicio sin terminar de rematar, al igual que la percepción de que Windows 11 es más lento que Windows 10 en cualquier tarea.

Y los errores… No hay semana que un nuevo fallo no se acumule a la larga lista de errores por solucionar. Hasta en Microsoft admiten que Windows 11 está roto. Una bola de nieve que se alimenta en cada nueva actualización y que habla a las claras de un control de versiones deficiente, cuando no inexistente que en plena etapa de desidia no aprovecha el gran programa de prueba que supone Windows Insiders.


No, Windows 11 no funciona. La prueba de ello es que Windows 10 mantiene una cuota de mercado superior al 40% y los usuarios no migran de sistema ni gratis, a pesar que éste haya finalizado su ciclo de vida lo que puede provocar un grave problema en la ciberseguridad mundial porque no todos están aprovechando el programa de seguridad extendida.

¿Un Service Pack para Windows 11?

El ingeniero retirado de Microsoft apuesta por un programa similar y recuerda lo sucedido décadas atrás cuando desarrollaron los Service Packs para Windows XP. Quizá obligado por la aparición del gusano Blaster apareció en 2003, Microsoft tomó una decisión decisiva: «dejamos de lado todo el trabajo de funcionalidades», recuerda.

«Durante meses, solo corregimos errores y mejoramos la seguridad. En pocas palabras, dejamos de intentar agregar valor al producto a través de características que los PM [gerentes de proyectos] pensaban que agradarían a los usuarios y, en cambio, nos centramos en cosas que habían sido importantes durante mucho tiempo pero que se habían pasado por alto».

Dos décadas después, Microsoft está llenando Windows con funciones de inteligencia artificial lo que ha provocado una avalancha de comentarios negativos. Y no es por la IA propiamente, es que se ignora las quejas de los usuarios sobre el rendimiento y la confiabilidad. Y no se dedican esos esfuerzos a solucionar lo principal: todos los fallos de Windows 11. Es natural que los usuarios no quieran más funciones ni características y exijan soluciones a lo que hay.

En lugar de rediseñar Windows como un «sistema operativo agente», Plummer dice que ha llegado el momento de que Windows 11 se centre en la estabilidad y en el rendimiento. Su receta, como hicieron en Windows XP, es simple: dedicar un ciclo de lanzamiento a la estabilidad y el rendimiento, por encima de las características. «Solo por un lanzamiento», dice. «Solo hasta que deje de ser un desastre».

El veterano ingeniero de Microsoft no puede ser más lógico y realista. Cuando algo no funciona te paras y lo arreglas. Veremos si escuchan en la sede de Redmond.

Saludos. 

martes, 2 de diciembre de 2025

Deep Web vs Dark Web, la internet más desconocida

‘Deep Web’ y ‘Dark Web’ son términos que se usan para referirse a la parte de la World Wide Web más desconocida. Aunque frecuentemente se utilizan como si fueran lo mismo, son totalmente diferentes. Para entender sus diferencias hay que sumergirse en la verdadera profundidad de la Web y de Internet, como vamos a hacer en este artículo especial.

Internet ha cambiado para siempre la manera de comunicarnos y la propia historia de la Humanidad. Con sus claroscuros, este conjunto de redes de comunicaciones que nació desde ARPANET conecta hoy habitualmente a 5.350 millones de usuarios y tiene a la WWW como su bien más preciado,  imprescindible para cualquier ámbito de nuestra sociedad, funcionamiento y desarrollo humano.

Deep Web frente a Dark Web, ¿En qué se diferencian?

Las diferentes partes de la Web suelen explicarse con la imagen de un iceberg. La parte visible sería la ‘Surface Web’ e incluiría todo el contenido indexado por los motores de búsqueda. Por debajo de la superficie tendríamos a la Web Profunda con el contenido no indexado por los buscadores. En cuanto a la Web Oscura, sería una parte (no demasiado grande) de la anterior. Como ocurre en el mundo físico, el digital no escapa a todo tipo de submundos y sujetos que la pueblan, de todo pelaje, condición y objetivos.

«La Internet Profunda»

El concepto de ‘Internet Profunda’ fue introducido por Michael K. Bergman en la década de los años 90 en un white paper titulado «The Deep Web: Surfacing Hidden Value». Al contrario de lo que muchos piensan, su propósito no era definir una red oculta intencionadamente, sino lo que ya hemos comentado: definir los contenidos no localizables por los motores de búsqueda convencionales por cualquier motivo, desde páginas protegidas mediante contraseñas a formatos no indexables por tratarse de contenido html.

Hay bastante controversia con el tamaño que puede ocupar la Deep Web en la totalidad de Internet. Algunos autores calcularon su tamaño hasta en 500 veces superior a la Internet superficial, si bien hoy, otros analistas lo reducen bastante tras la explosión de las redes sociales; la capacidad de los motores de búsqueda actuales o la cantidad récord de datos movidos por los dispositivos móviles. Uno de los estudios más precisos fue realizado en la Universidad de Berkeley, con estimaciones que calculaban una ocupación de la Internet oculta de 91.000 TeraBytes y más de 300.000 sitios web.

La estimación es imposible de confirmar por su propia estructura, pero impresionante de igual forma. Las cifras que se manejan para este sub-mundo de Internet son espectaculares, aunque seguramente se han reducido en proporción con la parte de Internet que usamos a diario. Y se reducirá aún más tras la llegada de la IA y la inmensidad de contenido que mueven los grandes modelos de lenguaje.

«La Internet Oscura»

A menudo se la convierte en sinónimo de la anterior y es un error grave. Simplemente, la Web Oscura se incluye dentro de la Web Profunda como contenido no indexado. Aunque no fuera su propósito inicial ni el de más interés para la mayoría de mortales, por su propia arquitectura este submundo ha atraído a la peor calaña que ha trasladado todo lo malo del mundo físico al virtual, con actividades cuestionables o directamente ilegales.

Si no es posible definir el tamaño de la Internet Oscura imagina con esta. Algunos autores rebajan lo que representan estas actividades delictivas en el total y dentro de subniveles internos de la propia Internet Oscura, algunos sin acceso público como las darknets (redes oscuras), las redes de acceso restringido que se usan principalmente por ciberdelincuente

¿Para qué se utilizan?

El objetivo común en ambas es ofrecer a los internautas un mayor grado de privacidad que el que puede conseguirse en la web superficial y que es bastante lamentable ante todo el rastreo, telemetría o directamente espionaje digital de grandes empresas, administraciones y gobiernos. Por ello, la web profunda se utiliza principalmente para almacenar información confidencial que sería vulnerable si se pudiera acceder fácilmente a ella en la web superficial.

En este escenario, a menos que tengas los datos de inicio de sesión correctos para cierta información en la web profunda, nadie podrá acceder a ella, especialmente datos confidenciales (los que más se intenta robar en Internet) como la información médica o los perfiles de banca por Internet. La teoría es esa, porque la privacidad al 100% no es posible ni siquiera en estas redes.

La web oscura lleva la privacidad a un nivel diferente, permitiendo a los usuarios navegar y comunicarse de forma totalmente anónima. Cuando la mayoría de la gente piensa en ella suele pensar en actividades ilegales. Aunque el nivel de anonimato en la web oscura la ha convertido en un refugio para transacciones criminales, no es solo para eso.

También lo utilizan personas normales que buscan navegar de forma privada y asegurarse de que su información o su tráfico de Internet no sean monitorizados ni rastreados. Pueden acceder a libros o revistas académicas que pueden no estar disponibles en la web y realizar pagos utilizando moneda aparentemente anónima como Bitcoin. Otra categoría de usuarios de la web oscura incluye periodistas y denunciantes que desean compartir información confidencial o sensible sin temor a censura o acciones legales.

Incidir en que no es posible entender el funcionamiento de la Deep Web sin Bitcoin, ya que la moneda electrónica descentralizada e independiente de emisores centrales es la divisa oficial, el medio de pago preferente y utilizado para todo lo que la Internet Invisible ofrece, lo bueno y lo malo. A pesar de sus detractores, inseguridades y fluctuación de valor, Bitcoin se usa cada vez más y si quieres comprar algún producto o servicio (legal o ilegal) en la Deep Web tendrás que disponer de una cartera para esta moneda electrónica.

Cómo se accede

También aquí vemos diferencias relevantes entre la Deep Web frente a la Dark Web. A la primera se puede acceder mediante los navegadores web habituales que usamos en la Internet superficial, siempre que tengamos las credenciales correctas para acceder a la información. Puede sorprender saber que navegamos por la Web Profunda a diario, cuando iniciamos sesión en el correo electrónico, perfil de redes sociales o plataforma de transmisión de música o video favorita, estás utilizando la web profunda. Estas páginas siguen siendo exclusivas siempre que las credenciales sean confidenciales, porque como decíamos la diferencia con la Web superficial es que el contenido de ésta es su localización por los motores de búsqueda convencionales.

El acceso a la Web Oscura sí es totalmente distinto por el uso de URLs cifradas (tipo http://kpvz7ki2v5agwt322(punto)onion). Se especula que hay bastantes más en los subniveles, pero en cualquier caso su acceso es trivial para cualquier usuario. Aunque hay otras formas de acceso, la más sencilla y utilizada para un profano es a través de Tor, un proyecto Open Source de comunicaciones distribuida que busca el anonimato a nivel de red, mantiene el secreto de la información que viaja por ella y permite moverse por Internet sin dejar rastro.

La red TOR no está pensada para contener material oculto y mucho menos para proteger actividades delictivas, sino para mejorar la privacidad. Tor Browser Bundle es el paquete que nos permite conectar a la red Tor. Cuenta con versiones para Windows, Linux, macOS y Android, que pueden usarse tanto en la Internet superficial como para acceso a la Deep Web. Se trata de un ‘Firefox’ tuneado que puede instalarse o usarse en modo Live desde un pendrive USB e un pendrive. Más allá de permitir un acceso sencillo a la Internet profunda, hay que decir que el uso de TOR se ha disparado en todas las redes, especialmente tras conocer los escándalos de vigilancia masiva de la NSA la pasada década.

Deep Web frente a Dark Web: Contenido

Películas y documentales han convertido a la Deep Web en sinónimo de la Dark Web y es una aseveración errónea, si bien, como ésta se incluye en la primera, ello ha llevado a sus detractores a considerar el total de este mundo como un refugio para delincuentes donde puede encontrarse cualquier producto o servicio manifiestamente ilegal.

Ciertamente, cuesta hasta enumerar todo lo malo que se puede encontrar ahí… En esencia, todo lo peor del mundo físico trasladado al virtual, mediante darknets (redes oscuras), redes de acceso restringido que se usan principalmente para actividades cuestionables. Como decíamos, y por su propia arquitectura, estos submundos atraen a la peor calaña, aunque no fuera su propósito inicial ni el de más interés para la mayoría de mortales. Algunos autores rebajan lo que representan estas actividades delictivas en el total y dentro de subniveles internos de la propia Internet Oscura, algunos sin acceso público.

Afortunadamente, Deep Web ofrece más que delitos y con carácter general, garantiza -cierto- anonimato en el intercambio de información, por ejemplo a los usuarios que han tenido la desgracia de nacer en países con regímenes dictatoriales. También grupos de ciudadanos ‘normales’ que buscan ese anonimato y que se integran en foros con todo tipo de temáticas, que pueden ser frikis, curiosos, alternativos o especializados, pero alejados de las actividades delictivas.

No todos saben que organizaciones tan poco sospechosas como NASA almacenan ahí cantidades de datos enorme de investigaciones científicas y existen bases de datos de todo tipo que ocupan una buena parte del total. La organización Wikileaks comenzó a ofrecer documentos clasificados con contenido sensible en esta red antes incluso de saltar al gran público y varios de los servicios masivos como Facebook tiene sitios espejo que permiten usar la red social de manera más privada. Por supuesto, no faltan todo tipo de herramientas como navegadores, clientes de correo o buscadores internos propios.

Cuidado con lo que haces y dónde te metes

Acceder a la Web Profunda general es algo que hacemos cualquier internauta a diario como hemos explicado más arriba al usar servicios que obligatoriamente necesitan autenticación y que no son indexados por los motores de búsqueda. La Web Oscura ya es otra cosa, aunque hay muchos mitos en medio de realidades muy duras de las actividades que se pueden realizar. En varias ocasiones hemos hablado de los riesgos y precauciones a adoptar y no quisiéramos terminar sin volver a exponerlas reclamando la máxima responsabilidad y conocimiento de estos submundos:

Evita la dark web a menos que te sientas completamente seguro y seas consciente de donde te metes, diferenciando las redes oscuras del acceso a los servicios legales de lo que es la Web Profunda.

El anonimato no es total. 

Hace muchos años que es conocido que nada es anónimo en ninguna parte de Internet y la WWW. Documentos filtrados por el ex-técnico de la CIA, Edward Snowden, revelaron el espionaje de la Agencia de Seguridad Nacional estadounidense sobre la red TOR comprometiendo equipos informáticos de usuarios concretos y así poder espiar sus actividades. La privacidad total no existe ni en la Deep Web. Es altamente recomendable navegar a través de proxies y si puedes, desde equipos que no utilices para tus actividades «normales».

Cuidado dónde te metes, lo que buscas y lo que haces. 

La Internet ‘Invisible’ y dentro de ella la Dark Web, incluye lo peor de lo peor y aunque no todo está accesible te puedes encontrar con cualquier cosa. Más aún, todo tipo de actividades ilegales. Donde están los delincuentes están las fuerzas de seguridad y no es imposible descubrir tu IP real por muchas precauciones que utilices.

El malware es habitual. 

Hay altas probabilidades de acabar infectado si no se conoce perfectamente de dónde vienen esos archivos descargado y las páginas visitadas en la Internet Oscura. En estas redes, es obligatorio usar una buena solución de seguridad, cortafuegos y software adicional de protección. Linux, Proxies, VPN… cualquier tipo de protección a nivel de sistema y de red es recomendable.

El acceso a la Deep Web es ilegal en algunos países. 

El acceso a toda la Internet Profunda, incluyendo a la Web Oscura, es perfectamente legal desde la mayoría de países. Pero cuidado; en otros países su acceso está prohibido por defecto. Hay más ejemplos, pero en China, la simple carga de una solución como TOR te lleva a la cárcel.

Saludos. 

lunes, 1 de diciembre de 2025

En 2019 un hombre estafó 122 millones de dólares a Google y Facebook con facturas falsas

Entre 2013 y 2015, un lituano llevó a cabo una de las estafas financieras más audaces de la historia de la tecnología, robando con éxito la asombrosa suma de **122 millones de dólares** tanto de Facebook como de Google. El delincuente se hizo pasar por un proveedor legítimo de hardware, aprovechando la enorme escala de operaciones de ambas compañías.

Evaldas Rimasauskas, un lituano de 50 años, ha admitido haber estafado más de 100 millones de dólares a Facebook y Google. Rimasauskas y varios cómplices no identificados enviaban facturas falsas a estas compañías haciéndose pasar por una empresa taiwanesa (Quanta Computer). De este modo consiguieron sustraer 99 millones de dólares a la red social de Mark Zuckerberg y 23 millones al buscador.

El plan no implicó en absoluto hackeo ni código informático complejo; en cambio, el estafador se basó exclusivamente en una magistral **ingeniería social** y errores humanos. Falsificó sistemáticamente documentos y envió facturas falsas directamente a los departamentos financieros de ambas compañías, que posteriormente se procesaron y pagaron sin la debida verificación.
 
Este caso de alto perfil sirve como un claro recordatorio de que incluso las corporaciones multimillonarias son vulnerables a las estafas más simples. Subraya la importancia crucial de mantenerse alerta y verificar cada transacción financiera, demostrando que el factor humano a menudo sigue siendo el mayor riesgo de seguridad.

Google reconoció en un comunicado enviado a Bloomberg haber caído en el timo, pero también asegura que detectaron el fraude y avisaron a las autoridades. Por su parte, Facebook explica que recuperó la mayor parte de los fondos.

La banda operaba enviando correos electrónicos a los gigantes tecnológicos en los que les solicitaban el pago de servicios que, supuestamente, debían a Quanta. Sin embargo, en lugar de hacer ese pago en sus cuentas en Asia, pedían que les ingresasen esa cantidad en bancos de Letonia o Chipre, cuyas cuentas había abierto el acusado.

Después, Rimasauskas movía ese dinero a otras cuentas de Letonia y Chipre, pero también localizadas en Eslovaquia, Lituania, Hungría, y Hong Kong. La operación estuvo en marcha entre 2013 y 2015.

A pesar de hacerse pasar por una compañía real, la organización criminal no se molestaba en asegurarse de que Quanta hubiese realizado los trabajos por los que pedían cobrar. Es decir, se hacían pasar por ellos, pero se inventaban las facturas y cobraban servicios no realizados.

Facturas y correos electrónicos falsificados, claves del fraude

Rimasauskas registró la marca Quanta Computer Inc. en Lituania, copiando el nombre del fabricante hardware taiwanés. A partir de ese momento comenzó a enviar facturas a Google y Facebook por productos que no habían comprado y que él tampoco había proporcionado.

Aún así las empresas pagaron esas facturas sin cuestionarse nada, quizás porque todo parecía perfectamente legítimo. Como indican en el DoJ, las facturas falsificadas incluían contratos falsificados y cartas que simulaban estar firmadas por directivos de las empresas víctimas del engaño. La inclusión de los sellos falsificados de estas empresas lograba el efecto deseado, y las víctimas acababan enviando el dinero sin realizar comprobaciones adicionales.

Esos pagos luego eran distribuidos en cuentas bancarias de seis países distintos: Chipre, Lituania, Hungría, Eslovaquia, y Letonia. La sentencia no menciona específicamente a Google o Facebook, pero una orden judicial de 2017 ya identificaba a ambas como las víctimas de este fraude.

Saludos.

domingo, 30 de noviembre de 2025

AMD Ryzen 7 9850X3D, la nueva CPU tope de gama de AMD

AMD sigue segmentando aún más el mercado de procesadores, confirmando ahora que lanzará un nuevo procesador tope de gama para gaming, el Ryzen 7 9850X3D. Y es que si bien esta CPU se comenzó a rumorear hace poco más de un mes, ya ha sido confirmado oficialmente por AMD. Si bien AMD no ha lanzado un anuncio, al menos cometieron un error que confirma la existencia de este procesador, y es que fue listado en la propia web oficial de la compañía. Lo que confirma su existencia, y también confirmará los rumores de que para un propósito todoterreno, también tendremos un nuevo procesador tope de gama.

Y es que hasta donde sabia ahora, el AMD Ryzen 7 9850X3D no dejará de ser un Ryzen 7 9800X3D más rápido, por lo que realmente no cambiará mucho la historia. Dónde sí cambiará notablemente, es que hay que recordar que también llegará un Ryzen 9 9950X3D2. A final de cuentas, es un Ryzen 9 9950X3D que funciona a una velocidad levemente más baja, pero que añade más memoria caché L3.

Esto es lo que sabemos en torno al AMD Ryzen 7 9850X3D

Al igual que el AMD Ryzen 7 9800X3D, el Ryzen 7 9850X3D se trata de un procesador con 8 núcleos y 16 hilos de procesamiento bajo la arquitectura AMD Zen 5. En este caso concreto, los núcleos son capaces de alcanzar una frecuencia Turbo de 5,60 GHz. Esto respecta un aumento de velocidad en torno a un 8% respecto a los 5,20 GHz del hasta ahora mejor procesador del mercado para gamers. A nivel de memoria caché L3, todo se mantiene, por lo que ofrece 96 MB de memoria. De esta forma, obtenemos núcleos ligeramente más rápido y claro, el consecuente aumento de precio.

Actualmente, el procesador Ryzen 7 9800X3D se puede encontrar a la venta a un precio oficial en torno a los 465 euros. Por lo que da miedo pensar que este Ryzen 7 9850X3D sea un procesador de 8 núcleos que rondará la barrera de los 500 euros.

El AMD Ryzen 9 9950X3D2 será así el nuevo buque insignia de la serie

Tras confirmar la existencia del AMD Ryzen 7 9850X3D, es más que evidente que el ya filtrado AMD Ryzen 7 9950X3D2 también es real y se lanzará en poco más de un mes. Este procesador puede parecer un Ryzen 9950X3D, ya que comparten los mismos 16 núcleos, salvo que estos alcanzarán una frecuencia máxima de funcionamiento de 5,60 GHz. Es decir, 100 MHz menos respecto al modelo tope de gama actual.

Ahora bien, la gran diferencia la marca su nombre "X3D2", y esto implica duplicar la capacidad de memoria 3D V-Cache, haciendo así que tengamos un procesador con nada menos que 192 MB de memoria caché respecto a los 128 MB del actual procesador tope de gama. Ahora bien, hay una desventaja adicional, y es que su consumo energético también aumentará, viendo como en TDP pasamos de 170W a nada menos que 200W.

Al igual que el Ryzen 7 9850X3D hay otro problema adicional con el AMD Ryzen 9 9950X3D2, su precio. Hablamos de que el actual procesador tope de gama ronda un precio oficial de 700 euros. Por lo que este nuevo modelo podrá rondar, sin problema alguno, un precio en torno a los 800 a 900 euros. Y sí, ya es un precio ligado más a una tarjeta gráfica de alta gama, más que a un procesador de consumo.

Saludos.

sábado, 29 de noviembre de 2025

AOC lanza el monitor U27G4XM, IPS con DisplayHDR 1000 4K de 160 Hz o FHD de 320 Hz

AOC ha presentado el monitor U27G4XM, un modelo con panel de 68.6 cm (27 in) IPS de muy buena calidad con miniledes, y no especialmente caro ya que los precios de los monitores se han desplomado este año. Tiene una resolución de 3840 × 2160 píxeles y refresco de 160 Hz, pero puede funcionar también a 1920 × 1080 píxeles y 320 Hz. Su tiempo de respuesta es de 1 ms GaG.

La calidad de color es de 10 bits (8+FRC), y cubre el 151.8 % de la escala sRGB, el 98 % de la DCI-P3, y el 96.5 % de la Adobe RGB. Su brillo máximo es de 1200 nits y su contraste estático es de 1000:1. Dispone de certificado DisplayHDR 1000 con atenuación local en 1152 zonas, por lo que al menos es un HDR decente. También tiene refresco adaptable Adaptive Sync compatible con G-SYNC y FreeSync.

El pie del monitor permite el ajuste en altura, inclinación, rotación y giro, o se puede cambiar por un soporte VESA de 100 mm × 100 mm. Incluye un HDMI 2.1, un DisplayPort 1.4 y un concentrador de cuatro USB 3.0 a través de un USB-B.

Su precio es de 449 euros.

Saludos.

viernes, 28 de noviembre de 2025

Microsoft reconoce que Windows 11 está totalmente roto y es un desastre

Hay momentos en los que el lenguaje técnico resulta insuficiente para explicar ciertas situaciones, y uno se ve obligado a recurrir a lo más sencillo: las cosas no funcionan. Esperamos que un sistema operativo, sobre todo uno tan implantado como Windows, ofrezca un mínimo de estabilidad, que cumpla su propósito sin necesidad de heroísmos ni soluciones improvisadas. Que el ordenador arranque, que el menú de inicio se abra, que las ventanas aparezcan cuando deben aparecer. Parece elemental, pero hoy no lo es. Y cuando hablamos de Windows 11, esa sensación de normalidad se convierte cada vez más en un acto de fe.

Desde su presentación oficial en 2021, Windows 11 ha transitado un camino accidentado. Su lanzamiento estuvo marcado por decisiones polémicas: desde los requisitos de hardware draconianos que dejaron fuera a millones de equipos, hasta una interfaz que priorizó la estética sobre la funcionalidad. Las promesas de un sistema más moderno y coherente se diluyeron pronto entre inconsistencias visuales, retrocesos en usabilidad y, sobre todo, una sucesión de actualizaciones que, en lugar de resolver problemas, parecían acumular nuevos. Ahora, cuando ya se supone que debería haberse asentado como una plataforma madura, Microsoft reconoce que casi todas las funciones clave de su sistema operativo están rotas.

La admisión ha llegado de forma discreta, a través de un artículo de soporte técnico, pero su contenido no deja lugar a dudas. Microsoft confirma que el menú de inicio, la barra de tareas, el explorador de archivos, la aplicación de configuración y otras partes esenciales del sistema pueden fallar de manera generalizada. No se trata de un único error aislado, ni de un conflicto específico con determinados controladores: se trata de un fallo estructural que afecta a la “shell” del sistema operativo, y por tanto, al propio corazón de la experiencia de uso. En términos poco habituales para el lenguaje oficial de la compañía, la documentación reconoce que muchos de estos componentes están, literalmente, rotos.

La raíz técnica del problema se encuentra en los paquetes XAML, responsables de renderizar y coordinar gran parte de la interfaz de Windows. Según detalla Microsoft, estos paquetes pueden corromperse o no registrarse correctamente, lo que impide que el sistema cargue de forma fiable elementos esenciales. Los síntomas son diversos, pero todos graves: el proceso Explorer.exe puede colapsar repetidamente, los accesos al menú de inicio fallan o desaparecen, la app de configuración se niega a abrirse, y los procesos ShellHost.exe o StartMenuExperienceHost presentan fallos de ejecución. En algunos casos, el usuario se encuentra con una pantalla funcionalmente vacía, donde ni siquiera las combinaciones de teclado logran recuperar el control.

Estos fallos comenzaron a detectarse tras las actualizaciones acumulativas publicadas a partir de julio de 2025, y afectan tanto a la versión 24H2 como a la 25H2 de Windows 11. Ambas comparten una base de código común, lo que ha extendido el impacto del problema incluso a instalaciones limpias. Esto significa que no hablamos de errores heredados por configuraciones antiguas, sino de un fallo presente en el sistema actual distribuido por Microsoft. La empresa no ha proporcionado un calendario para su resolución definitiva, aunque ofrece una solución temporal mediante un script de PowerShell destinado a re‑registrar los paquetes afectados. Esta medida, sin embargo, está lejos de ser accesible o fiable para el usuario medio.

Las consecuencias son obvias: una merma sustancial en la fiabilidad del sistema. Tareas tan básicas como abrir una carpeta o acceder a los ajustes dejan de estar garantizadas. Para los usuarios profesionales, esto implica una pérdida de productividad inmediata. Para los domésticos, una experiencia frustrante que mina la confianza. Pero más allá del efecto inmediato, lo que inquieta es la deriva de fondo: un sistema operativo moderno que, tras años de evolución y con recursos prácticamente ilimitados a su disposición, no logra sostener su núcleo funcional.

He crecido —como muchos— usando Windows como herramienta de trabajo, aprendizaje y ocio. He pasado por las luces y sombras de cada versión, desde las épocas de gloria de Windows XP hasta los tropiezos de Vista o los aciertos de Windows 10. Pero lo que sucede con Windows 11 no es un tropiezo puntual, sino la confirmación de una tendencia: un sistema que prioriza lo aparente sobre lo esencial, y que parece más preocupado por adaptarse a estrategias corporativas que por servir de forma sólida a sus usuarios. Quiero pensar que Microsoft corregirá el rumbo, pero también creo que ha llegado el momento de exigir menos promesas y más sistemas que simplemente funcionen. Porque, al final del día, no pedimos tanto: solo que el ordenador haga lo que tiene que hacer.

Saludos. 

jueves, 27 de noviembre de 2025

Seagate consigue un nuevo logro en capacidad de almacenamiento en los HDD de 55 a 69 Terabytes

Cuando los precios de los SSD empezaron a bajar hace años, los usuarios de PC empezaron a reemplazar en masa sus HDD. El SSD es mucho más rápido que cualquier disco duro y aunque lo tengamos conectado por SATA 3 vamos a notar una gran diferencia. Los discos duros rápidamente pasaron de ser el almacenamiento principal a ocupar un papel secundario. Esto ha continuado así hasta ahora, aunque podrían cambiar la situación pronto debido a la subida de precios de la memoria NAND Flash que usan los SSD. Además, hay que reconocer que empresas como Seagate no se rinden a la hora de seguir avanzando con los discos duros, pues ahora han conseguido una capacidad de 6,9 Terabytes por plato, lo que permitirá crear HDD de hasta 69 Terabytes.

Los SSD existen desde hace décadas, pero se reservaban para su uso a nivel empresarial o profesional debido a sus altísimos costes. Podemos verlos como memorias USB de alta velocidad que pueden usarse en forma de disco, pues al final usan el mismo tipo de memoria NAND Flash, aunque su concepto y prestaciones son distintas. Los SSD son mucho más rápidos que estas, pero también eran más caros. Eso hace unos años, pues como ya viste, en la actualidad un SSD no es caro para todo lo que ofrece, incluso con la subida de precio reciente.

Seagate logra alcanzar 6,9 Terabytes por plato en condiciones de laboratorio lo que dará vida a HDD de 69 Terabytes en un futuro

Viendo que las ventajas superan a las desventajas y el precio no es tan distinto al de un HDD (SSD de 1 Terabyte o menos), estos han reemplazado por completo a los discos duros, pero eso no significa que sea su fin. Un disco duro seguirá siendo la mejor opción si nuestra prioridad es tener la mayor capacidad de almacenamiento por el menor precio posible, siendo la velocidad algo que no es importante. Ahí es donde el HDD gana sin problemas, pues comprando discos duros de 2 Terabyte o más, sacaremos ventaja en almacenamiento/precio respecto a un SSD.

Seagate y Western Digital saben que ese es el punto fuerte de los discos duros y van a enfocarse ahí. Hace un año vimos que habían logrado discos de 30 Terabytes o incluso más, como el Western Digital Ultrastar HC690 con 32 Terabytes. La cantidad de espacio disponible en un solo disco ha continuado subiendo y Seagate ha roto los límites que conocíamos, pues ha logrado poner 6,9 Terabytes de almacenamiento en un plato en su laboratorio, creando una densidad nunca antes vista. Para que te hagas una idea, esto es más del doble de la densidad que tienen los discos actuales. De hecho, ha indicado que con esta tecnología podrían fabricar discos duros de 55 a 69 Terabytes por unidad para las versiones de 10 platos.

Seagate primero lanzará discos con 4 Terabytes por plato en 2027, 5 Terabytes por plato en 2028 y 6 Terabytes por plato en 2029 para así prepararse para los 7 Terabytes por plato en 2030

Seagate ha conseguido llegar a los 6,9 Terabytes por plato utilizando la tecnología de grabación magnética asistida por calor (HAMR) junto a Mozaic 3+. Si bien resultan sorprendentes los avances, si vemos la hoja de ruta de Seagate, verás que no se esperan discos duros de 60 Terabytes hasta dentro de 5 años y de 80 Terabytes o más hasta dentro de 7 años. Han llegado a los 6,9 Terabytes en condiciones de laboratorio, pero eso no implica que esté preparado para su uso comercial, ni mucho menos.

Antes de que lleguen discos duros con platos de 6,9 Terabytes tendremos que ir viendo las progresiones anteriores, comenzando con los platos de 4 Terabytes que supuestamente llegarán en 2027. Tras esto tendremos discos duros con platos de 5 Terabytes para 2028 y 6 Terabytes para 2029. Viendo que Seagate está avanzando a buen ritmo, Western Digital debería seguirle el paso, pues al final estas dos son las principales empresas de discos duros que ofrecen la mayor capacidad y prestaciones.

Saludos.

miércoles, 26 de noviembre de 2025

Las NVIDIA RTX 60 y AMD RX 11000 se retrasarán a 2027 o 2028

La nueva generación gráfica para PC está entrando en una fase crítica que afecta tanto a NVIDIA como a AMD. Las RTX 60 basadas en Vera Rubin y las RX 11000 con arquitectura RDNA 5 se están alejando del calendario previsto y todo apunta a que el motivo real no es técnico, sino estructural y de mercado, donde ya se habla de 2027 y 2028 con claridad. ¿Estamos presenciando las series de GPU más longevas en el mercado de la historia? Pues puede que sí.

El mercado está absorbiendo memoria, capacidad de fabricación y procesos de packaging avanzado a un ritmo que deja al usuario doméstico en segundo plano, se está llevando todo por delante como si no hubiese un mañana. Lo llamativo no es que cada lanzamiento se desplace unas semanas vista la situación, que es lo esperable, como poco, sino que las ventanas temporales han empezado a moverse por trimestres completos y con una incertidumbre que no veíamos desde hace más de diez años. Quédate, que vas a flipar, “palabra”, como diría el meme.

NVIDIA y AMD tienen sobre la mesa retrasar las RTX 60 y RX 11000 entre 2027 y 2028

Tiene sentido empezar por NVIDIA porque su situación refleja con claridad el problema. La serie RTX 60 debía anunciarse, según los primeros rumores, en el primer trimestre del 2027 y los primeros modelos de gama más alta, es decir, la hipotética RTX 6090 y RTX 6080, estaban orientados a aterrizar alrededor de marzo.

Ese plan, con el colapso de la memoria, se ha diluido por completo. Parte del canal habla de retrasos hasta finales del mismo año y otros interlocutores ven posible que el lanzamiento cruce la frontera del 2028. El obstáculo principal no es la arquitectura Vera Rubin, sino la disponibilidad de memoria GDDR7 y el desvío masivo de esa producción hacia sistemas de Inteligencia Artificial al cambiar líneas de producción de esta DRAM hacia HBM.

La industria está priorizando cualquier pedido destinado a entrenamiento o inferencia y las obleas asignadas al mercado doméstico se han reducido en paralelo. Es un tema que hemos tratado ya y que solo estamos recordando para dar contexto a lo que viene con los rojos.

AMD tiene problemas similares, pero parece dar más prioridad al usuario, pero por motivos distintos a los que piensas

En el caso de AMD la situación no es muy diferente. La familia RX 11000 con RDNA 5 / UDNA se marcaba inicialmente entre finales del 2026 y los primeros meses del 2027. Sin embargo, la nueva referencia temporal apunta a Computex 2027.

Esta fecha encaja con la planificación de PlayStation 6 para finales de ese mismo año, porque RDNA 5 debería estar estabilizada para integrarse en la consola con la antelación necesaria. Aun así, AMD está limitada por exactamente las mismas variables que NVIDIA. La saturación de la cadena de suministro impacta en la memoria GDDR6 y GDDR7 de nueva generación, en el packaging y en la capacidad asignada a procesos orientados a cargas de trabajo de IA.

Cuando analizamos ambos casos de forma conjunta vemos un patrón evidente. Primero, la memoria ha multiplicado su precio y ha reducido su disponibilidad, lo que obliga a replantear cada producto desde el segmento más alto hasta el escalón de acceso.

Segundo, la capacidad de TSMC está anclada en proyectos de IA que ofrecen márgenes muy superiores a cualquier GPU de consumo. Tercero, la presencia de modelos de gama baja dentro del catálogo de 2027 está en duda porque son los primeros sacrificados cuando la disponibilidad se estrecha. Y cuarto, fabricantes como Lenovo están almacenando memoria a niveles un 50 por ciento superiores a lo habitual, lo que reduce todavía más la oferta en el canal, y creedme si os digo que no es el único, más bien, es uno de tantos.

Todo apunta a que el sector gráfico se dirige hacia un escenario donde los ciclos tradicionales de renovación dejan de ser fiables. Si la demanda de IA mantiene la presión actual, tanto NVIDIA como AMD pueden verse obligadas a reconfigurar sus prioridades de forma permanente. Y si esa demanda se enfría, el reequilibrio podría llegar por sorpresa y reactivar el mercado de PC más rápido de lo esperado. En cualquier caso, nos encontramos ante un momento clave que marcará la velocidad a la que evoluciona la gráfica doméstica durante los próximos años, y donde las RTX 60 pueden irse a 2028 perfectamente, y las RX 11000 para finales de 2027.

Saludos.