• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. cobito
    3. Mensajes
    Desconectado
    • Perfil
    • Siguiendo 0
    • Seguidores 6
    • Temas 767
    • Mensajes 6,805
    • Grupos 5

    Mensajes

    Recientes Mejor valorados Controversial
    • RE: Información & anuncios

      Hoy se ha actualizado la instancia de Peertube a la versión 8. Entre otras cosas, viene con la posibilidad de añadir colaboradores a los canales y con un reproductor rediseñado.

      publicado en General
      cobitoC
      cobito
    • RE: Banco de pruebas Hardlimit

      Desde el último mensaje, se han hecho los siguientes cambios:

      • Ahora es posible ordenar listas de placas base, ordenadores y memorias RAM por columna.
      • Se ha solucionado un fallo en la generación de listas de memorias RAM en el menú de la cabecera.
      • Mejoras estéticas en la versión móvil de la cabecera universal (afecta a banco de pruebas y museo).
      • Se ha solucionado un fallo que impedía enviar validaciones.
      • Se ha solucionado un fallo en la renderización de la web en el tiempo de validación.
      • Múltiples pequeños fallos solucionados.
      publicado en Software
      cobitoC
      cobito
    • Resumen semana del 8 de diciembre de 2025

      Nvidia vuelve a dar soporte a PhysX de 32 bits en RTX 50

      A principios de año, Nvidia anunció el fin de soporte de PhysX para 32 bits en la serie RTX 50. Debido a la popularidad de ciertos juegos, la empresa ha dicho que va a mantener el soporte para una corta lista de títulos en GPUs actuales.

      El invierno llega a las memorias flash

      La crisis de suministros de hardware parece haberse extendido a las memorias flash. Sandisk y Samsung han empezado a retrasar envíos y Transcend está sin suministros desde octubre. En este caso, Transcend se ha atrevido a hacer una predicción que es que a partir del segundo trimestre de 2026, la situación empezará a normalizarse.

      Nuevo competidor en memorias

      La empresa china CXMT acaba de entrar en el juego de la memorias RAM de máxima gama. Ha presentado integrados DDR5 a 8000 MT/s y LPDDR5X a 10667 MT/s con capacidades de 12, 16 y 24 Gbits.

      HDMI 2.1 y Linux

      Con la salida de la nueva Steam Machine, ha resurgido una vieja polémica: la compatibilidad de HDMI con Linux. A pesar de que el hardware de la máquina tiene soporte para HDMI 2.1, el consorcio HDMI Forum no permite a Valve ni a AMD ofrecer un controlador libre para esa versión del protocolo, por lo que el PC para juegos está limitado a la versión 2.0.

      Rust deja de ser experimental en Linux

      La gente del kernel ha dicho que Rust ya no es un lenguaje experimental en el kernel. El código que hay forma ya parte del sistema y desaparece la etiqueta experimental del mismo.

      publicado en Portada
      cobitoC
      cobito
    • Resumen semana del 1 de diciembre de 2025

      Banco de pruebas v4 disponible

      El equipo de desarrollo de Hardlimit se complace en anunciar la nueva versión de la central del banco de pruebas. Podéis visitarla desde aquí: https://bm.hardlimit.com/

      Nuevas CPUs chinas x86

      Una empresa china ha presentado el Hygon C86-4G, un nuevo procesador x86 cuyo rendimiento se acerca al de un Core i7-14700. El desarrollo partió inicialmente de la IP del Zen aunque su último modelo ya cuenta con un core, según dicen, totalmente independiente.

      Nuevo récord en el banco de pruebas

      Hace unos días, alguien fulminó el récord del banco de pruebas con un EPYC 9755. El procesador de más de 7000€, 128 núcleos Zen 5 y SMT ha superado los cinco millones de puntos, duplicando al segundo de la lista. Esta CPU tiene un TDP de medio kW y viene con medio giga de caché L3.

      Las subidas de precio se traslada a PCs

      Desde hace unas semanas se ha producido una subida generalizada de los precios del hardware, principalmente centrada en memorias y discos. Ahora HP ha dicho que va a empezar a subir los precios de sus ordenadores a la vez que ofrece configuraciones más comedidas debido a este encarecimiento.

      Mejoras de rendimiento por software

      Desde que el Core Ultra 9 285K se estrenó hace un año, ha mejorado su rendimiento un 8% mientras que consume un 85% de lo que lo hacía inicialmente. La mejora se ha conseguir gracias a las sucesivas actualizaciones del microcódigo de la CPU.

      Memorias HBM4 más rápidas

      Samsung ha anunciado que para el año que viene tendrá memorias HBM4 un 40% más rápidas. Por su parte, Nvidia ha mostrado interés en estas memorias a lo que Samsung ha respondido que el precio por GB se ha duplicado con respecto al anterior contrato.

      Linux 6.18 disponible

      Linux 6.18 viene con mejoras en el cifrado de TCP, rendimiento mejorado en el swap, mejoras en el rendimiento de paquetes recibidos por UDP y un sin fin de otros cambios y mejoras.

      Micron abandona Crucial

      El fabricante de memorias Micron ha decidido abandonar su negocio de memorias de consumo que tiene bajo la marca Crucial. La compañía dice que se quiere centrar en los centros de datos dada la escasez de DRAM.

      Juegos Android en Linux

      Valve ha presentado Lepton en su documentación de Steam. Se trata de una capa de compatibilidad al estilo de Proton, pero esta vez para traer los juegos de Android a Linux.

      Una Voodoo2 en un Ryzen 9 9900X

      Alguien ha conseguido hacer funcionar una Voodoo 2 PCI de 12MB en un Ryzen 9 9900X con Windows 11. Desde el punto de vista del hardware, no es un gran logro debido a que PCIe mantiene compatibilidad con el viejo PCI de 32 bits. La novedad está en haber hecho funcionar unos controladores en Windows 11 con los que poder ejecutar Quake II.

      Sobre la crisis del hardware

      La fiebre IA ha provocado una crisis de suministros de hardware sin precedentes. En esta entrada hace un repaso al estado de las cosas y cómo podría seguir evolucionando el panorama en los próximos meses. Mientras tanto, algunos fabricantes de silicio ya han planificado importantes aumentos en el ritmo de fabricación para el año que viene. Otros sin embargo, parecen opinar que la demanda actual es temporal.

      Ejecutando programas de Windows en Linux con WinBoat

      WinBoat es un programa de código abierto que permite ejecutar programas de Windows en Linux. No es una capa de compatibilidad como Wine sino una interfaz que ejecuta Windows 11 en QEMU y muestra las ventanas usando RDP como si fueran ventanas nativas del sistema.

      publicado en Portada
      cobitoC
      cobito
    • RE: Banco de pruebas Hardlimit

      Se han creado tablas comparativas en las listas de placas base por socket, ordenadores por arquitectura y RAM por formato. Para estas tablas, se han empezado a usar los formatos del nuevo front-end.

      Además se ha propagado la nueva cabecera.

      publicado en Software
      cobitoC
      cobito
    • RE: Museo Hardlimit

      Recuperamos viejos espacios: La biblioteca de revistas vuelve a estar disponible (NOTA: Todavía se están añadiendo publicaciones y números; es un proceso automatizado que se habrá completado en unos días).

      Con la biblioteca de revistas, empezamos a hacer cambios funcionales y visuales:

      • La carga de las páginas de las revistas se ha mejorado hasta el punto de que son prácticamente instantáneas.
      • Gracias a la velocidad de carga, ha sido posible crear un nuevo visor de revistas simple, rápido y mucho más práctico que el anterior:
        · Ahora se muestra la revista completa en una sola página, evitando la necesidad de ir pasando páginas.
        · Las páginas se muestran por pares a ancho completo de la ventana del navegador.
        · Sigue siendo posible ampliar páginas a pantalla completa.
      • También se ha aplicado un nuevo formato en la presentación de las listas de revistas, de años y de números con tablas más anchas con pantallas a partir de 1080p en mente y dispositivos móviles.

      En estos momentos se está proyectando el nuevo navegador de archivos donde irán los CD-ROMs. Tengo un esbozo aunque tengo que tomar todavía varias decisiones antes de empezarlo. Quiero intentar que esta sea la definitiva.

      En otro orden de cosas, se ha estrenado una nueva cabecera universal, que cambia botones por pestañas y donde se incluye el menú de turno. Es decir, que las pestañas serán las mismas para todas las páginas pero el menú inferior cambiará en función de las necesidades de cada espacio. En estos momentos, esta nueva cabecera sólo está en el museo pero se irá propagando a todas las páginas con el tiempo.

      publicado en General
      cobitoC
      cobito
    • RE: Banco de pruebas Hardlimit

      Ya está disponible la versión 4 de la central del banco de pruebas. Se trata del mayor cambio desde que su estreno.

      El tema ha sido mucho más extenso y complejo de lo planificado inicialmente, aunque el resultado ha merecido la pena totalmente. Todavía hay bastante flecos que cortar pero son ya cuestiones menores.

      Tened en cuenta que aunque todo parezca similar a lo que había, internamente todo es nuevo. Eso quiere decir que, a diferencia de la antigua versión que era muy madura, esta está muy poco probada y puede haber fallos donde antes no los había.

      Entre ChatGPT y yo hemos estado intentando generar páginas en tiempo real, pero no hemos sido capaces. Finalmente ha sido necesario crear una "pequeña" tabla con precálculos ya que la generación en tiempo real daba tiempos de espera de varios segundos. Es una gran mejora con respecto a lo que había, pero el resultado quedaba fuera de una escala de tiempo aceptable sin la caché. Sobre esto, estos cálculos son lo suficientemente rápidos como para hacerlos en el tiempo de validación, donde la velocidad de carga no es tan crítica, por lo que ya no se ejecuta ningún script periódicamente sino que cada vez que alguien sube un nuevo resultado, todo se actualiza en ese momento.

      La idea inicial era sólo migrarlo todo a MariaDB, eliminar todo lo relacionado con el antiguo SGBD y separarlo todo en tres partes diferenciadas: los datos, el back-end y el front-end. Antes estaban un poco mezclados. Lo que viene siendo una mera refactorización, pero por el camino se han producido cambios funcionales, principalmente porque la reimplementación ha invitado a hacer mejoras y correcciones que estaban pendientes. Son estas:

      • En general:
        · Se han corregido pequeños fallos latentes y se han añadido pequeñas mejoras que eran difíciles de conseguir con la anterior versión.
        · Se ha modificado la metodología para mostrar varios idiomas.
        · Ahora los nombres de los sockets muestran el nombre comercial (cuando existe) además del factor de forma y el número de pines.
        · No se muestra la marca de en los modelos de procesador ya que mayoritariamente hay sólo 2 y todos sabemos quién fabrica cada serie/modelo.
        · Se han hecho importantes mejoras en la seguridad.
        · Se han eliminado una gran cantidad de inconsistencias en cosas como los nombres de socket, tipos de memoria o arquitecturas entre otros repartidas entre cpus, placas base y demás.

      • En la ficha de procesadores (cpu.php):
        · Porcentajes más claros en las comparativas por test.
        · Se ha hecho una pequeña modificación en la metodología para determinar modelos similares (este algoritmo recibirá un cambio mayor próximamente).
        · Ahora se muestra una descripción junto a unidades en ambos ejes de las gráficas.
        · Las gráficas ahora muestran el desvío de rendimiento en por unidad en vez de en porcentaje.
        · Se ha solucionado un fallo que impedía renderizar la página con procesadores monohilo.

      • En las listas de últimas validaciones, ahora, en vez de mostrar el mensaje "Procesando resultado" en el último hardware validado:
        · cuando el modelo de CPU no está disponible, se muestra información en crudo proveniente de la identificación del dispositivo.
        · si se trata de una placa base, memoria u ordenador que no está disponible, no se muestra en la lista.
        · en la lista de últimas memorias validadas, ahora se muestran todos los modelos de una sola validación (antes sólo se mostraba el primer slot con una memoria pinchada).

      • Las fichas de placas base (motherboard.php) y ordenadores (computer.php) se han unificado en un solo lugar: mobopc.php. Las antiguas páginas redireccionan (HTTP 301) a la nueva.

      • Han cambiado los criterios para identificar una memoria RAM: Ahora sólo se usa el número de parte ya que, a veces, el nombre del fabricante llega ofuscado y eso produce entradas duplicadas.

      • En la página de arquitecturas (arch.php):
        · Ya no se muestran los máximos y mínimos de las eficiencias ya que no tiene sentido mostrar extremos que podrían no ser representativos de la arquitectura (principalmente con los mínimos).
        · Ahora se muestran puntuaciones medias en cada test individualmente.
        · Alístate en la marina.
        · Para el cálculo de las estadísticas, se descartan todos los resultados que no provengan del modo máximo soportado por la arquitectura (lo cual deja fuera ciertos modelos con cores de bajo coste que no soportan el modo máximo de la arquitectura y modelos cuyos envíos no se han hecho en el modo máximo por la razón que sea).

      • En la lista de ordenadores por arquitectura, placas base por socket y RAM por tipo (x_list.php):
        · Antes se mostraba la lista dividida por fabricante/chipset/formarto. Ahora se muestra la lista sin división. Esto recibirá cambios en el futuro aunque todavía no tengo clara la clasificación ni el formato.

      • Sobre los intestinos de las validaciones, todo era código arcaico lo cual venía siendo código espagueti, sin tabular y sin comentar (me cago en mi yo del pasado). Aquí se ha rehecho casi todo desde cero porque la porquería que había no merecía la pena reusarla. Esto no ha sido divertido, para qué nos vamos a engañar:
        · El motor interno de validación ahora tiene cuatro etapas:
        1) Se recibe el resultado desde el programa a través de submit.php. Ahí se verifica la integridad de los datos.
        2) Se envía al usuario a la página de login.php. Aquí se elige si el resultado es registrado o anónimo.
        3) Se registra el resultado en register.php. Aquí se añade la información a la base de datos y ya se trata de una validación más.
        4) Se muestra el resultado desde result.php. Este mareo me ha dado hambre, una de calamares, por favor.

        · Resulados (result.php):
        * Se han añadido versiones de Windows faltantes y ahora se muestra también el nombre en clave de cada versión.
        * Se ha añadido huso horario a la fecha de la validación.
        * Se han eliminado los enlaces Markdown y vBulletin por limpieza de la página.
        * Ahora el tamaño de los módulos se muestra en GB en vez de MB.
        * La frecuencia de las memorias se muestra en MT/s en vez de MHz.
        * Las gráficas de rendimiento con respecto al tiempo ahora muestran puntuaciones en miles. También se muestra una etiqueta con descripción y unidades en cada eje.
        * Para hacer arroz con leche hace falta leche, arroz, canela, azúcar y cáscara de limón.
        * Ahora en el ranking del resultado, salen enlaces a todos los procesadores (antes sólo salía enlace a la validación en cuestión).
        * Ahora, en ese mismo ranking aparecen todos los resultados incluso con posiciones bajas (antes quedaba parte de la tabla en blanco).
        * Ahora se muestra la diferencia de puntuación entre la media de ese modelo y el resultado enviado junto a un porcentaje.

        · Firmas (signature.php):
        * Ahora las puntuaciones se muestran en miles.
        * La cantidad de memoria se muestra en GB en vez de MB.
        * El modelo de la placa base ahora proviene de la base de datos de modelos en vez del identificador del hardware, por lo que en bastantes casos, aparecerá más limpio y con un nombre comercial más familiar.

      • La búsqueda ahora permite buscar, además de por puntuaciones como hasta ahora, por nombre de usuario, modo, color del lacasito, modelo y frecuencia medida.

      • Cosas que ya no están pero que volverán:
        · Las sugerencias de búsqueda no funciona por un conflicto con el nuevo sistema de selección de idioma. Esto se está estudiando.
        · Los rankings generales por modo y eficiencia (una página con bastante poco éxito y que hay que replantear).
        · El ranking de portada de los envíos más rápidos.
        · Gráficas en las comparativas de CPUs (esto seguramente no vuelva porque no tengo claro que sirva para algo).

      Estos cambios puede que sepan a poco para un cambio de versión mayor. Los cambios han servido para tener una plataforma mucho más fácil de mantener y ampliar. El hecho de que sea todo más fácil de cara al desarrollo y la administración, hace que aumenten mucho las probabilidades de que aparezcan nuevas funciones y la base de datos de componentes se actualice en periodos mucho más cortos. Eso ya es un gran paso con respecto a lo que teníamos, donde me daba una pereza enorme hacer cualquier cosa. Para eso ha servido: para que no me de pereza hacer cosas de ahora en adelante.

      Con esto, espero que las novedades del banco de pruebas vayan mucho más allá de simplemente haber añadido tal o cual hardware nuevo a la base de datos, dicho lo cual, se han añadido un buen número de piezas, aunque todavía quedan unas cuantas ya que he dejado esto abandonado más tiempo del normal y hay una buena cola.

      Como he dicho antes, aunque aparentemente sea prácticamente igual a lo que había, internamente es casi todo nuevo, así que probablemente haya multitud de pequeños fallos (espero que no haya nada gordo). Así que si veis algo raro o echáis algo en falta, no dudéis en decirlo.

      publicado en Software
      cobitoC
      cobito
    • RE: Información & anuncios

      La versión 4 del banco de pruebas se encuentra en fase "Release Candidate" (sólo web, el programa como ya dije, se dejará para más adelante). Si no pasa nada raro, se estrenará durante este fin de semana.

      En otro orden de cosas, se han empezado a traducir los subtítulos de Peertube. La política de traducción en estos momentos consiste en:

      • Si el video está en inglés, se traduce a español.
      • Si está en un idioma diferente al inglés y que sea compatible con la cacharrería de traducción (la mayoría de idiomas mayoritarios occidentales, coreano, chino, japonés, árabe y persa), se traduce al inglés.

      Cuando las traducciones hayan avanzado y se haya evaluado mejor el consumo de recursos de esto (estoy teniendo graves problemas de rendimiento a los que les he encontrado un parche), se planteará traducirlo todo a español. La calidad de las traducciones está siendo bastante buena en general, condicionada principalmente por la calidad de la transcripción disponible y la habilidad del locutor de transmitir sus ideas. Es decir, no son perfectas, a veces se cometen errores con la jerga (en este aspecto, menos errores de los que esperaba) pero a un nivel mucho más que decente.

      Todo el tema de las traducciones, condicionará también las decisiones de adquisición de nuevo hardware en el futuro.

      Y sobre el hardware, la segunda fase (NAS) y tercera fase (servidor frontal) de actualización del hardware que estaba planificada, quedan en suspenso debido al aumento desbocado de precios, que es especialmente sangrante en discos duros mecánicos y memorias RAM.

      publicado en General
      cobitoC
      cobito
    • RE: Duda sobre las prioridades en Linux

      He estado midiendo tiempos para hacer un cálculo aproximado de rendimientos. El simple hecho de que haya un proceso de ffmpeg consumiendo un solo hilo hace que pyhon vaya unas 20-30 veces más lento (lo que tardaría 3 segundos, tarda en torno a minuto y medio). Aquí veo casi totalmente claro que es un tema de ancho de banda de memoria y puede que de gestión de la caché de la CPU porque creo (no estoy seguro) que un hilo de ffmpeg usaría un solo canal de la memoria por lo que python tendría, como poco, el otro disponible. Así que para que el rendimiento caiga de esa forma, supongo que hay que culpar también a la caché.

      La verdad es que ni idea, nunca he puesto una máquina al límite de esta forma, pero al final la estrategia de pausar Python cuando haya otras cosas parece que es lo más razonable.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Duda sobre las prioridades en Linux

      @pos_yo Pues lo había pensado tanto para ffmpeg como para la IA. Aunque sea pequeña, lo mismo algo hace. Pero estoy ocupado al 100% (a ver si este finde puedo publicar la versión 4 del banco de pruebas y paso a lo siguiente) por lo que no he podido probar.

      Una cosa que sí me preocupa un poco de usar la GPU para codificar video es que hace bastantes años (no sé si el tema habrá cambiado), la GPU aceleraba pero la calidad de imagen era sustancialmente peor que hacerlo con CPU.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Duda sobre las prioridades en Linux

      Esto está mal a varios niveles. Estoy viendo que cuando python se está ejecutando, todo lo demás va lentísimo y viceversa. Por ejemplo, si hay un proceso de ffmpeg consumiendo un solo núcleo, la velocidad de python (consumiendo 11 en vez de 12 núcleos) cae en picado. Igual pasa al revés.

      Sospecho que hay un cuello de botella importante con la memoria y esta no es precisamente lenta (6400MT/s 30-37-37-96 en dual channel). Pero es que el modelo de traducción se dedica a machacar 20GB de RAM, así que es normal que el equipo flaquee por ahí.

      Lo que voy a hacer es hacer que python se pause automáticamente cuando vea que hay algún proceso de ffmpeg o whisper en marcha. Creo que es la forma más eficiente de hacerlo todo y de sacarle todo el jugo a la CPU.

      Lo de las prioridades lo voy a olvidar ya que parece que el tema no va por ahí, aunque tengo curiosidad sobre por qué no hace caso.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • Duda sobre las prioridades en Linux

      Buenas.

      Estoy haciendo cosas con el Ryzen 9 9900X (12 núcleos con SMT desactivado) y quiero priorizar procesos. He estado leyendo sobre el concepto de niceness en Linux que traducido como amabilidad, es bastante intuitivo (cuando más amable es el proceso, más deja pasar a los demás y cuando más incívico y maleducado, se cuela todo lo que puede). Tiene un valor de -20 (más prioritario) a 19 (menos prioritario). Nice lo he usado en el pasado y nunca he tenido problemas, pero al ver el comportamiento que veo ahora, he tenido que documentarme un poco. Aunque no encuentro una solución al tema.

      En esta máquina se ejecutan tres tipos de procesos:

      • ffpmeg que está configurado para acaparar un hilo de ejecución con un niceness de 19.
      • whisper que está configurado para consumir 4 hilos con un niceness de 0.
      • python que está configurado para consumir todos los hilos disponibles con un niceness de 19.

      Esos valores de prioridad no son casuales: ffmpeg funciona muy rápido con esta CPU, por lo que no me importa que pueda consumir muy pocos recursos. whisper es bastante más demandante y quiero que consuma siempre todo lo que haya disponible. Y Python es muy demandante, pero sencillamente quiero que consuma lo que les sobra a los demás, compartiendo lo que sobre con ffmpeg.

      Esta es una caputura de top:

      top del pepino

      Cuando también hay un proceso de ffmpeg y la CPU está ocupada, consume muy poca CPU (menos del 30%), que es lo que quiero que haga. Pero como veis en la imagen, python está consumiendo prácticamente 6 núcleos mientras que cada proceso de whisper no llega a 2. Y las prioridades, como se puede ver, están correctamente configuradas.

      ¿Por qué sucede esto y cómo lo podría solucionar?

      Gracias.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Tarjeta gráfica para Lenovo E50-00

      @vreyes1981 Te bifurco el hilo a uno nuevo.

      publicado en Tarjetas Gráficas
      cobitoC
      cobito
    • Resumen semana del 10 de noviembre de 2025

      Diseño modular para SSD

      Samsung ha presentado un nuevo diseño modular para unidades SSD en el que se puede separar la controladora de la memoria flash. Según la compañía, de esta forma se mejora la disipación de calor y la reparabilidad de la unidad.

      Servidor en bombilla inteligente

      Alguien ha conseguido instalar un servidor de Minecraft en una bombilla inteligente. El dispositivo va motorizado por un procesador RISC-V a 192MHz y 276kB de RAM.

      Firefox 145 disponible

      Firefox 145 viene con mejoras en la privacidad respecto al seguimiento de usuarios, soporte para los principales códecs de video y audio en el contenedor Matroska y con el fin del soporte para sistema de 32 bits en Linux.

      Nuevo hardware de Valve

      La maquinaria de marketing de Valve ha estado echando humo las últimas horas anunciando cuatro nuevas piezas de hardware: una Steam Machine (basada en un Zen 4), unos cascos de realidad virtual basados en ARM y funcionando con Linux, un nuevo mando y unas pinceladas de lo que será la Steam Deck 2.

      publicado en Portada
      cobitoC
      cobito
    • RE: Información & anuncios

      Ya se ha migrado la base de datos del banco de pruebas a MariaDB y se ha reimplementado la página de placas base (motherboard.php). Ya solo queda todo lo demás (otras 10 páginas). Estoy pudiéndole dedicar mucho menos tiempo del previsto inicialmente, pero la inestimable ayuda de ChatGPT ha acelerado el proceso en torno a un orden de magnitud. Con un poco de suerte, espero poder dejarlo todo listo (o casi) esta semana porque algunas de las cosas más complejas ya se han dejado hechas.

      Dicho eso, es improbable que se añadan nuevas CPUs ni se actualicen placas base y memorias a partir de ahora y hasta que la nueva versión entre en producción.

      En otro orden de cosas, ha comenzado la temporada de recodificación de la instancia de Peertube. Esto creo que no lo he anunciado antes pero si lo he comentado con alguien en privado (no recuerdo quién). Total, que por cuestiones de eficiencia energética, durante parte de la primavera, el verano y parte del otoño, no se recodifican los directos. Esto se hace durante los meses fríos porque uso el calor de las máquinas como calefacción del piso (aunque parezca coña, el ahorro es mucho más importante de lo que uno pudiera imaginar). Esta temporada, además, se va a hacer la transcripción de todos los vídeos pendientes (varios miles) y en cuestión de unos días, empezará el proceso de traducción de los subtítulos. Aquí, el nuevo Ryzen 9 9900X va a poder sacar todo su músculo (y todos sus watios).

      A ver cómo se presenta esta semana...

      publicado en General
      cobitoC
      cobito
    • RE: Museo Hardlimit

      Buenas @vreyes1981

      Es por la migración a la versión 3 del museo. La biblioteca estará fuera de servicio hasta que se migre a la nueva versión, con suerte, antes de Navidad donde, además, estarán disponibles los discos de la Micromanía que me enviaste.

      publicado en General
      cobitoC
      cobito
    • Resumen semana del 3 de noviembre de 2025

      Samsung vende su HBM4 para 2026

      Samsung ya ha colocado toda la producción de su memoria HBM4 del año 2026. Para ese mismo año, SK Hynix y Micron casi han alcanzado su límite de producción para la generación HBM3E.

      Microsoft no tiene potencia para tanta GPU

      En medio de una crisis de inventario de GPUs, memorias y dispositivos de almacenamiento, el jefe ejecutivo de Microsoft ha dicho que no disponen de la suficiente potencia eléctrica como para usar todas las GPUs que han comprado.

      Fallo de seguridad en los Zen 5

      Se ha encontrado un fallo de seguridad en CPUs Zen 5 que consiste en que un error en la µinstrucción RDSEED se esta marcando incorrectamente como correcto, lo que lleva a que el generador de números aleatorios genere claves de cifrado predecibles. Se solucionará con una actualización de AGESA.

      publicado en Portada
      cobitoC
      cobito
    • RE: Información & anuncios

      Esta semana se ha empezado a meter mano al banco de pruebas. A diferencia del museo, el banco de pruebas es una página bastante activa, con muchas visitas y con participación, por lo que no se van a hacer cambios en caliente como con el museo, de forma que la versión 4 saldrá una vez que esté terminada.

      Sobre esta versión, los cambios van a ser esencialmente internos enfocados a la migración a MariaDB. También hay muchas guarrerías en el código del estilo, por ejemplo, de tener las versiones de Windows hardcodeadas (entre otras muchas cosas). En general el código es una monstruosidad en tamaño. Es verdad que está muy bien organizado, bien comentado y con una estructura bastante coherente. La exagerada complejidad viene principalmente de usar el SGBD que creé en su momento, que es lo que estoy eliminando ahora.

      Toda esta limpieza va a suponer un antes y un después en las posibilidades de mostrar la información y añadir nuevas funcionalidades, pero va a ser en mayor medida transparente de cara al usuario.

      Otro cambio relevante (pero no sé si factible), será el generar las páginas en tiempo real: en estos momentos, cada vez que alguien envía un resultado, un script procesa toda la base de datos y genera una caché, que es la que se usa para mostrar la información en el front-end. Lo que quiero es que todo sea lo suficientemente rápido como para que no sea necesario este proceso de cálculo previo.

      Espero tener todo esto terminado en cuestión de un par de semanas.

      publicado en General
      cobitoC
      cobito
    • RE: Recuperación de datos de disco retro

      Bueno, pues esto llega ya a su fin. La últimas 13 horas de SpinRite han producido un avance de apenas un 1% con bastantes sectores irrecuperables. Esperaba que fueran apareciendo regiones más fáciles pero está pasando todo lo contrario. A este ritmo, esto no es factible. Por una parte, el disco duro está en las últimas y tenerlo encendido tantísimas horas lo va a terminar de destruir. Por otra parte, no quiero reventar mi portátil con esta operación. Así que he cambiado de planes.

      Lo que he hecho es copiar los archivos con copy tal cual. Resulta que desde MSDOS 3.30, cuando se encuentran datos corruptos, pueden aparecer uno de los siguientes mensajes. Este:

      photo_2025-11-03_09-08-40.jpg

      O este:

      photo_2025-11-03_22-56-15.jpg

      La diferencia entre ambos es sutil: el primero da la opción de Ignorar mientras que el segundo no. Según he podido leer, cuando no aparece "Ignorar" significa que el error está en la lectura del sistema de archivos (ahora entenderéis por qué es lógico que no de la opción de ignorar). Cuando sí da la opción de Ignorar, el error está en la región de datos. Esto es interesante porque desde MSDOS 6.22, cuando se produce un error en la lectura de la FAT, directamente sale un mensaje de error de interrupción no sé cuantas y aborta la operación sin preguntar. En ese aspecto, MSDOS 3.30 es bastante más robusto.

      Por otra parte, Seguir e Ignorar hacen esencialmente lo mismo con la diferencia de que Ignorar le dice al programa que todo está bien y Seguir le dice que algo anda mal. La decisión se reduce a si se engaña al programa (Ignorar) o se deja que el programa gestione el error (Seguir). En mi caso, el programa es copy y haciendo pruebas, Seguir no copia nada del archivo mientras que Ignorar sí (con fragmentos corruptos). Y es lógico que cuando hay un error de la FAT no permita Ignorar porque sin esa metainformación, sencillamente no se puede acceder a la región de datos.

      También he probado ARJ (2.75a), pero al aparecer el error de lectura desde el disco duro, el programa se cuelga. Así que no es una opción.

      En resumidas cuentas, lo que está pasando es que cuando el CRC no concuerda, MSDOS da este aviso y tienes dos opciones: no copiar el archivo o copiarlo tal cual se está leyendo, lo cual incluye sectores corrompidos. Así que en este escenario, la opción ha estado clara: usar MSDOS 3.30 e Ignorar los errores. Al ser los datos relevantes documentos de texto, la corrupción de datos se debería poder corregir a mano si no hay muchos bytes corruptos consecutivos. Y si sí los hay, al menos habrá un fragmento del documento accesible.

      Ahora os estaréis preguntando, "vale, ignoras los errores de datos, pero ¿qué haces con los errores de la FAT que no se pueden Ignorar?". La cuestión es que SpinRite ha medio-arreglado los primeros dos mil y pico sectores del disco, dentro de los cuales está el sistema de archivos. Gracias a eso, cuando ha aparecido este error, con Reintentarlo varias veces (raro ha sido el caso de más de 2 veces), ha sido capaz de leer la metainformación.

      Así pues, el proceso (tedioso de narices), ha consistido en ir copiando tandas de archivos a un disquete para luego pasarlos a mi PC. La estrategia que he seguido para tener cierto orden (hay carpetas con cientos de archivos que no caben en un solo disquete), ha sido copiar grupos de archivos con una extensión determinada.

      Pero esa estrategia no ha sido totalmente acertada porque, por alguna razón (seguramente por la cantidad descomunal de errores), MSDOS 3.30 se ha saltado (no ha copiado) bastantes archivos en cada tanda. Al final, he tenido que crear dos hojas de Excel: una con el contenido de dir (DIR C:\CARPETA > A:\LISTA.TXT), que tiene el árbol completo y otra hoja con los archivos que, efectivamente, se han copiado. Comparando ambas hojas, he podido sacar una lista de archivos faltantes que he copiado uno a uno.

      Vamos, un coñazo de narices. Pero al final he podido verificar que lo que tengo en mi PC coincide a la perfección tanto en número de archivos como en número de bytes con lo que reporta MSDOS 3.30 desde el portátil Epson.

      He enviado ya el resultado al dueño del disco. Hay muchísimos documentos 100% correctos y otros tantos con algún sector defectuoso (seguramente muy pocos bytes por documento). Espero que le sirva de algo.

      publicado en Hardware
      cobitoC
      cobito
    • Resumen semana del 27 de octubre de 2025

      Intel quiere cambiar su estrategia FOSS

      Intel ha sido desde siempre uno de los contribuyentes más importantes en el mundo del software libre, y más en concreto, en Linux. Fue el primero en tener controladores libres para sus GPUs en sistemas x86. Pero ahora dice que va a replantearse su participación para evitar que otros saquen provecho de sus aportaciones.

      Zen 6 será compatible con AM5

      AMD sigue con su política de estirar sus sockets todo lo posible y ha dicho que los futuros Zen 6 serán compatibles con los actuales zócalos AM5. Esto también confirma que a la DDR6 le queda tiempo para aparecer.

      Se presenta UBIOS

      Un consorcio de empresas chinas ha presentado UBIOS, un firmware que pretende sustituir al actual UEFI. Tiene soporte para chiplets y procesamiento heterogéneo.

      Portátil con unidad óptica

      Fujitsu ha presentado un portátil cuya característica más llamativa es que viene con una unidad de DVD. Según parece, el mercado japonés sigue demandado PCs con unidades ópticas.

      PSF rechara 1.5 millones

      La Python Software Foundation ha rechazado una subvención de 1.5 millones del gobierno federal estadounidense debido a que una de las condiciones para aceptar el dinero era no fomentar ningún programa que promueva la diversidad, equidad e inclusión (DEI en términos americanos).

      El hardware sigue subiendo

      Tanto los discos duros como las memorias RAM de gran capacidad han sufrido un aumento de precio significativo en las últimas semanas. Ahora se ha anunciado que los principales fabricantes de unidades SSD están teniendo problemas para cumplir con los plazos de entrega en sus modelos da mayor tamaño.

      Servidor de archivos multidispositivo

      Alguien ha creado un servidor de archivos con soporte para http, webdav, ftp, tftp y smb/cifs que se puede ejecutar en teléfonos y ordenadores. Está escrito en Python y el objetivo es poder compartir archivos de forma local.

      Reaprovechando el silicio

      A día de hoy todos los fabricantes de integrados aprovechan chips defectuosos para sacar modelos de menores prestaciones. Sucede por ejemplo en CPUs, donde un integrado con algún núcleo que no funciona como debe, se marca con un modelo que tiene como mucho, los núcleos funcionales. En esta entrada explican cómo Intel empezó a reaprovechar sus chips fabricados a finales de los 70s.

      publicado en Portada
      cobitoC
      cobito
    • 1 / 1