• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. cobito
    3. Mejor valorados
    • Perfil
    • Siguiendo 0
    • Seguidores 5
    • Temas 749
    • Mensajes 6,736
    • Mejor valorados 912
    • Controversial 1
    • Grupos 4

    Mejores publicaciones hechas por cobito

    • RE: Dudas sobre NAS

      @Fassou que va, suelo ser bastante austero con las cuestiones estéticas. Ahora eso sí, la caja tiene una cantidad generosa de leds en el frontal que ya mostraré cuando esté todo montado.

      Esta es la parte superior:

      Intertech SC-4100

      Desde aquí se ve la disposición de los 4 conectores SATA y cómo no es posible usar cables con codo de 90º. Una de las cosas que me ha gustado es el hecho de que los 4 discos se alimentan con un solo molex, lo cual es de muy agradecer para ahorrar cablerío.

      El ventilador que está justo detrás de los conectores SATA (la PCB tiene agujeros para ayudar a la ventilación), me ha resultado muy silencioso y el flujo de aire no está mal.

      Este es uno de los laterales:

      Intertech SC-4100

      En este lateral de la placa se conectarán dos cables SATA más. En total: 4 satas y el de alimentación de la ventilación. Aquí hay espacio de sobra porque han dejado 4cm para poder poner una tarjeta PCI-e.

      El otro lateral:

      Intertech SC-4100

      Aquí se ve el follón de cables de alimentación. 8 hilos van al molex (tiene 2 cables por clavija) y luego el manojo ATX hacia la placa. La fuente por cierto, queda en voladizo anclada sólo pro los 4 tornillos en uno de los extremos. Queda bien fijada pero al ser tan larga y pesada no hubiera estado mal tener la posibildad de atornillarla en el otro extremo. La fuente trae una pieza metálica para ello pero la caja no tiene orificios para tornillos.

      Y esto es lo que menos me gusta:

      Intertech SC-4100

      Los módulos de memoria van montados verticalmente, el conector de alimentación ATX está justo en frente de este módulo y la chapa de los caddys está justo encima. Aquí los cables tienen que estar bastante doblados. Y justo a la derecha de la alimentación, están los conectores de pulsadores y leds de la caja. Pues con estos dos manojos de cables conectados junto a las memorias y con esa distancia, hay que meter la placa con mucho cuidado de que no roce por abajo.

      publicado en Redes y almacenamiento
      cobitoC
      cobito
    • RE: Dudas sobre NAS

      @_Neptunno_ yo ahora mismo al reves; me apetece perder un poco de tiempo con estas cosas. Es algo que nunca he tocado y siempre le he tenido curiosidad. Hace años (antes de los SSD) me picó el gusanillo por ganar velocidad y ahora me ha vuelto el interés porque la colección de discos duros que tengo es engorrosa, poco eficiente con el espacio, poco fiable y hasta cierto punto, caótica.

      Bueno, sigamos con el lío.

      La posibilidad de comprimir datos de ZFS con FreeNAS junto al uso de la RAM como caché ha hecho que esta opción despierte mi interés. Lo de la RAM como caché me resulta interesante más como una forma de reducir la actividad de los discos duros y aumentar su vida útil que como un medio de aumentar el rendimiento. El rendimiento no es importante para mi más allá de tener tasas de unas pocas decenas de MB/s que me permitan hacer streaming de video.

      Freenas

      Voy a repetir el mismo ejercicio que he hecho con OMV (con algunos añadidos).

      Montando RAID-z (equivalente a RAID5)

      Las unidades RAID en FreeNAS se llaman "pools". Parece ser que la creación de un "pool" consume unos 4GB de disco. De esa forma, si uso 3 discos de 8GB, tengo como resultado una unidad de 12GB. Por confirmar esto, he puesto 3 discos de 4GB obteniendo una unidad resultante de 4GB.

      d4e22a2f-32b4-419e-b196-012461d16735-imagen.png

      Dejemos de momento los 3 discos de 8GB para hacer el RAID-z.

      Las opciones "ADD DATA/CACHE/LOG/SPARE" no sé para qué son y la verdad es que no me motiva demasiado averiguar para qué están ahí. El proceso de creación es bastante rápido:

      61db8a43-0f0d-41d0-b3ba-74836c994eeb-imagen.png

      La unidad parece que se monta en /mnt:
      81d4851a-d993-4552-989a-181dabb9f2b5-imagen.png

      Compresión

      Antes de hacerle perrerías, quiero probar una de las características que podría hacer decidirme: la compresión.

      Primero voy a copiar un video susceptible de alcanzar un alto grado de compresión (es un archivo mp4 con bitrate constante y pocos cambios en la imagen) usando lz4 (la opción que viene por defecto y que, según he leído, tiene la mejor relación ratio de compresión/consumo de CPU).

      El archivo mp4 ocupa 3.5GB:
      efdaca31-dbad-40bb-9ca7-56af0230d2d6-imagen.png

      El resultado es bastante espectacular (ocupa menos de la mitad) y durante la copia, el consumo de CPU más allá del demonio sshd, ha sido muy reducido.

      Después de borrar el video, ahora voy a copiar la base de datos del foro (Redis) que tiene un tamaño de 1.4GB:
      56018ce9-a948-4810-8ab7-973b2e5be01c-imagen.png

      Aquí el ahorro es menor (un 25% aproximadamente).

      Borro todo y copio 1GB de fotos JPG:
      4cb01c84-0e5d-4f06-b442-3654a9026ff5-imagen.png

      Apenas un 10% y aquí el uso de CPU sí ha sido bastante elevando.

      Borro todo y copio el episodio de una serie en H.264 que ocupa 2.7GB:
      1b6ff02c-e493-4273-bd9c-dfaaa1d0e2d2-imagen.png

      Este también ha sido un proceso intenso en consumo de CPU. El ahorro es de solo un 3%.

      Si se copia una imagen ISO de una distribución Linux, el ratio vuelve a ser del 3%.

      Para terminar, se lo voy a poner fácil. Voy a copiar 1.5GB de logs Apache de una de las webs:
      5729be6c-ce8f-487c-aa2b-29bf083f442f-imagen.png

      Pues nada, el archivo de 1.5GB pasa a ocupar 140MB.

      Para ponerlo en perspectiva, suponiendo el peor caso posible (el vídeo con un ratio del 3%), en un sistema de archivos de 8TB, supondría un ahorro de unos 240GB. Si se ponen como ejemplo la fotos JPG, el ahorro sería de cerca de 800GB.

      En mi caso, tengo claro que merece la pena la compresión, sin ningún tipo de duda. Además existen otras medida de ahorro como la "deduplicación" que hace que varias copias de un mismo archivo ocupen sólo como uno de ellos. Esto es algo que no voy a usar y no lo voy a probar, pero el concepto es sencillo.

      Peta un disco duro

      Al quitar un disco duro sale esto:

      34a4dc2f-8fe2-4b5d-a83b-ad980a962326-imagen.png

      3ceb62d2-838d-4e48-b878-68a4e0e04bf5-imagen.png

      Cuando se añade un disco en blanco, hay que hacer clic en el icono de configuración del "pool" luego en "Status":
      d5dbf7b2-fac4-4234-97d5-84a88ceddb5e-imagen.png

      Ahí seleccionamos "Replace" en el disco que ha desaparecido:
      56b58cc2-80de-4a1d-b787-9a6ea01d3496-imagen.png

      Finalmente, seleccionamos la unidad en blanco que se ha introducido:
      67ffa692-fbae-4472-b235-4e5a106a3827-imagen.png

      El proceso tardará un rato:
      c4f3cede-ba4f-488d-b337-58977c072fd2-imagen.png

      Al final es la misma historia que con OMV.

      Ampliación de capacidad añadiendo un nuevo disco

      Al intentar expandir el "pool", no he podido (me da un error diciendo que no hay suficientes discos). Según la documentación, no es posible añadir un sólo disco en un RAID-z sino que sólo se pueden añadir el mismo número de discos que había inicialmente, en este caso, 3 discos. Con eso, se conseguiría algo similar a un RAID5+0, que no es lo que yo estoy buscando, porque ese caso implica tener dos discos de paridad en vez de uno solo.

      Es decir, que sólo se puede hacer un RAID-z equivalente a un RAID5 en la creación del "pool" pero luego ya te quedan anclado con eso.

      Esto la verdad es que es una gran decepción.

      Ampliación de capacidad intercambiando un disco de 8GB por uno de 12GB.

      El proceso va a ser el mismo que hice con OMV: reemplazar un disco y regenerar RAID, reemplazar el siguiente, etc.

      Cuando finaliza el proceso, no encuentro ninguna opción para expandir el sistema de archivos. Leyendo por ahí, dicen que debería ser un proceso automático en el momento en el que todos los discos sean del mismo tamaño, pero después de reiniciar el sistema, sigo teniendo 14GB disponibles.

      Así que no sé qué hacer para que vea la nueva capacidad (unos 20GB).

      Conclusiones

      Ventajas de OMV: Sencillo, estándar, estable, más posibilidades de ampliación, basado en Debian.
      Desventajas OMV: Simple/obsoleto (no tiene compresión ni caché).

      Ventajas de FreeNAS: incluye últimos avances (compresión, cifrado, protocolos de comunicaciones).
      Desventajas FreeNAS: no-estándar*, menos estable, menos posibilidades de ampliación, basado en FreeBSD**.

      *Según he leído, FreeNAS activa características de ZFS que no están marcadas como estables. Eso tiene dos consecuencias negativas de peso: una es que la mayoría de distros no son capaces de leer las particiones ZFS creadas en FreeNAS (en caso de fallo, esto es crítico) y la otra es que se están usando caracterísiticas no tan probadas.

      **Esto es una opinión personal. Por ejemplo, no sé cómo se lleva el soporte de hardware en FreeBSD (si en el futuro decido poner un Zen8, ¿va a detectar correctamente todo mi hardware? ¿va a usar las técnicas de ahorro de energía? etc, etc, etc). No me hace gracia tener mis datos en manos de un sistema que no conozco. Todo esto tiene además una serie de ramificaciones que no me gustan: ¿qué ocurre si el soporte de FreeNAS desaparece? ¿Qué ocurre si por la razón que sea, no puedo usar FreeNAS para recuperar mis datos? ¿Y si tengo que echar mano de la consola? Ni si quiera sé instalar paquetes en caso de que necesite herramientas que no vienen por defecto.

      Si os digo la verdad, desde que he descubierto que no puedo ampliar el "pool" añadiendo discos (que es la forma más económica y sencilla), se me ha caído el mito. Si fuera a montar un RAID con 16 discos con vistas a que me duren 20 años, es probable que eligiera FreeNAS. Pero quiero empezar con algo básico (3 discos) e ir ampliando conforme lo vaya necesitando. Y para eso, FreeNAS me parece una mala opción.

      En la próxima entrega, hablaré de la configuración de hardware. De momento, encontrar una caja que me guste está siendo complicado.

      publicado en Redes y almacenamiento
      cobitoC
      cobito
    • RE: SERVIDOR HP DL380P G8 2XE5-2680V2 2,8GHZ

      @jordiqui No olvides validar el resultado. Así tenemos una referencia de ese maquinote en la base de datos y se pueden generar comparativas.

      ec02fef5-09f5-4c5d-ab66-09971e93dbae-imagen.png

      publicado en Configuraciones completas
      cobitoC
      cobito
    • Gestión del archivo .htaccess

      Este hilo forma parte de la guía para montar un servidor en Debian.
      Recuerda que el contenido de Hardlimit está bajo licencia Creative Commons.


      Procedimiento

      Como root:

      a2enmod rewrite
      nano /etc/apache2/sites-available/000-default.conf
      

      Añadir dentro de la sección VirtualHost correspondiente una sección Directory:

      <Directory "/var/www/html">
         Require all granted
         Options Indexes FollowSymLinks MultiViews
         AllowOverride All
      </Directory>
      
      /etc/init.d/apache2 restart
      

      Explicación

      El archivo .htaccess es un archivo de configuración de vital importancia que se aplica a cada subcarpeta de nuestro servidor. En él podemos hacer cosas como bloquear ciertas páginas, limitar el enlazado de cierto material (como imágenes) y muchos más.

      Para habilitarlo, lo único que tenemos que hacer es activar el módulo rewrite, así que escribimos en consola como root:

      a2enmod rewrite
      

      Ahora debemos editar con Nano el archivo000-default.conf como root:

      nano /etc/apache2/sites-available/000-default.conf
      

      Ahí debemos crear una sección Directory dentro de una sección VirtualHost. Eso se hace copiando el siguiente texto dentro de una sección VirtualHost:

      <Directory "/var/www/html">
         Require all granted
         Options Indexes FollowSymLinks MultiViews
         AllowOverride All
      </Directory>
      

      En el campo Directory deberemos poner la carpeta donde queremos que .htaccess funcione. Si queremos habilitar .htaccess en unas carpetas y deshabilitarlo en otras, podemos usar un esquema como el siguiente:

      <Directory "/var/www/html">
         AllowOverride None
      </Directory>
      
      <Directory "/var/www/html/wordpress">
         Require all granted
         Options Indexes FollowSymLinks MultiViews
         AllowOverride All
      </Directory>
      

      Una configuración funcional quedaría así:
      4749945f-a8a1-45de-aca0-eb26cd29ad9f-imagen.png

      De esta forma, .htaccess funcionará en /var/www/html/wordpress pero no en /var/www/html.

      Cada sección Directory es independiente y puede haber tantas como necesitemos en una sección VirtualHost.

      Por último reiniciamos el servidor Apache con:

      /etc/init.d/apache2 restart
      
      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Ssd muerto como cargo el s.o

      @Clipper Suponiendo que la cuarta y quinta lineas son preguntas:

      Lo del ratón seguramente se deba a que lo tienes conectado en el bus USB 3.x. Para que funcione, o bien lo tienes que conectar a uno 2.0 o bien desactivas el 3.x desde la BIOS (cada BIOS tiene su nombre para hacer esto).

      Sobre DVD vs Pendrive, ya es una cuestión de gustos. A mi me gusta más el USB porque es reutilizable. Hace años que no uso discos ópticos en mi PC principal, la verdad. Aunque también es verdad que el DVD es menos susceptible de dar problemas en estos casos.

      Y sobre la tarjeta SD, no debería haber problemas. Nunca he arrancado desde una de ellas, pero la mecánica debería ser la misma que arrancar desde un pendrive. Buscando por ahí, parece que se puede grabar usando una herramienta llamada woeusb (si no viene por defecto en Ubuntu, la tendrás que instalar):

      sudo woeusb --device carpeta/windows-10-image.iso /dev/sdX
      

      También se puede usar dd, pero el proceso es bastante más complejo.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Ssd muerto como cargo el s.o

      Si he entendido bien, ¿de repente la placa base no detecta tu unidad SSD y tienes problemas para instalar Windows en un disco mecánico?

      Antes de nada, activa en la BIOS el modo IDE/Legacy o como se llame para el disco duro (debería haber al menos dos modos: IDE o AHCI). Si sigue sin funcionar la instalación de Windows 7 en el disco mecánico y quieres darle el intento a Linux, tienes que descargarte una imagen actualizada.

      Es normal que una versión tan antigua de Ubuntu no detecte tu tarjeta de red. Si lo único que tienes a mano para bajar cosas es una Raspberry Pi, bájate una versión reciente cerrando el entorno de escritorio. Cuando esté en modo consola, bájate la imagen y cópiala en un pendrive para arrancar desde ahí:

      wget http://releases.ubuntu.com/19.10/ubuntu-19.10-desktop-amd64.iso
      sudo dd if=/carpeta/ubuntu-19.10-desktop-amd64.iso of=/dev/sdX bs=1M
      

      La X tiene que corresponder con la letra de unidad de tu pincho USB. Si no sabes cual es, ejecuta

      df
      

      Asegúrate de que la letra es la correcta. Si te equivocas, te quedarás también sin RPi.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Projeto que precisa rodar windows no raspberry pi3B

      @alberto-brasil Nunca he usado el administrador de máquinas de Qemu; siempre lo he hecho por consola. Mi consejo es que copies la imagen iso desde el pendrive al escritorio o cualquier otra carpeta local de Ubuntu Mate en Raspberry Pi.

      El mensaje de error que recibes se debe a que Qemu está intentando arrancar desde un disco que no es arrancable (probablemente un disco duro virtual virgen). Así que tienes que configurar la máquina virtual como para que arranque desde la ISO. He instalado virt-manager (la GUI que usan en el video que has puesto) y trastendo un poco, parece que para añadir la ISO tienes que hacer esto:

      · Cuando inicies el gestor, haz clic en el asistente para crear una nueva máquina.
      0_1527031367614_16fc3e19-fc5c-4b5f-b8eb-ffe33126d198-imagen.png

      · Ahí eliges la primera opción: instalar con imagen ISO y eliges el archivo que has copiado al directorio local.
      0_1527031424608_25735b65-2842-4549-813b-81b981544617-imagen.png

      Continuar con todos los parámetros que te pide: memoria RAM (no pondría más de 768Mb), CPUs (no más de 3), una unidad de disco virtual (de tamaño no superior al espacio disponible en la tarjeta SD)...

      Al arrancar seguramente te ha salido esto:
      0_1527031680790_0da109c8-7f44-4ab5-bc9e-9f23a765e804-imagen.png

      Haciendo clic en el icono de información sobre el hardware virtual, debes asegurarte de que la unidad de CDROM está habilitada y que tiene la máxima prioridad en el arranque:
      0_1527031776420_96747c25-be32-4852-bacb-1ea3e40d0697-imagen.png

      Sobre todo, asegúrate de que has elegido el archivo ISO y no una unidad física ya sea el pendrive o la tarjeta SD.

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Projeto que precisa rodar windows no raspberry pi3B

      @alberto-brasil dijo en Projeto que precisa rodar windows no raspberry pi3B:

      Muchas gracias por tu respuesta
      Estoy tratando de instalar a través del Exagear desktop junto con Wine que me han dicho que funciona muy bien pero me no entiendo los comandos que se necesita escribir.
      No os quiero dar mucho trabajo sería posible enviarme un paso a paso de cómo instalar windows en esos emuladores?
      Estoy muy agradecido por tu atención,
      ¡Gracias amigo!

      Ok, ese es un tema diferente. En la guía de Raspi también hay un apartado dedicado a Exagear (apartado 6); ahí tienes una explicación detallada de los comandos que necesitas. Además, el año pasado hicimos por aquí un análisis de Exagear 2 donde puedes ver más ejemplos.

      En resumidas cuentas, Exagear no es un emulador como Qemu en que se virtualiza una máquina completa sino que ofrece una consola x86. Es decir, Exagear te permite ejecutar programas x86 para Linux en una Raspberry Pi con un rendimiento bastante decente. Pero NO puedes instalar Windows. Para usar programas para Windows tienes que seguir el mismo procedimiento que en Linux para PC: hay que instalar Wine.

      Básicamente, una vez que has ejecutas Exagear, el procedimiento a seguir es el mismo que si estás ante un PC con Linux. Lo que hace es convertir la Raspberry Pi en un PC x86 (con Linux).

      En el siguiente video puedes ver un ejemplo de la ejecución de Counter-Strike en una Raspberry Pi (insisto en que dentro de la guía y el análisis que te he enlazado ha más ejemplos incluyendo procedimientos, comandos, etc):

      publicado en Sistemas operativos
      cobitoC
      cobito
    • Navegadores echando un trago de RAM

      En Reddit he visto publicada esta animación donde se pueden ver imágenes REALES de cómo beben RAM los distintos navegadores web:

      navegadores web consumendo ram

      Inquietante...

      publicado en Sistemas operativos
      cobitoC
      cobito
    • RE: Información & anuncios

      @Fassou dijo en Información & anuncios:

      Gran trabajo Sr. Cobito!

      Pero tome un poquito el Sol que se está quedando muy blanco y estamos en Agosto.

      Tiene una hamaca libre ahí mismo.

      Un libro de Unix de toma pan y moja.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      Esta madrugada ha terminado la reconstrucción de la matriz, así que desde este momento, todo debería ir con normalidad otra vez.

      Cuando la gente de Peertube haya publicado la versión 6.2 de la plataforma (previsiblemente la semana que viene), planificaré las actualizaciones. Por cierto, esta versión viene con alguna que otra característica muy interesante.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      Desde ayer, el RAID se está reconstruyendo debido a un problema con un disco. El proceso está siendo dolorosamente lento, mucho más que la última vez. Esto está provocando tiempos de espera enormes para acceder al NAS, por lo que todo Hardlimit irá bastante lento los próximos días.

      Ya que estamos, aprovecho para informar de que la semana pasada, se hizo una actualización "de emergencia" de Mastodon debido a unos fallos críticos de seguridad en la plataforma.

      Y para terminar, de aquí a dos o tres semanas, se realizará una campaña de actualización que abarcará el foro y la instancia de Peertube. Debería ser un proceso rutinario que se realiará durante un sábado o domingo.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      La idea inicial estaba clara: instalar Debian, instalar la paquetería, mover ciertos datos de un sitio a otro, instalar los distintos componentes y a volar. En un par de horas debería estar listo. No es la primera vez que lo hago y no debería haber demasiadas dificultades. La realidad: hoy soy 20 años más viejo que la semana pasada.

      Algunas cosas han salido a la primera:

      Las páginas de la casa (portada, banco de pruebas y museo) no parecen tener grandes incompatibilidades con la nueva PHP 8.2 (tan solo ha sido necesario un pequeño cambio en la portada): aquí todavía habrá que hacer una comprobación más exhaustiva. Además, la gente de Nodebb no ha hecho cambios mayores en la API del foro por lo que todos los componentes se han seguido comunicando con el sistema de registros sin necesidad de cambios.

      Sobre el foro junto con su base de datos, ha sido coser y cantar. Aquí la única cuestión es que sí que ha habido una gran cantidad de cambios en la maquetación de las páginas, por lo que el CSS ha quedado parcialmente obsoleto. Lo he ido retocando, aunque quedan todavía detalles por pulir. Hay una gran cantidad de novedades estéticas y, desde mi punto de vista, la versión móvil ha ganado bastante enteros. Todavía falta por resolver un problemilla de permisos que está teniendo el venerable equipo de moderadores que espero que no sea gran cosa.

      Por otra parte, es la primera vez en muchos años que usamos la versión oficial de Debian de Redis, lo cual, desde el punto de vista del mantenimiento, es un gran avance. Enorme avance. Estoy muy contento con esto.

      Y hasta aquí lo bonito. El resto ha sido una bajada a los infiernos:

      · Muchos blogs no son compatibles con PHP 8.2, por lo que tendré que hacer una actualización manual para cada uno de ellos. No debería ser gran cosa, pero hay que hacerlo. Esto me lo voy a tomar con tranquilidad.

      · Uno de los cambios en la organización de los directorios ha consistido en mover todo el contenido "pequeño" (miniaturas, plugins...) de la instancia de Peertube a una unidad SSD para descargar de transacciones al NAS (estaba ya muy petado). Tenía por aquí una flamante unidad SSD casi a estrenar pero, ¡ohh, casualidades de la vida!, es incompatible con la controladora de disco. La enchufas y funciona. Al cabo de las horas, Linux empieza a informar de errores E/S con el ATA. Reinicias y la BIOS deja de detectarla. Si apagas el ordenador y lo enciendes, vuelve a funcionar. He probado con varios cables y con varios conectores SATA pero no, es el maldito disco (que, por cierto, funciona perfectamente en otro equipo). He tenido que echar mano de una no tan nueva unidad SSD (aunque se encuentra en buen estado de salud).

      · En Peertube supuestamente se pueden configurar individualmente los directorios de cada tipo de elemento: temporales, videos, miniaturas, etc. Lo he configurado para repartirlo entre el NAS y la SSD y aparentemente todo funcionaba salvo que desde Internet, no se podía acceder al contenido del NAS. ¿Por qué? Pues porque el CMS usa un puente en Nginx para acceder directamente a los datos definiendo algo llamado 'root'. El problema es que sólo puede haber un 'root'. Entonces, ¿cuál eliges: el NAS o el SSD? Pues después de unas cuantas vueltas, he elegido el SSD creando enlaces simbólicos a las carpetas del NAS. Es una opción poco limpia, pero es la única opción que he encontrado.

      Bueno, hasta aquí han pasado 9 horas, todavía queda por poner a funcionar Mastodon (¡jaja! que alguien me sacrifique, por favor) y empiezo a cuestionarme algunas decisiones. Lo dejo para el día siguiente porque todos los primeros domingos de cada mes, el NAS hace una comprobación de la matriz y eso hace que todo vaya muy lento durante unas horas.

      · ¡Mastodon! Esto son ya palabras mayores. Tanto, que lo voy a dividir en párrafos:

      Mastodon estaba alojado en el disco de sistema. Pero el contenido ocupa bastante y la única forma de que sea sostenible a largo plazo es moverlo al NAS. La operación es sencilla: conectar el antiguo disco y copiar al NAS los datos. Los datos ocupan unos 240GB (no es excesivo), están repartidos en unos 800.000 archivos (es normal porque son imágenes, sus miniaturas y videos cortos) y todo esto está repartido en (¡atención!) dos millones y medio de carpetas. Cualquier persona normal se preguntaría ¿por qué son necesarias millones de carpetas para almacenar cientos de miles de archivos?

      Esta forma de repartir los datos me ha hecho darme cuenta de lo brutalmente lento que es crear dos millones y medio de carpetas en discos mecánicos. Es increíblemente lento; nunca lo hubiera imaginado. En principio, copiar 240GB al NAS debería haber tardado en torno a una hora. Hacer esta copia ha llevado 14 horas. 14 horas más que ha estado la instancia caída.

      Una vez que los archivos están copiados, llega la hora de instalar el CMS. Las instrucciones oficiales están mal. Dicen que hace falta Ruby 3.0.6. Instalo esa versión y llegado a cierto punto, da error. Intento la instalación varias veces más por si me he saltado algo hasta que me da por analizar minuciosamente los logs (sí, esto ha sido culpa mía por no haberlo hecho antes). Resulta que la última versión de Mastodon usa Ruby 3.2.2.

      Todo empieza a ir bien hasta que se pone a compilar. Pienso que quizás he cometido otro error y empiezo la instalación otro par de veces con el mismo resultado. A estas alturas, he instalado Mastodon 8 veces. ¡Ocho! Empiezo a pensar que la carencia de ciertas capacidades cognitivas podrían estar impidiendo llevar a cabo esta tarea. Entonces me encuentro a un tipo en Reddit que dice que lleva ya 12 instalaciones. ¡Eh, mirad qué pringao, DOCE veces, JA! -le grito a la pantalla, sintiendo cómo mi orgullo se recompone parcialmente.

      Pasados unos minutos, recupero mi frágil equilibrio mental y me da por consultar la solución que algún fulano le ha dado a este pobre desgraciado. Resulta que estoy usando una versión demasiado reciente de NodeJS. La versión que estoy usando es la 18 LTS que salió en abril de 2022. ¿Cómo es posible que la última versión de Mastodon, que salió hace dos semanas, no sea compatible con un NodeJS que lleva un año y medio existiendo? Venga, que alguien responda, ¿algún filósofo en la sala?

      Dejando de lado las cuestiones humanistas, miro qué versión necesita Mastodon para funcionar: la versión 16 ni más ni menos. Una versión que lleva sin soporte desde el 11 de septiembre. Sí, señores: la mayoría de instancias de Mastodon que hay levantadas están usando un componente crítico sin soporte. ¿Qué os parece? ¿Dónde están esos filósofos, por favor?

      Total, que encuentro una chapuza que permite compilar Mastodon con NodeJS 18, funciona y ya: restauro la base de datos, la migro a la nueva versión, actualizo los feeds y a funcionar. NOTA: Este último párrafo ha sido adaptado a un público infantil. Durante el procedimiento, se ha cometido un delito continuado de blasfemia, pero esta vez debido a mi propia ineptitud.

      Y ya ascendiendo de las profundidades de la locura, me he dado cuenta de algo interesante y es que Docker se ha convertido en el estándar de facto. De hecho, empieza a ser complicado encontrar documentación para hacer ciertas cosas "a pelo". Y seguramente, algunas de las dificultades han surgido de ese cambio de paradigma. Así que para la próxima vez, voy a tener que formarme sobre esto porque ya es el presente y además parece una forma increíblemente cómoda de instalar cosas. Espero que sea con Debian 14.

      En fin, vaya tocho. Pero ¿y lo a gusto que me he quedado?

      PD: Como de costumbre, si veis algo raro, no dudéis en comentarlo.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      La actualización está siendo una operación más complicada de lo inicialmente previsto. Queda por poner a funcionar Mastodon y los Blogs además de multitud de pequeños detalles.

      Como veis, el foro tiene un aspecto extraño. En los próximos días iré arreglando el CSS para que vuelva a verse como antes. Cuando esté todo terminado, escribiré con los detalles.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      Casualidades de la vida, ayer salió un parche de seguridad importante para Mastodon que ya está aplicado (estábamos en 3.5.3 y pasamos a 3.5.10). Los identificadores son CVE-2023-36459 y CVE-2023-36460. Este último parece ser especialmente peligroso ya que es un problema en el código que procesa las imágenes y videos de los toots que permitiría ataques DoS y la ejecución remota de código arbitrario.

      publicado en General
      cobitoC
      cobito
    • RE: Información & anuncios

      Durante el mes de septiembre se van a realizar importantes tareas de actualización de software en el servidor:

      · Se va a actualizar el sistema operativo de Debian 11 a 12, con la gran cantidad de cambios en toda la paquetería que ello va a conllevar. Esto podría romper la compatibilidad con las distintas páginas, principalmente con las hechas en casa como el banco de pruebas y el museo, así que habrá que estar vigilantes.

      · Se actualizará Nodebb (foro) y será la primera vez que cambiemos de versión mayor. Aquí esperemos que no hayan cambiado nada importante en la API y si lo hay, habrá que actuar sobre la portada y el banco de pruebas.

      · Se actualizará Peertube (video) a la versión que haya disponible en esos momentos. La última versión actual trae un cambio interesante de cara a pensar la topología de servidor a futuro. En este caso, se instalará un plugin que permite chat en las retransmisiones en directo (por petición de un usuario de la instancia).

      · Se actualizará Mastodon (social) que, al igual que el foro, cambia de versión mayor. Aquí habrá que asegurar la comunicación con la portada.

      Con respecto al hardware, se está estudiando cambiar la unidad SSD donde está instalado el sistema por un disco mecánico. Eso dependerá del estado de salud del SSD en estos momentos (el valor "231 SSD_Life_Left" de SMART dice 91, pero quiero una segunda opinión de CrystalDiskInfo). En cuanto a escrituras recurrentes, se ha machacado con logs (tamaño pequeño pero escrituras constantes) y en cuanto a escrituras voluminosas, se ha machacado con Mastodon, que se instaló ahí pensando que no ocuparía mucho pero en esta actuación se mudará al NAS por consumir mucho más de lo esperado.

      A parte del disco, no hay más cambios de hardware previstos: seguimos con la misma máquina y mismo NAS, ambos ya bastante justos de sus capacidades pero que deberían poder aguantar, al menos, unos meses más.

      Al haber más cambios de lo habitual, Nodebb junto con el Redis proporcionado por Debian (Redis es una de las cosas que más me asustan de esta actualización por los graves problemas que hemos tenido en el pasado), se ensayarán una máquina virtual previamente. Además, se aprovechará para actualizar la guía para montar un servidor en Debian y se mudará al foro (actualmente sigue estando en dplinux.net).

      Como de costumbre, todo esto se hará en un disco diferente al actual (ya se decida continuar con una SSD o cambiar a disco mecánico) para tener asegurado el actual estado de las cosas en caso de desastre.

      Estas tareas podrían dejar a Hardlimit fuera de linea entre unas horas y unos días y los cambios debería de ser transparentes de cara al usuario, excepto por las nuevas características que traigan las nuevas versiones de los distintos componentes.

      publicado en General
      cobitoC
      cobito
    • RE: Blogs Hardlimit

      @jordiqui Para crear un blog simplemente dime cómo quieres que de llame y te lo creo.

      publicado en General
      cobitoC
      cobito
    • RE: Museo Hardlimit

      La quinta generación de procesadores x86 supuso un gran salto con respecto a los 486. En una época en la que empezaban a aparecer competidores como PowerPC y Alpha, Intel no estaba preocupada porque confiaba en que la retrocompatibilidad del Pentium y el extenso repertorio de software disponible, jugara en contra de las nuevas opciones.

      Pero con los Pentiums y sus 3.1 millones de transistores, apareció un nuevo problema: el exceso de temperatura. Para solucionarlo, los fabricantes montaron un ventilador encima de un disipador, algo no visto hasta la fecha en ordenadores domésticos.

      Realizar una ampliación a Pentium costaba $2000 de la época, lo cual no sonaba tan mal cuando se comparaba con los $4000 de un PC nuevo. Pero esta inversión tenía que estar justificada, por lo que las comparativas de rendimiento entre Pentium y 486 estaban a la orden del día.

      publicado en General
      cobitoC
      cobito
    • Hardlimit social

      Si tienes una cuenta en Twitter relacionada con la tecnología y la informática en general y no te gusta la deriva que está tomando la red social, ya puedes usar la instancia de Mastodon de Hardlimit.

      Se puede acceder desde social.hardlimit.com

      Está recién puesta en marcha, así que si veis algo raro, no dudéis en comentarlo.

      publicado en General
      cobitoC
      cobito
    • RE: Museo Hardlimit

      Os dejo por aquí un nuevo episodio de The Computer Chronicles subtitulado para que paséis la tórrida noche:

      publicado en General
      cobitoC
      cobito
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 45
    • 46
    • 6 / 46