Sin preocupaciones. Hay por ahí hay alguien con más de 2200 videos donde la mayoría tiene 0 visualizaciones. Tú al menos tienes una audiencia decente.
Mejores publicaciones hechas por cobito
-
RE: Alan Wake II en GNU/Linux
-
RE: 15ª Edición: ¿A qué jugaste en 2021?
Yo he corrido la misma "suerte" que @Fassou así que he tenido que recortar bastante tiempo en hobbies. A ver si me toca ya el euromillones. Siguiendo la inercia del confinamiento, he podido echar unas cuantas partidas a juegos gran reserva cosecha del 99:
-
Midtown Madness: este ha envejecido regular. A mi, personalmente, los motores de física de la mayoría de los juegos de carreras de finales de los 90 me parecen flojos tirando a malos. Es un género que, en general y desde mi punto de vista, los años no le han sentado demasiado bien. Ya me pasó también con Need for Speed II.
-
Age of Empires II: uno de los mejores juegos de todos los tiempos que no necesita presentación.
-
La beta de Counter Strike: con este me estrené en los cibers y la verdad es que (quitando detalles estéticos) ha cambiado bastante poco desde entonces.
-
Quake III Arena: para mi, los mejores gráficos del 99. Más carne de ciber y tan divertido como el primer día.
-
GTA II: la esencia no ha cambiado tampoco mucho pero los gráficos no tienen nada que ver con lo que se ha visto desde el 3. Sigue siendo bastante entretenido.
-
SimCity 3000: uno de mis juegos favoritos. Tampoco necesita presentación aunque, este sí, lo jugaría en una máquina actual porque consume muchísima CPU.
-
Star Wars Racer: buenos gráficos para la época pero tengo que ser sincero; me pareció un aburrimiento de juego. Para echar un par de carreras y ya.
-
Tomb Raider 4: aunque más de uno por aquí me vaya a matar, nunca lo había jugado. No sé si es que soy muy torpe, pero al inicio cuando el profesor te están enseñando a moverte, hay un salto en un lugar con cataratas pequeñas que me tiré como media hora para conseguirlo. Será la venganza de Lara contra mi por haber ignorado sus aventuras tanto tiempo.
-
Worms Armageddon: un clásico atemporal que tampoco necesita presentación.
Y todos en hardware original de la época, lo cual resulta absurdo para casi todo el mundo pero será que me gustan las experiencias completas.
En realidad, a la mayoría he echado unas pocas partidas para probarlos. Los mayores vicios han sido al SC3000 y al AOE2. Quería retomarlos después del verano pero la "suerte" lo ha impedido.
-
-
RE: ¿A qué estás jugando ahora?
Precisamente hace unas semanas me eché un vicio al Tomb Raider 4 para un análisis que estoy haciendo de un PC del 99 (por cierto, este juego va por vosotros, @_Neptunno_ y @Sylver , que sé que sois unos forofos; será el primero de la review).
Ahora con el verano lo tengo todo parado, a ver si puedo sacar unos huecos y publico los videos en septiembre.
He estado liado con otros tantos títulos aunque a los que más horas he dedicado ha sido al Age of Empires II y al Sim City 3000. Seguramente a la vuelta de vacaciones le vuelva a meter mano al SC3000.
Todo retro, como vengo haciendo en los últimos dos o tres años.
-
RE: ¿A qué estás jugando ahora?
Vaya unos yonkis. Yo ahora estoy metiendo revistas en el museo, pero cuando se me empiece a ir a olla, quiero jugar la saga completa de Half Life cambiando el 1 por el Black Mesa.
-
RE: 13ª Edición: ¿A qué jugaste en 2019?.
Este año me he echado algún que otro vicio al Battlefield 3 y al OpenTTD, pero poca cosa. Como parte de mi nuevo blog, también me probado Terminal Velocity, Duke Nukem 3D, The Dig, Theme Hospital, Worms 2 y la demo de Diablo 1. A ninguno le he dedicado demasiado tiempo excepto al Theme Hospital con el que me he echado un par de partidillas. La verdad es que jugar en un portátil de mediados de los 90 con una pantalla STN, se acaba haciendo un poco pesado.
El año pasado creo que no estrené ningún juego. He jugado partidas sueltas al Counter Strike Source y hace unos meses acabé abandonando Cities Skylines, uno de los juegos que más me ha enganchado últimamente.
Este año espero probar un buen puñado de títulos del pasado aunque seguramente sin llegar al extremo de viciarme a ninguno.
-
20 años de Counter Strike
Pues eso, por ahí he leído que se cumplen dos décadas del celebérrimo juego, así que me voy a poner a contar historias de abuelo.
Recuerdo la primera vez que jugué y lo recuerdo porque fue la primera vez que fui a un cyber. Era diciembre de 1999 y estaba lloviendo. Justo habían terminado las clases del instituto por las vacaciones de Navidad y alguien del grupo con el que me juntaba dijo "¡vamos al cyber!". Creo que él era el único que había ido allí alguna vez.
Tuvimos que andar casi corriendo unos 15 minutos bajo la lluvia hasta que llegamos a La Red, un local que había en Pedro Antonio de Alarcón en Granada. Aquello era el paraíso. Ver decenas de torres con decenas de monitores, todo a la vez funcionando. Todos jugando a la vez. El cyber estaba a rebosar de chavales como yo que acaban de salir de clase. Y lo acojonante es que todos estaban jugando la misma partida. ¡En red! Aquello era completamente nuevo para mi.
Como siempre he sido un poco pardillo (y lo sigo siendo), una de las primeras cosas que llamó mi atención era la forma en que estaba todo aquello conectado. Había visto módems alguna vez pero en mi casa no llegaría internet hasta unos meses después. Todos esos PCs estaba conectados con una especie de clavija como la del teléfono pero más grande. Pensé que era algún tipo de módem y que todos estaban haciendo algún tipo de conexión telefónica. Pero allí estaban ocurriendo tantas cosas a la vez, que no me paré a pensarlo demasiado más.
Por fin se quedó un PC libre y me senté. La mujer que regentaba el local me puso sobre la mesa un papelito con la hora de inicio. A doscientas pesetas la hora. No sabía como entrar en la partida de red, así que el compi experimentado me lo explicó por encima un poco. Recuerdo hasta los controles que me tuve que tragar porque no sabía cambiarlos: botón izquierdo de ratón para andar hacia adelante, derecho hacia atrás, intro para disparar y espacio para saltar. Era todo lo que necesitaba saber para pegar tiros con la pistola.
No recuerdo lo mal que quedé en aquella partida, pero la disfruté segundo a segundo. Aquellos gráficos me maravillaban y que hubiera tantos PCs mostrando lo mismo era magia. Cuando estaba muerto (que era la mayor parte del tiempo), podía ver el mapa libremente. Podía atravesar las paredes y cuando miraba fuera de los límites, se ponía todo a parpadear. Era flipante.
Los gráficos eran espectaculares. Hasta ese momento había jugando a muy pocas cosas usando una aceleradora 3D, por lo que veía normal ver pixels enormes cuando me acercaba a un objeto. En aquel juego eso no sucedía. La calidad gráfica era impecable, sin gigantescos píxelacos; todo suave y bonito. Insuperable se mirara como se mirara.
Dos meses después, mis padres me compraron el que fue el sustituto de mi 486: un Pentium II a 400Mhz, con 64Mb de RAM, una S3 Savage 3D de 8Mb y un modem interno de 56k. Aquel ordenador supuso un salto cualitativo bestial con respecto al 486: una profundidad de color de 24 bits con una resolución de 1024x786, aceleración 3D e Internet.
Yo quería aquel juego pero lo único que había averiguado hasta ese momento es que se llamaba Counter Strike. Era la versión beta 5.2. Les pregunté a los colegas cómo conseguirlo, pero casi ninguno tenía ordenador y no sabían. Me metí en Lycos y encontré la web oficial: counter-strike.net. Allí descubrí que en realidad no era un juego sino una modificación de Half Life. Mirando por Wayback machine, aquí está la web que recordaba con su fondo azul:
Otro amigo de la infancia cuyo padre conseguía los codiciados CDMIX en aquellos tiempos, tenía Half Life. Lo instalé en mi PC y funcionó. Ahora sólo quedaba instalar Counter Strike, lo que suponía descargarlo jeje... con mi modem de 56kbps y con tarificación por minutos. Qué buenas broncas me llevaba por aquella época cuando llegaban las facturas de Telefónica. Eran más de 50 Mbytes
Bueno, esa es una imagen de la beta 6.6, pero para el caso vale: 58675kbytes entre 3.5kbytes/s eran más de 4 horas y media. Aquí tenía que pedir permisos a mis padres, no por el permiso en sí, sino para que nadie cogiera el teléfono, porque en aquella época no conocía los gestores de descarga y cualquier problema suponía empezar de cero. Conseguí el archivo y me sentí realmente bien. Lo iba a instalar y... dio un fallo. Resulta que la versión de Half Life estaba desactualizada. Y tenía que actualizarla.
Ahí estaba, otros 70 Mb; otras 5 horas. ¿Alguien se acuerda a cuánto estaba el minuto de llamada local? Por fin lo conseguí. Debía ser de los muy pocos en Granada que tuviera Counter Strike en su propia casa y fuera así o no, tengo que reconocer que aquella exclusividad (al menos con respecto a la gente de mi entorno) hacía que el tema que resultara aún más excitante. Más que excitante; acojonante.
Mi entusiasmo por el juego llegó a tal punto, que hasta creé una web:
Acabé sustituyendo la Savage 3D por una Voodoo 3 3000 que junto al Wicked 3D conseguía una tasa de 40-50fps sostenidos a 1024x768, amplié la memoria a 128Mb para que el cambio de mapa se produjera más rápido y al inicio no diera tirones y hasta cambié la tarjeta de sonido para poder hablar por el micrófono con otros jugadores porque la que traía el PC no era full-duplex. En aquellos tiempos, el PC estaba ahí principalmente para Counter Strike. Daba igual que la conexión se cortara y me sacara de la partida o que el Winmodem que tenía produjera un ping de cerca de 400ms en servidores nacionales. Estaba jugando con gente de todo el mundo desde mi casa. Aquello era maravilloso.
Por supuesto, ese hito no impidió que los coleguis del insti, que la mitad cumplíamos años entre mayo y junio, nos juntáramos para invitar a la otra mitad a 5 horas de cyber. Eso de salir con los sesos hechos agua después de 2 horas de counter y otras 3 de Age of Empires 2 era lo mejor de la apertura del verano.
Fueron grandes momentos. Luego la gente empezó a tener ordenadores con Internet en sus casas, dejamos a ir al cyber y todo terminó.
Para mi este ha sido el juego más difrutado de todos los que he tenido, ya no solo por el juego en sí, sino por los avances técnicos que había a su alrededor: aceleración gráfica y multijugador por Internet, además de que técnicamente era un portento.
-
Servidor TeamSpeak 3 Hardlimit
rul3s ha tenido la generosidad de ceder a la comunidad de Hardlimit un servidor de Teamspeak 3. Como sabréis, es el servicio más popular para comunicaciones en juegos. A partir de ahora cuando queráis echar un tangana, os podéis meter usando la dirección ts.hardlimit.com.
El cliente se puede descargar desde esta página.
-
RE: Dudas sobre NAS
Un año después...
Cuando faltan unos días para que el NAS cumpla su primer año, ha petado uno de los discos. Desde hacía unos meses se escuchaba un clic muy de vez en cuando. Hace unos días, el clic fue muy insistente así que presencié en directo la muerte del disco. El NAS estuvo unos minutos intentando acceder y mientras tanto no era posible acceder al sistema de archivo. Después de ese tiempo, el led de actividad del disco cascado se quedó permanentemente encendido y el RAID siguió funcionando con normalidad. Esa misma noche pedí un disco igual (la verdad es que los Red NAS de 4TB EFAX empiezan a no ser tan comunes). Ayer lo recibí y le pasé un escaneo de superficie física (como hago siempre que compro un disco mecánico). Y anoche cuando lo pasó sin novedades, procedí a la sustitución.
Ha estado reconstruyendo el RAID5 durante 11 horas y vuelve a estar como al principio, con lo que el el NAS en general y el RAID en particular han cumplido como se esperaba. Ahora me toca tramitar el RMA del disco cascado y ese me lo quedaré como repuesto o como ampliación del RAID si me quedo sin espacio (lo que llegue antes).
Sobre el hardware, la placa base con CPU integrada parece una buena elección. Además del silencio y el bajo consumo, no he tenido problemas de cuelgues, inestabilidades y demás. También un ofrece una potencia de procesamiento más que suficiente. Incluso en la reconstrucción del RAID que es una operación costosa, no se llegaba a cargar al 100% uno de los núcleos (el resto de núcleos en reposo). El NAS ha estado funcionando con el disco externo USB de 2.5" con el sistema desde que petó el pendrive y, aunque no es lo ideal, creo que va a seguir así. La mejor solución a futuro será poner una unidad SSD M2.
Y sobre la caja, parece que los leds azules que indican la presencia de disco en la bahía, se están apagando. Es posible que se estén quemando. Podría ser suciedad pero el led verde de actividad (que está justo debajo) luce tan brillante como el primer día, así que tiene pinta de ser un fallo de diseño.
-
RE: Dudas sobre NAS
Después de un par de días pasándole un memtest y después de haber comprobado que los tres discos están correctos, hoy me he dispuesto a instalar OMV. Desafortunadamente, parece que esta distro no se lleva muy bien con las instalaciones en pendrives. La instalación ha tardado casi hora y media (cuando en máquina virtual es cuestión de minutos). Cuando el sistema está recién arrancado, la interfaz va bastante lenta pero al cabo de un ratillo empieza a ir bien.
He probado en los 4 USB de la parte de atrás (dos USB 2.0 y otros dos USB 3.x). En todos va igual de mal, pero qué se le va a hacer... Mientras el RAID vaya a velocidad de crucero no tengo mayores problemas con esto.
Ahora estoy creando el RAID 5 y tardará unas 5 horas. Aquí tenéis un par de fotos.
Con la puerta cerrada:
Y con la puerta abierta:
Cada caddy tiene dos leds: de alimentación y de actividad. En la parte de abajo hay 6 leds: alimentación, actividad de discos general, 3 para 3 interfaces de red y uno para alarma. Los 4 últimos no los uso porque no tengo donde conectarlos. Curiosamente, el led de actividad de disco general no siempre se corresponde con la actividad de los discos, supongo que porque ese indica las peticiones de la controladora y los de los caddys indican el movimiento real de datos.
Otro comentario importante sobre esta placa que podría hacerla no apta para sistemas ZFS: no todos los SATAs van igual de rápido. Tiene dos controladoras: una Intel y otra ASMedia ASM1061. La Intel va a máxima velocidad: durante las pruebas de la superficie de los dos discos conectados a ella, la velocidad de lectura iba a unos 320MBytes/s en cada uno con ambos discos leyendo a la vez. En cambio, en el tercer disco, se medían unos 270MBytes/s. Si conecto dos discos a la ASMedia, la velocidad de lectura de los dos a la vez, cae hasta a unos 180MBytes/s cada uno. Desde el punto de vista del rendimiento, no debería de ser dramático ya que al final la tarjeta gigabit es el mayor cuello de botella, pero no me gusta que sea así y menos cuando ZFS tiene pérdidas de datos cuando hay diferencias de rendimiento importante entre discos.
EDITADO: Parece ser que cuando se instala OMV en un pendrive, es muy recomendable instalar el plugin openmediavault-flashmemory para que se copien ciertas carpeta a una ramdisk y así alargar la vida de la memoria. Para instalarlo, primero hay que instalar omv-extras ejecutando en consola como root, esto: wget -O - https://github.com/OpenMediaVault-Plugin-Developers/packages/raw/master/install | bash
-
RE: Dudas sobre NAS
@Fassou que va, suelo ser bastante austero con las cuestiones estéticas. Ahora eso sí, la caja tiene una cantidad generosa de leds en el frontal que ya mostraré cuando esté todo montado.
Esta es la parte superior:
Desde aquí se ve la disposición de los 4 conectores SATA y cómo no es posible usar cables con codo de 90º. Una de las cosas que me ha gustado es el hecho de que los 4 discos se alimentan con un solo molex, lo cual es de muy agradecer para ahorrar cablerío.
El ventilador que está justo detrás de los conectores SATA (la PCB tiene agujeros para ayudar a la ventilación), me ha resultado muy silencioso y el flujo de aire no está mal.
Este es uno de los laterales:
En este lateral de la placa se conectarán dos cables SATA más. En total: 4 satas y el de alimentación de la ventilación. Aquí hay espacio de sobra porque han dejado 4cm para poder poner una tarjeta PCI-e.
El otro lateral:
Aquí se ve el follón de cables de alimentación. 8 hilos van al molex (tiene 2 cables por clavija) y luego el manojo ATX hacia la placa. La fuente por cierto, queda en voladizo anclada sólo pro los 4 tornillos en uno de los extremos. Queda bien fijada pero al ser tan larga y pesada no hubiera estado mal tener la posibildad de atornillarla en el otro extremo. La fuente trae una pieza metálica para ello pero la caja no tiene orificios para tornillos.
Y esto es lo que menos me gusta:
Los módulos de memoria van montados verticalmente, el conector de alimentación ATX está justo en frente de este módulo y la chapa de los caddys está justo encima. Aquí los cables tienen que estar bastante doblados. Y justo a la derecha de la alimentación, están los conectores de pulsadores y leds de la caja. Pues con estos dos manojos de cables conectados junto a las memorias y con esa distancia, hay que meter la placa con mucho cuidado de que no roce por abajo.
-
RE: Dudas sobre NAS
@_Neptunno_ yo ahora mismo al reves; me apetece perder un poco de tiempo con estas cosas. Es algo que nunca he tocado y siempre le he tenido curiosidad. Hace años (antes de los SSD) me picó el gusanillo por ganar velocidad y ahora me ha vuelto el interés porque la colección de discos duros que tengo es engorrosa, poco eficiente con el espacio, poco fiable y hasta cierto punto, caótica.
Bueno, sigamos con el lío.
La posibilidad de comprimir datos de ZFS con FreeNAS junto al uso de la RAM como caché ha hecho que esta opción despierte mi interés. Lo de la RAM como caché me resulta interesante más como una forma de reducir la actividad de los discos duros y aumentar su vida útil que como un medio de aumentar el rendimiento. El rendimiento no es importante para mi más allá de tener tasas de unas pocas decenas de MB/s que me permitan hacer streaming de video.
Freenas
Voy a repetir el mismo ejercicio que he hecho con OMV (con algunos añadidos).
Montando RAID-z (equivalente a RAID5)
Las unidades RAID en FreeNAS se llaman "pools". Parece ser que la creación de un "pool" consume unos 4GB de disco. De esa forma, si uso 3 discos de 8GB, tengo como resultado una unidad de 12GB. Por confirmar esto, he puesto 3 discos de 4GB obteniendo una unidad resultante de 4GB.
Dejemos de momento los 3 discos de 8GB para hacer el RAID-z.
Las opciones "ADD DATA/CACHE/LOG/SPARE" no sé para qué son y la verdad es que no me motiva demasiado averiguar para qué están ahí. El proceso de creación es bastante rápido:
La unidad parece que se monta en /mnt:
Compresión
Antes de hacerle perrerías, quiero probar una de las características que podría hacer decidirme: la compresión.
Primero voy a copiar un video susceptible de alcanzar un alto grado de compresión (es un archivo mp4 con bitrate constante y pocos cambios en la imagen) usando lz4 (la opción que viene por defecto y que, según he leído, tiene la mejor relación ratio de compresión/consumo de CPU).
El archivo mp4 ocupa 3.5GB:
El resultado es bastante espectacular (ocupa menos de la mitad) y durante la copia, el consumo de CPU más allá del demonio sshd, ha sido muy reducido.
Después de borrar el video, ahora voy a copiar la base de datos del foro (Redis) que tiene un tamaño de 1.4GB:
Aquí el ahorro es menor (un 25% aproximadamente).
Borro todo y copio 1GB de fotos JPG:
Apenas un 10% y aquí el uso de CPU sí ha sido bastante elevando.
Borro todo y copio el episodio de una serie en H.264 que ocupa 2.7GB:
Este también ha sido un proceso intenso en consumo de CPU. El ahorro es de solo un 3%.
Si se copia una imagen ISO de una distribución Linux, el ratio vuelve a ser del 3%.
Para terminar, se lo voy a poner fácil. Voy a copiar 1.5GB de logs Apache de una de las webs:
Pues nada, el archivo de 1.5GB pasa a ocupar 140MB.
Para ponerlo en perspectiva, suponiendo el peor caso posible (el vídeo con un ratio del 3%), en un sistema de archivos de 8TB, supondría un ahorro de unos 240GB. Si se ponen como ejemplo la fotos JPG, el ahorro sería de cerca de 800GB.
En mi caso, tengo claro que merece la pena la compresión, sin ningún tipo de duda. Además existen otras medida de ahorro como la "deduplicación" que hace que varias copias de un mismo archivo ocupen sólo como uno de ellos. Esto es algo que no voy a usar y no lo voy a probar, pero el concepto es sencillo.
Peta un disco duro
Al quitar un disco duro sale esto:
Cuando se añade un disco en blanco, hay que hacer clic en el icono de configuración del "pool" luego en "Status":
Ahí seleccionamos "Replace" en el disco que ha desaparecido:
Finalmente, seleccionamos la unidad en blanco que se ha introducido:
El proceso tardará un rato:
Al final es la misma historia que con OMV.
Ampliación de capacidad añadiendo un nuevo disco
Al intentar expandir el "pool", no he podido (me da un error diciendo que no hay suficientes discos). Según la documentación, no es posible añadir un sólo disco en un RAID-z sino que sólo se pueden añadir el mismo número de discos que había inicialmente, en este caso, 3 discos. Con eso, se conseguiría algo similar a un RAID5+0, que no es lo que yo estoy buscando, porque ese caso implica tener dos discos de paridad en vez de uno solo.
Es decir, que sólo se puede hacer un RAID-z equivalente a un RAID5 en la creación del "pool" pero luego ya te quedan anclado con eso.
Esto la verdad es que es una gran decepción.
Ampliación de capacidad intercambiando un disco de 8GB por uno de 12GB.
El proceso va a ser el mismo que hice con OMV: reemplazar un disco y regenerar RAID, reemplazar el siguiente, etc.
Cuando finaliza el proceso, no encuentro ninguna opción para expandir el sistema de archivos. Leyendo por ahí, dicen que debería ser un proceso automático en el momento en el que todos los discos sean del mismo tamaño, pero después de reiniciar el sistema, sigo teniendo 14GB disponibles.
Así que no sé qué hacer para que vea la nueva capacidad (unos 20GB).
Conclusiones
Ventajas de OMV: Sencillo, estándar, estable, más posibilidades de ampliación, basado en Debian.
Desventajas OMV: Simple/obsoleto (no tiene compresión ni caché).Ventajas de FreeNAS: incluye últimos avances (compresión, cifrado, protocolos de comunicaciones).
Desventajas FreeNAS: no-estándar*, menos estable, menos posibilidades de ampliación, basado en FreeBSD**.*Según he leído, FreeNAS activa características de ZFS que no están marcadas como estables. Eso tiene dos consecuencias negativas de peso: una es que la mayoría de distros no son capaces de leer las particiones ZFS creadas en FreeNAS (en caso de fallo, esto es crítico) y la otra es que se están usando caracterísiticas no tan probadas.
**Esto es una opinión personal. Por ejemplo, no sé cómo se lleva el soporte de hardware en FreeBSD (si en el futuro decido poner un Zen8, ¿va a detectar correctamente todo mi hardware? ¿va a usar las técnicas de ahorro de energía? etc, etc, etc). No me hace gracia tener mis datos en manos de un sistema que no conozco. Todo esto tiene además una serie de ramificaciones que no me gustan: ¿qué ocurre si el soporte de FreeNAS desaparece? ¿Qué ocurre si por la razón que sea, no puedo usar FreeNAS para recuperar mis datos? ¿Y si tengo que echar mano de la consola? Ni si quiera sé instalar paquetes en caso de que necesite herramientas que no vienen por defecto.
Si os digo la verdad, desde que he descubierto que no puedo ampliar el "pool" añadiendo discos (que es la forma más económica y sencilla), se me ha caído el mito. Si fuera a montar un RAID con 16 discos con vistas a que me duren 20 años, es probable que eligiera FreeNAS. Pero quiero empezar con algo básico (3 discos) e ir ampliando conforme lo vaya necesitando. Y para eso, FreeNAS me parece una mala opción.
En la próxima entrega, hablaré de la configuración de hardware. De momento, encontrar una caja que me guste está siendo complicado.
-
RE: SERVIDOR HP DL380P G8 2XE5-2680V2 2,8GHZ
@jordiqui No olvides validar el resultado. Así tenemos una referencia de ese maquinote en la base de datos y se pueden generar comparativas.
-
Gestión del archivo .htaccess
Este hilo forma parte de la guía para montar un servidor en Debian.
Recuerda que el contenido de Hardlimit está bajo licencia Creative Commons.
Procedimiento
Como root:
a2enmod rewrite nano /etc/apache2/sites-available/000-default.conf
Añadir dentro de la sección VirtualHost correspondiente una sección Directory:
<Directory "/var/www/html"> Require all granted Options Indexes FollowSymLinks MultiViews AllowOverride All </Directory>
/etc/init.d/apache2 restart
Explicación
El archivo .htaccess es un archivo de configuración de vital importancia que se aplica a cada subcarpeta de nuestro servidor. En él podemos hacer cosas como bloquear ciertas páginas, limitar el enlazado de cierto material (como imágenes) y muchos más.
Para habilitarlo, lo único que tenemos que hacer es activar el módulo rewrite, así que escribimos en consola como root:
a2enmod rewrite
Ahora debemos editar con Nano el archivo000-default.conf como root:
nano /etc/apache2/sites-available/000-default.conf
Ahí debemos crear una sección Directory dentro de una sección VirtualHost. Eso se hace copiando el siguiente texto dentro de una sección VirtualHost:
<Directory "/var/www/html"> Require all granted Options Indexes FollowSymLinks MultiViews AllowOverride All </Directory>
En el campo Directory deberemos poner la carpeta donde queremos que .htaccess funcione. Si queremos habilitar .htaccess en unas carpetas y deshabilitarlo en otras, podemos usar un esquema como el siguiente:
<Directory "/var/www/html"> AllowOverride None </Directory> <Directory "/var/www/html/wordpress"> Require all granted Options Indexes FollowSymLinks MultiViews AllowOverride All </Directory>
Una configuración funcional quedaría así:
De esta forma, .htaccess funcionará en /var/www/html/wordpress pero no en /var/www/html.
Cada sección Directory es independiente y puede haber tantas como necesitemos en una sección VirtualHost.
Por último reiniciamos el servidor Apache con:
/etc/init.d/apache2 restart
-
RE: Ssd muerto como cargo el s.o
@Clipper Suponiendo que la cuarta y quinta lineas son preguntas:
Lo del ratón seguramente se deba a que lo tienes conectado en el bus USB 3.x. Para que funcione, o bien lo tienes que conectar a uno 2.0 o bien desactivas el 3.x desde la BIOS (cada BIOS tiene su nombre para hacer esto).
Sobre DVD vs Pendrive, ya es una cuestión de gustos. A mi me gusta más el USB porque es reutilizable. Hace años que no uso discos ópticos en mi PC principal, la verdad. Aunque también es verdad que el DVD es menos susceptible de dar problemas en estos casos.
Y sobre la tarjeta SD, no debería haber problemas. Nunca he arrancado desde una de ellas, pero la mecánica debería ser la misma que arrancar desde un pendrive. Buscando por ahí, parece que se puede grabar usando una herramienta llamada woeusb (si no viene por defecto en Ubuntu, la tendrás que instalar):
sudo woeusb --device carpeta/windows-10-image.iso /dev/sdX
También se puede usar dd, pero el proceso es bastante más complejo.
-
RE: Ssd muerto como cargo el s.o
Si he entendido bien, ¿de repente la placa base no detecta tu unidad SSD y tienes problemas para instalar Windows en un disco mecánico?
Antes de nada, activa en la BIOS el modo IDE/Legacy o como se llame para el disco duro (debería haber al menos dos modos: IDE o AHCI). Si sigue sin funcionar la instalación de Windows 7 en el disco mecánico y quieres darle el intento a Linux, tienes que descargarte una imagen actualizada.
Es normal que una versión tan antigua de Ubuntu no detecte tu tarjeta de red. Si lo único que tienes a mano para bajar cosas es una Raspberry Pi, bájate una versión reciente cerrando el entorno de escritorio. Cuando esté en modo consola, bájate la imagen y cópiala en un pendrive para arrancar desde ahí:
wget http://releases.ubuntu.com/19.10/ubuntu-19.10-desktop-amd64.iso sudo dd if=/carpeta/ubuntu-19.10-desktop-amd64.iso of=/dev/sdX bs=1M
La X tiene que corresponder con la letra de unidad de tu pincho USB. Si no sabes cual es, ejecuta
df
Asegúrate de que la letra es la correcta. Si te equivocas, te quedarás también sin RPi.
-
RE: Projeto que precisa rodar windows no raspberry pi3B
@alberto-brasil Nunca he usado el administrador de máquinas de Qemu; siempre lo he hecho por consola. Mi consejo es que copies la imagen iso desde el pendrive al escritorio o cualquier otra carpeta local de Ubuntu Mate en Raspberry Pi.
El mensaje de error que recibes se debe a que Qemu está intentando arrancar desde un disco que no es arrancable (probablemente un disco duro virtual virgen). Así que tienes que configurar la máquina virtual como para que arranque desde la ISO. He instalado virt-manager (la GUI que usan en el video que has puesto) y trastendo un poco, parece que para añadir la ISO tienes que hacer esto:
· Cuando inicies el gestor, haz clic en el asistente para crear una nueva máquina.
· Ahí eliges la primera opción: instalar con imagen ISO y eliges el archivo que has copiado al directorio local.
Continuar con todos los parámetros que te pide: memoria RAM (no pondría más de 768Mb), CPUs (no más de 3), una unidad de disco virtual (de tamaño no superior al espacio disponible en la tarjeta SD)...
Al arrancar seguramente te ha salido esto:
Haciendo clic en el icono de información sobre el hardware virtual, debes asegurarte de que la unidad de CDROM está habilitada y que tiene la máxima prioridad en el arranque:
Sobre todo, asegúrate de que has elegido el archivo ISO y no una unidad física ya sea el pendrive o la tarjeta SD.
-
RE: Projeto que precisa rodar windows no raspberry pi3B
@alberto-brasil dijo en Projeto que precisa rodar windows no raspberry pi3B:
Muchas gracias por tu respuesta
Estoy tratando de instalar a través del Exagear desktop junto con Wine que me han dicho que funciona muy bien pero me no entiendo los comandos que se necesita escribir.
No os quiero dar mucho trabajo sería posible enviarme un paso a paso de cómo instalar windows en esos emuladores?
Estoy muy agradecido por tu atención,
¡Gracias amigo!Ok, ese es un tema diferente. En la guía de Raspi también hay un apartado dedicado a Exagear (apartado 6); ahí tienes una explicación detallada de los comandos que necesitas. Además, el año pasado hicimos por aquí un análisis de Exagear 2 donde puedes ver más ejemplos.
En resumidas cuentas, Exagear no es un emulador como Qemu en que se virtualiza una máquina completa sino que ofrece una consola x86. Es decir, Exagear te permite ejecutar programas x86 para Linux en una Raspberry Pi con un rendimiento bastante decente. Pero NO puedes instalar Windows. Para usar programas para Windows tienes que seguir el mismo procedimiento que en Linux para PC: hay que instalar Wine.
Básicamente, una vez que has ejecutas Exagear, el procedimiento a seguir es el mismo que si estás ante un PC con Linux. Lo que hace es convertir la Raspberry Pi en un PC x86 (con Linux).
En el siguiente video puedes ver un ejemplo de la ejecución de Counter-Strike en una Raspberry Pi (insisto en que dentro de la guía y el análisis que te he enlazado ha más ejemplos incluyendo procedimientos, comandos, etc):
-
Navegadores echando un trago de RAM
En Reddit he visto publicada esta animación donde se pueden ver imágenes REALES de cómo beben RAM los distintos navegadores web:
Inquietante...
-
RE: Información & anuncios
@Fassou Gracias hombre, es un placer (cuando las cosas salen a la primera o la segunda lo más).
-
RE: Información & anuncios
La idea inicial estaba clara: instalar Debian, instalar la paquetería, mover ciertos datos de un sitio a otro, instalar los distintos componentes y a volar. En un par de horas debería estar listo. No es la primera vez que lo hago y no debería haber demasiadas dificultades. La realidad: hoy soy 20 años más viejo que la semana pasada.
Algunas cosas han salido a la primera:
Las páginas de la casa (portada, banco de pruebas y museo) no parecen tener grandes incompatibilidades con la nueva PHP 8.2 (tan solo ha sido necesario un pequeño cambio en la portada): aquí todavía habrá que hacer una comprobación más exhaustiva. Además, la gente de Nodebb no ha hecho cambios mayores en la API del foro por lo que todos los componentes se han seguido comunicando con el sistema de registros sin necesidad de cambios.
Sobre el foro junto con su base de datos, ha sido coser y cantar. Aquí la única cuestión es que sí que ha habido una gran cantidad de cambios en la maquetación de las páginas, por lo que el CSS ha quedado parcialmente obsoleto. Lo he ido retocando, aunque quedan todavía detalles por pulir. Hay una gran cantidad de novedades estéticas y, desde mi punto de vista, la versión móvil ha ganado bastante enteros. Todavía falta por resolver un problemilla de permisos que está teniendo el venerable equipo de moderadores que espero que no sea gran cosa.
Por otra parte, es la primera vez en muchos años que usamos la versión oficial de Debian de Redis, lo cual, desde el punto de vista del mantenimiento, es un gran avance. Enorme avance. Estoy muy contento con esto.
Y hasta aquí lo bonito. El resto ha sido una bajada a los infiernos:
· Muchos blogs no son compatibles con PHP 8.2, por lo que tendré que hacer una actualización manual para cada uno de ellos. No debería ser gran cosa, pero hay que hacerlo. Esto me lo voy a tomar con tranquilidad.
· Uno de los cambios en la organización de los directorios ha consistido en mover todo el contenido "pequeño" (miniaturas, plugins...) de la instancia de Peertube a una unidad SSD para descargar de transacciones al NAS (estaba ya muy petado). Tenía por aquí una flamante unidad SSD casi a estrenar pero, ¡ohh, casualidades de la vida!, es incompatible con la controladora de disco. La enchufas y funciona. Al cabo de las horas, Linux empieza a informar de errores E/S con el ATA. Reinicias y la BIOS deja de detectarla. Si apagas el ordenador y lo enciendes, vuelve a funcionar. He probado con varios cables y con varios conectores SATA pero no, es el maldito disco (que, por cierto, funciona perfectamente en otro equipo). He tenido que echar mano de una no tan nueva unidad SSD (aunque se encuentra en buen estado de salud).
· En Peertube supuestamente se pueden configurar individualmente los directorios de cada tipo de elemento: temporales, videos, miniaturas, etc. Lo he configurado para repartirlo entre el NAS y la SSD y aparentemente todo funcionaba salvo que desde Internet, no se podía acceder al contenido del NAS. ¿Por qué? Pues porque el CMS usa un puente en Nginx para acceder directamente a los datos definiendo algo llamado 'root'. El problema es que sólo puede haber un 'root'. Entonces, ¿cuál eliges: el NAS o el SSD? Pues después de unas cuantas vueltas, he elegido el SSD creando enlaces simbólicos a las carpetas del NAS. Es una opción poco limpia, pero es la única opción que he encontrado.
Bueno, hasta aquí han pasado 9 horas, todavía queda por poner a funcionar Mastodon (¡jaja! que alguien me sacrifique, por favor) y empiezo a cuestionarme algunas decisiones. Lo dejo para el día siguiente porque todos los primeros domingos de cada mes, el NAS hace una comprobación de la matriz y eso hace que todo vaya muy lento durante unas horas.
· ¡Mastodon! Esto son ya palabras mayores. Tanto, que lo voy a dividir en párrafos:
Mastodon estaba alojado en el disco de sistema. Pero el contenido ocupa bastante y la única forma de que sea sostenible a largo plazo es moverlo al NAS. La operación es sencilla: conectar el antiguo disco y copiar al NAS los datos. Los datos ocupan unos 240GB (no es excesivo), están repartidos en unos 800.000 archivos (es normal porque son imágenes, sus miniaturas y videos cortos) y todo esto está repartido en (¡atención!) dos millones y medio de carpetas. Cualquier persona normal se preguntaría ¿por qué son necesarias millones de carpetas para almacenar cientos de miles de archivos?
Esta forma de repartir los datos me ha hecho darme cuenta de lo brutalmente lento que es crear dos millones y medio de carpetas en discos mecánicos. Es increíblemente lento; nunca lo hubiera imaginado. En principio, copiar 240GB al NAS debería haber tardado en torno a una hora. Hacer esta copia ha llevado 14 horas. 14 horas más que ha estado la instancia caída.
Una vez que los archivos están copiados, llega la hora de instalar el CMS. Las instrucciones oficiales están mal. Dicen que hace falta Ruby 3.0.6. Instalo esa versión y llegado a cierto punto, da error. Intento la instalación varias veces más por si me he saltado algo hasta que me da por analizar minuciosamente los logs (sí, esto ha sido culpa mía por no haberlo hecho antes). Resulta que la última versión de Mastodon usa Ruby 3.2.2.
Todo empieza a ir bien hasta que se pone a compilar. Pienso que quizás he cometido otro error y empiezo la instalación otro par de veces con el mismo resultado. A estas alturas, he instalado Mastodon 8 veces. ¡Ocho! Empiezo a pensar que la carencia de ciertas capacidades cognitivas podrían estar impidiendo llevar a cabo esta tarea. Entonces me encuentro a un tipo en Reddit que dice que lleva ya 12 instalaciones. ¡Eh, mirad qué pringao, DOCE veces, JA! -le grito a la pantalla, sintiendo cómo mi orgullo se recompone parcialmente.
Pasados unos minutos, recupero mi frágil equilibrio mental y me da por consultar la solución que algún fulano le ha dado a este pobre desgraciado. Resulta que estoy usando una versión demasiado reciente de NodeJS. La versión que estoy usando es la 18 LTS que salió en abril de 2022. ¿Cómo es posible que la última versión de Mastodon, que salió hace dos semanas, no sea compatible con un NodeJS que lleva un año y medio existiendo? Venga, que alguien responda, ¿algún filósofo en la sala?
Dejando de lado las cuestiones humanistas, miro qué versión necesita Mastodon para funcionar: la versión 16 ni más ni menos. Una versión que lleva sin soporte desde el 11 de septiembre. Sí, señores: la mayoría de instancias de Mastodon que hay levantadas están usando un componente crítico sin soporte. ¿Qué os parece? ¿Dónde están esos filósofos, por favor?
Total, que encuentro una chapuza que permite compilar Mastodon con NodeJS 18, funciona y ya: restauro la base de datos, la migro a la nueva versión, actualizo los feeds y a funcionar. NOTA: Este último párrafo ha sido adaptado a un público infantil. Durante el procedimiento, se ha cometido un delito continuado de blasfemia, pero esta vez debido a mi propia ineptitud.
Y ya ascendiendo de las profundidades de la locura, me he dado cuenta de algo interesante y es que Docker se ha convertido en el estándar de facto. De hecho, empieza a ser complicado encontrar documentación para hacer ciertas cosas "a pelo". Y seguramente, algunas de las dificultades han surgido de ese cambio de paradigma. Así que para la próxima vez, voy a tener que formarme sobre esto porque ya es el presente y además parece una forma increíblemente cómoda de instalar cosas. Espero que sea con Debian 14.
En fin, vaya tocho. Pero ¿y lo a gusto que me he quedado?
PD: Como de costumbre, si veis algo raro, no dudéis en comentarlo.