Broadcom BCM57800: Mola, salvo cuando se la pega

El chip BCM57800 es uno de los que, en el kernel de Linux, van gestionados por el controlador bnx2x. También es el que lleva una de las tarjetas rNDC de Dell para los r630 más populares, con 2 SFP+ y 2 «cobres» de 1G.

Estas tarjetas con BCM57[0-9][0-9][0-9]* «Everest» son uno de esos productos con una historia meandrosa. Los chips fueron diseñados por Broadcom, que los anunció en Diciembre de 2010, y en poco tiempo usados por Brocade en varios productos. En 2014, QLogic compró a Brocade el negocio de Fibre Channel y adaptadores de red, incluyendo tarjetas que usaban estos chips, cuyo controlador pasó a mantener como atestigua el .h del bnx2x. En Junio de 2016, QLogic fue adquirida por Cavium, que a su vez fue adquirida por Marvell. Por su parte, Brocade fue comprada por Broadcom en 2016. Las tarjetas con chips BCM57 eran de Cavium cuando Dell los empezó a utilizar, y de hecho algunos documentos técnicos en la web de Dell llevan la marca de Cavium.

Toda esta historia implica curiosidades como que en el código fuente, el copyright de Broadcom es anterior al de Qlogic.

Con toda esta florida historia de adquisiciones y pases, no es de extrañar que el bnx2x y sus hermanos hayan pasado por tantas manos que la calidad, al final, se haya resentido. Y esto es lo que parece haber ocurrido para que en algunas versiones, cuando reciben un poco de caña (digamos, una migración masiva de contenedores en un cluster de Proxmox), la red se caiga con todo el equipo:

May 30 20:35:20 hv149 kernel: [ 1272.998710] RAX: 0000000000000000 RBX: 0000000000000004 RCX: 0000000000000006
May 30 20:35:20 hv149 kernel: [ 1273.021980] call_timer_fn+0x32/0x130
May 30 20:35:20 hv149 kernel: [ 1273.052021] RDX: 0000012862241f85 RSI: 0000000037a6f674 RDI: 0000000000000000
May 30 20:35:20 hv149 kernel: [ 1273.075905] ---[ end trace 179564100f322278 ]---
May 30 20:35:20 hv149 kernel: [ 1273.099027] bnx2x: [bnx2x_panic_dump:1021(eno1)] indexes (0x0 0xe97e 0x0 0x0 0x0 0x186d 0x0 0x0)pf_id(0x0) vf_id(0xff) vf_valid(0x0) vnic_id(0x0) same_igu_sb_1b(0x1) state(0x1)
May 30 20:35:20 hv149 kernel: [ 1273.158754] INDEX[6] flags (0x3) timeout (0xc)
May 30 20:35:20 hv149 kernel: [ 1273.218986] bnx2x: [bnx2x_panic_dump:1015(eno1)] run indexes (0x7d14 0x0)
May 30 20:35:20 hv149 kernel: [ 1273.334124] bnx2x: [bnx2x_panic_dump:1004(eno1)]fp6: tx_pkt_prod(0x0) tx_pkt_cons(0x0) tx_bd_prod(0x0) tx_bd_cons(0x0) *tx_cons_sb(0x0)
May 30 20:35:20 hv149 kernel: [ 1273.365957] bnx2x: [bnx2x_panic_dump:1004(eno1)]fp7: tx_pkt_prod(0x0) tx_pkt_cons(0x0) tx_bd_prod(0x0) tx_bd_cons(0x0) *tx_cons_sb(0x0)
May 30 20:35:20 hv149 kernel: [ 1273.374863] SM[1] __flags (0x0) igu_sb_id (0x9) igu_seg_id(0x0) time_to_expire (0x4ad6f466) timer_value(0xff)
May 30 20:35:20 hv149 kernel: [ 1273.377750] INDEX[1] flags (0x2) timeout (0x6)
May 30 20:35:20 hv149 kernel: [ 1273.440571] bnx2x: [bnx2x_mc_assert:736(eno1)]XSTORM_ASSERT_INDEX 0x12 = 0x0002ef76 0x00000000 0x0400000d 0x000200

El caso es que esto no le hace mucha gracia a los contenedores ni, en cascada, a los cientos de servicios que hay en ellos corriendo; por lo que parece conveniente investigar un poco el problema.

El bnx2x sigue recibiendo un activo mantenimiento, y no pasa un mes sin que reciba una actualización. El comportamiento problemático ha sido observado en los kernel 5.4.78 (Noviembre de 2020) y 5.4.189 (Abril de 2022). Pero la rama 5.4, incluso en este último kernel, a pesar de su reciente factura, sigue llevando una versión de bnx2x fechada en 2014, y bnx2x ha recibido importantes actualizaciones en todas las versiones principales desde entonces. De hecho, ha dejado de tener su propio número de versión; su código fuente está en github, en el repo del bueno de Linus, desde hace más de diez años; si bien parece que le ha costado una temporada de su tortuosa historia armonizarse completamente.

Pero a día de hoy, las actualizaciones van siendo cada vez más tranquilas y de mantenimiento progresivo. En la rama 5.15, que en el momento de escribir este artículo es la más actual de mantenimiento «longterm», ha recibido actualizaciones en media docena de versiones. De todas, solamente llama la atención que en la 5.15.38, «While handling PCI errors (AER flow) driver tries to disable NAPI [napi_disable()] after NAPI is deleted [__netif_napi_del()] which causes unexpected system hang/crash.» Que es una bonita forma de decir que vaya, que fíjate, que el sistema entero se la puede pegar en cualquier momento; pero solamente después de que ya haya habido un error de PCI, es decir, que es un caso bastante raro. Todo lo demás son cosas del estilo de «Fix unused-function warning«, reorganizaciones, limpieza y usar las características más modernas del kernel.

TL;DR: No es de esperar que esto se la pegue tras actualizar a Proxmox 7.2, que lleva el kernel 5.15.35. Siguiente problema.

ConnectX4 LX: Molan, hasta que se atascan

nVidia (nacida Mellanox) dice en sus notas de actualización de firmware que es un «rare case». Pero a todos nos mira un tuerto de vez en cuando, y ese día no fue de extrañar que un Dell r630 dejara de ver sus dos puertos SFP28 (en la tarjeta rNDC, pero esto es irrelevante; es PCIe, al fin y al cabo).

En lugar de los SFP28, nos gratificó con un arranque bastante lento y un críptico error en syslog:

mlx5_core 0000:01:00.0: mlx5_function_setup:995:(pid 252450): Firmware over 120000 MS in pre-initializing state, aborting
mlx5_core 0000:01:00.0: probe_one:1484:(pid 252450): mlx5_init_one failed with error code -16

Los dispositivos, en consecuencia, no aparecieron en el sistema operativo, convirtiendo este servidor en un nada práctico pisapapeles.

¿Y qué es lo que pasaba? Una bonita tarde de domingo escarbando (con el dueño del servidor cerca de un desfibrilador), reveló esta perla en las notas de versión del firmware:

- Fixed a rare case where the the device hanged while running the sw reset flow under heavy stress and with many open resources.

Bueno, no era mucho, pero tras haber rearrancado mil veces el servidor y hasta haberlo apagado y encendido, no quedaba mucho más que pudiera ser. Bien fuera este caso o un primo hermano, suele merecer la pena actualizar el firmware de los diferentes subsistemas: El mantenimiento de firmware suele consistir casi siempre en correcciones de errores, siendo la introducción de errores nuevos relativamente infrecuente.

Con Dell hemos topado

En general, Dell hace las cosas bastante bien y el Open Manage Enterprise, que permite actualizar firmwares sin dolor y masivamente, por sus muchos defectos, es una herramienta de lo más útil. Si el servidor en cuestión está integrado, claro. Lo cual no era este caso porque es un servidor de un cliente; y, para añadir insulto a la ofensa, ni la iDRAC, ni el lifecycle controller local veían posible actualizar el firmware. Decían que ese dispositivo no está en el sistema. Lo sabrán ellos.

Total.

  • Descargar las herramientas de gestión de firmware de nVidia;
  • Descargar el firmware de Dell para la tarjeta en cuestión;
  • Desempaquetar el firmware del putrefacto .EXE que suministra Dell (unzip es suficiente).
  • Averiguar gracias a lspci -vv cuál de los tres firmwares sin más explicación es el correcto para la tarjeta rNDC (lspci da el nombre de la pieza, que forma parte del nombre del archivo de uno de los tres .bin que el paquete de Dell incluye en payload/). Como para unas prisas:
# lspci -vv | grep PN
        [PN] Part number: 0R887V
        [PN] Part number: 0R887V
# ls networkfirmware900n0/payload/ | grep 0R887V
fw-ConnectX4Lx-rel-14_31_1014-0R887V-UEFI-14.24.13-FlexBoot-3.6.403.bin
  • Quemar
# flint -d 01:00.0 -i networkfirmware900n0/payload/fw-ConnectX4Lx-rel-14_31_1014-0R887V-UEFI-14.24.13-FlexBoot-3.6.403.bin b
  • Rearrancar el firmware
# mlxfwreset -d 01:00.0 reset

Y listo, a funcionar. Rearrancamos y actualizamos todo, ya que estamos, hacemos un bonito artículo por si alguien se ve en las mismas, y nos acabamos el café.

Nexus: Molan, hasta que se convierten en ladrillos al actualizarlos

Era un día normal para un venerable y fiable Nexus 3000, concretamente un 3064 que corría NX-OS 6.0(2)U6(6) tras una pequeña actualización sin novedad y sin hacer más que conmutar paquetes a nivel 2.

Había llegado para él el día de actualizar. Se había decidido que iba a empezar a terminar vLANes, es decir, a nivel 3; lo cual requiere ponerle direcciones IP públicas, y las versiones 6 tienen algunos feos fallos de seguridad. Por supuesto que a base de ACLs y/o cortafuegos es posible aislar lo bastante las IPs públicas de un gateway. Pero ya hace muchos años que Rommel popularizó la defensa en profundidad, y en redes es más que aplicable lo que tanto sufrimiento costó entender a los militares.

El concienzudo proceso de actualización de los Nexus requiere, en este momento, pasar por varias versiones intermedias partiendo de la 6 hasta llegar a la deseada, la 9.3.8 en el día de actos. Así que, armados con la paciencia nacida de la experiencia, mandamos la 7.0.3.I7.9. Runtime checks, boot variables, configuration copy y todo lo habitual hasta llegar a

Finishing the upgrade, switch will reboot in 10 seconds.

Fue lo último que dijo.

Mosqueados tras un ratito, consola en ristre, desenchufado de la corriente y vuelto a enchufar, nos informa por la consola:

(c) Copyright 2011, Cisco Systems.
N3000 BIOS v.4.5.0, Thu 11/09/2017, 05:38 PM

Y nada más. Ni boot loader, ni pulse Del… Nada.

Colgado.

Vaya, qué inconveniente.

Así que vamos a ver qué se hace en estos casos. Buscando por Internet no encontré nada de nada, así que escribí en los foros de Cisco. Las respuestas no pudieron ser más descorazonadoras: Una vez se aseguraron de que lo habitual no iba a funcionar, solo quedó como posibilidad abrir un caso con el TAC de Cisco y probablemente cambiarlo.

Pero estos switches ya otoñales no suelen tener un SmartNet activo, y Cisco ya no hace caso de nadie sin ello. Así que, mientras uno buscaba (con poco éxito) si aún se venden SmartNets para este modelo, el otro fue a desmontar el equipo, convencidos de que la cosa iba para largo. Tal vez, razonamos, haya alguna forma de fulminar la memoria flash y obligarle a irse al boot loader; o de hacerle arrancar de alguna manera.

Foto del módulo eUSB
Módulo eUSB fabricado por Viking Technology

Pues sí. Y más fácil que lo que nos temíamos.

El almacenamiento en estos equipos es una memoria flash USB. Es una versión un poco especial de USB, pensada para entornos industriales y para montarse de placa a placa, pero es USB al fin y al cabo. Está sujeta con un tornillo a la placa base y lleva un conector estilo DB9 miniaturizado (tal vez un Hirose DF9).

Bueno, pensó alguien. ¿Y si arranco el equipo sin la flash?

Dicho y hecho:

Press ctrl L to go to loader prompt in 2 secs

loader>

¡Tenemos boot loader! Desde aquí, ya todo es un paseo: Con el boot loader, se le puede arrancar por tftp o por un pincho USB. Esto último, con el equipo sin red fuera de la mesa, parece lo más inmediato…

loader> boot usb1:nxos.7.0.3.I7.9.bin

Pero, parafraseando al androide chungo de Blade Runner, el dios de la mecánica no se había terminado de ciscar en nosotros aún, y al equipo en cuestión no le daba la gana de arrancar desde el puerto USB.

Vaya.

Lo siguiente.

¿Y si, dado que se puede desmontar este módulo, probamos con el de otro equipo parecido?

Dicho y hecho, en menos de lo que se tarda en leerlo estábamos quitando los aproximadamente 150.000 tornillos Phillips del 1 de una aleación similar a la plastilina que sujetan la tapa del segundo equipo y cambiando su módulo al enfermito.

Y arrancó. Sin más. Bueno, es lo que esperábamos, ¿no?

Lo que no esperábamos es que el módulo del switch enfermo… Hiciera arrancar al «donante». Pero había que rendirse a la evidencia, evidencia presentada en nuestro terminal con un lacónico

%ASCII-CFG-2-CONF_CONTROL: System ready

Pofale.

Desde aquí, actualizar con mucho cuidadito nuevamente y a correr.

Mola la informática. Aunque a veces… Felix qui potuit rerum cognoscere causas. Aunque, en el caso que nos ocupa, nada más actualizar y en el siguiente arranque, pasó casi desapercibido un mensaje que decía algo así como: «Vaya, el firmware eUSB necesita actualizarse. Voy para allá… Hecho, sigamos con lo nuestro».

Vaya.

megacli: Mola, relativamente

Megacli sirve para todo, y no hay nada en un chip RAID de LSI/Avago/Comesellamenhoy que no pueda configurar. Esas son las buenas noticias.

Las regulares… Pues son chips complicadillos y por tanto la línea de comandos de megacli, tiene su complejidad. Incluso antes de que a alguien se le ocurrieran esas graciosas abreviaturas.

El ejercicio de hoy era sacar unos discos de una venerable 2108 de un Supermicro otoñal, y meterlos en un Dell r620 con su H310.

Al meterlos, hacen blip-blip y todo parece ir bien, pero… No aparecen por ninguna parte en /dev/pordondesemire.

Megacli sí los ve, o mejor dicho, su primo megaclisas-status: Unconfigured(good). No parece mala señal.

Bueno, pues solo hay que cambiarlos a JBOD para poder dárselos a Ceph, ZFS o a cualquier otra cosa con o sin Z, ¿no?.

No…

megacli -PDMakeJBOD -PhysDrv[32:6] -aALL
Adapter: 0: Failed to change PD state at EnclId-32 SlotId-6.

Vaya. Que no se puede. Aguanta y tira.

¿Y por qué no se puede? Je. Porque vienen con la meadit… Quiero decir, con la firma del RAID precedente. Podrían tener el detalle de decirlo, pero vaya, no, no lo tienen. Bueno.

¿Y tiene solución? Claro. La artesanal, que es meter el disco en alguna parte que no sepa nada de RAIDs y ciscarse la firma, por ejemplo con un dd; o la megacli, que ya que estamos…

root@lab.tecnocratica ~ # megacli -CfgForeign -Scan -a0

There are 1 foreign configuration(s) on controller 0.

Pues al carajo con ella, ¿no?

root@lab.tecnocratica ~ # megacli -CfgForeign -Clear -a0

Foreign configuration 0 is cleared on controller 0.

Pues a la carga de nuevo:

root@lab.tecnocratica ~ # megacli -PDMakeJBOD -PhysDrv[32:6] -a0

Adapter: 0: EnclId-32 SlotId-6 state changed to JBOD.

Pues como siempre, tras un rato de rompimiento de cabeza, eso era todo. La verdad es que estaría bien que si alguien busca por «controladora perc o raid de dell o de supermicro o de quien carajo sea no ve discos que vienen de otra controladora» encontrase esta receta, que le haría ahorrar algo de tiempo. Se intentará…

ix0: Unsupported SFP+ module detected!

Ya el año pasado, me tocó lidiar con la estúpida decisión de Intel de que sus chips de 10G no funcionan con los SFP que no entran en la corta lista de los que tienen probados.

La historia se repite, y esta vez ha sido un venerable FreeNAS 11.1 en un nuevo armario y con nuevos y flamantes cables AOC el que lleva el controlador de Intel que ha decidido, vaya hombre, que los AOC no son lo bastante flamantes; que si eso, que compre otros.

Uno no tiene tiempo ni ganas de dejarse llevar por las veleidades de una empresa que tiene gente trabajando en puestos que llevan a la vez la palabra technical y la palabra marketing (pobrecicos).

Usando la clásica técnica de poner en un buscador el mensaje de error que sale en dmesg y que da título a este artículo, en seguida se llega a algún ticket del redmine de IXsystems / FreeNAS; no en vano es uno de los mayores distribuidores de FreeBSD del momento.

El caso es que, como suele suceder, las cosas no pueden ser tan fáciles.

¿Es cierto que añadir a /boot/loader.conf las palabras mágicas:

hw.ix.unsupported_sfp=1

resuelve el problema? Si.

Pero no es menos cierto que en la versión 11.1, no. Vamos, lo ignora completamente en la versión que va en el kernel de la 11.1.

Así que, usando la clásica y probada por la experiencia técnica de la huida hacia delante, me bajé la ISO de la última estable de FreeNAS y le hice una actualización in situ. Las actualizaciones de FreeNAS son una gozada, si bien hacerlas sobre uno de esos KVM viejos de Supermicro no son la mejor experiencia del mundo. Pero en una máquina virtual Windows bien añeja (de Windows 7 para atrás) funcionan, así que no me voy a quejar demasiado. Total, hace años que por estas cosillas dejé de comprar Supermicro y pasé a comprar Dell.

Una vez hecha la actualización, arrancado el sistema nuevo, ya todo…

…Una mierda. Resulta que la actualización instala su propio /boot/loader.conf. Bueno, no pasa nada: Otra vez KVM basado en Java y volver a añadir hw.ix.unsupported_sfp=1 al final del ficherito.

Y esta vez sí, por fin, quejándose como un abuelo hablando de política en el bar del pueblo, por fin levantó los puertos de 10G. Y el resto, como se suele decir… Es historia.

Los switches HP 7900 y sus rutas inactivas

No molan mucho, la verdad.

Los HP 7900 y sus compañeros de gama pelo arriba, pelo abajo, corren Comware. Comware es un sistema operativo que HP compró en el paquete de 3Com en 2010. Había sido diseñado por H3C, en la que 3Com participaba junto con Huawei y de la que compró a su socio su parte en 2007. Esto es el motivo por el que los switches HP y los Huawei hablan el mismo idioma.

Recientemente, nos encontramos un caso en que se había instalado un par de switches HP7900 en cluster para un proveedor de servicios de alojamiento, perdón, de cloud. En seguida se hizo evidente que una de las primeras necesidades, desde un punto de vista de diseño de red, era una frontera nueva: Los HP solamente tienen memoria para 32.768 rutas aprendidas por BGP, mas alguna (unas pocas) «extra». En el momento de escribir este artículo, la Tabla va por encima de las 800.000, y subiendo. Evidentemente, no podían hacer ni un atisbo de balanceo de tráfico, y olvidémonos de puntos neutros o cualquier otro refinamiento.

Lo interesante que observé en Comware es que, cuando se le acaba la memoria para rutas, no tira la sesión de BGP que le ha llenado la memoria, como hacen los Cisco (y con ello agravando el problema); simplemente, está llena, pues está llena: Ya no se instalan más rutas.

Pero no se instalan, no se instalan: Si con la memoria llena se añade una IP a un interface, ese interface no funciona a nivel 3 porque no tiene memoria ni para la ruta conectada.

¿Solución que le daban localmente a este problema? Reiniciar el bicho. ¿Por qué si se reinicia ya funciona el nuevo interface? Fácil: Las conectadas llegan antes a la tabla que las aprendidas por BGP, que han de esperar a que la sesión se establezca. Pero claro: Toda la red sin conectividad ninguna mientras dura el rearranque. Ole.

En fin. Una pareja de Mikrotiks resolvió muy lindamente una frontera nueva. A día de hoy, la propuesta de Mikrotik no es una panacea: Seguimos esperando una implantación de BGP mejor, y sería deseable que la estabilidad mejorase un pelo. Pero funcionan en general bastante bien, conmutan tráfico como campeones, tienen IPFix (algo casi imprescindible en nuestros días), y el precio es imbatible.

Recuperando datos a lo bruto

Recuperar datos es una de esas actividades que consisten en un largo periodo de marrón, coronado (a veces) por un momento de euforia.

Vamos a correr un tupido velo sobre la historia que llevó al punto de partida de nuestro marrón de hoy. Describamos, simplemente, dicho punto de partida: Hay un contenedor OpenVZ corriendo en un servidor, en el cual «se» (¿no son utilísimos los reflexivos en las empresas?) ha hecho un DROP DATABASE seguido del nombre de una base de datos. Base de datos de la que no solamente no hay copia de los datos; sino que, puestos a giñarla, tampoco la hay de la estructura.

Así a primera vista, después de los preceptivos frontomanotazos y pelotiramientos, quedaron dos cosas claras:

  1. Para recuperar una tabla MyISAM (las InnoDB son otra historia), se necesitan al menos su .frm (estructura) y .MYD (datos propiamente dichos). Si solo se tienen los datos, ahí están, pero usarlos es un trabajo más bien de chinos.
  2. Cuanto más tiempo pase y más se escriba en el volumen afectado, mucho peor.

El primer intento, que tenía posibilidades de no haber pasado ya unas horas en un hipervisor un tanto activo, fue con ext4magic. Tiene su cosa, el asunto. Si el servidor se puede parar, es más fácil. Si no, hay que trabajar haciendo una copia del journal del sistema de ficheros, en este caso un ext4:

debugfs -R "dump <8> /root/copiadeljournal" /dev/mapper/pve-data

En este caso, almacenamos la copia del journal en /root, y el sistema de ficheros conteniendo lo que deseamos recuperar está en /dev/mapper/pve-data. Un Proxmox, como habrá adivinado ya el lector avezado.

Luego, burguesamente, podemos pedir a ext4magic que nos recupere todo lo del directorio en cuestión:

./ext4magic /dev/mapper/pve-data -j /root/copiadeljournal -f private/666/var/lib/mysql/pordiosmibasededatos -a $(date -d "-5day" +%s) -b $(date -d +%s) -R

En este caso, «666» es el identificador del contenedor. No es coincidencia; es que uno es así de paranoico filtrando lo que publica.

Pero claro… Si ha pasado tiempo, dependiendo de exactamente lo que se le pida, dice que el inodo ya está siendo reutilizado, o que simplemente aquello ya no ta.

Otro intento fue con testdisk. Testdisk es un gran invento, pero en este caso hubo el mismo problema: Había pasado demasiado tiempo. Mejor dicho: Demasiadas escrituras.

¿Qué hacer, qué hacer? El datario amenazaba alternativamente con suicidarse y con homicidar al causante del desaguisado; se seguían sucediendo el tiempo y las escrituras, y no estábamos más cerca de una solución que al principio.

Llamé a mi escriptillo, un tanto gráficamente, aladesesperada.sh. Era este:

#!/bin/bash

Bloque=0
 while [ $Bloque -le 157313 ]
 do
      echo " $Bloque "
      dd if=/dev/mapper/pve-data of=/root/tmp-$Bloque bs=10M skip=$Bloque count=1 status=noxfer > /dev/null
      grep -q 'cadenapeculiarquetepasas' /root/tmp-$Bloque
      if [ $? -eq 0 ]; then
     echo Encontrado algo
      else
     rm /root/tmp-$Bloque
      fi
      Bloque=$[$Bloque +1]
 done

No me darán un premio a la elegancia, pero esto es como funciona. El numerete es simplemente el tamaño de la partición donde estamos recuperando los datos expresada en cachos de 10 megas. Luego, simplemente vamos cogiendo cachitos de 10 megas en 10 megas y, si algún cachito contiene una cadena que sabemos que está en la base de datos, la conservamos. Si no, la borramos.

Luego hice una pequeña reforma que multiplicó por varias veces la velocidad de ejecución, usando un tmpfs:

mount -t tmpfs -o size=20m tmpfs /root/tmp

Y correspondientemente:

#!/bin/bash

Bloque=0
 while [ $Bloque -le 157313 ]
 do
      echo " $Bloque "
      dd if=/dev/mapper/pve-data of=/root/tmp/tmp-$Bloque bs=10M skip=$Bloque count=1 status=noxfer > /dev/null
      grep -q 'cadenapeculiarquetepasas' /root/tmp/tmp-$Bloque
      if [ $? -eq 0 ]; then
      mv /root/tmp/tmp-$Bloque /root/encontrado-$Bloque
      else
     rm /root/tmp/tmp-$Bloque
      fi
      Bloque=$[$Bloque +1]
 done

Con esto, vino uno de esos escasos y preciados momentos de suspiro: Aparecieron los datos. Al menos, la mayoría de ellos. Hubo que hacer varios intentos, concatenar varios cachos y recortarlos a base de dd, pero al final aparecieron.

Pero hay un problema, ¿no? ¿Qué hemos dicho sobre las tablas MyISAM?

al menos su .frm (estructura) y .MYD (datos propiamente dichos)

Total. Que necesitamos recuperar del disco unos .frm, que como cadena para buscar solamente tienen unos nombres de campo… Nada peculiares. Y encima, tienen un formato tirando a complejo y ni siquiera del todo bien documentado.

Así que, para esto, echamos mano del amigo de testdisc: Photorec.

Photorec es una pequeña maravilla de recuperador de datos. No poca gente debe algo parecido al perdón divino de su falta de copias de seguridad a esta utilidad escrita y mantenida desde hace muchos años por Christophe GRENIER. Photorec busca a lo bruto y recupera un montón de formatos de ficheros; entre ellos, los frm de MyISAM.

Dicho y hecho, una ejecución rápida de Photorec en el volumen pronto encontró varios archivos de MySQL. Varios. Unos pocos… Miles. Mêrde. Y ahora, ¿qué?

Pues se coge ./aladesesperada.sh buscando por los nombres de los campos (lo cual genera «solamente» unos cientos de ficheros de a diez megas), y seguidamente… Corremos photorec sobre la concatenación de todos esos ficheros.

Eso y un poco de recortes más con dd, algo de ensayo y error, y ¡por fin!. Poner los ficheros finales en /var/lib/mysql, usuarios, permisos, arrancar el servidor (no harás todo esto con el servidor MySQL andando, ¿verdad?), y no sin quejarse un poco…

mysql> REPAIR TABLE tablon USE_FRM;

+----------------+--------+----------+----------------------------------------------------------------+
| Table | Op | Msg_type | Msg_text |
+----------------+--------+----------+----------------------------------------------------------------+
| basedepatos.tablon | repair | info | Found link that points at xxxxx (outside data file) at yyyyy |

[…]

| basedepatos.tablon | repair | warning | Number of rows changed from 0 to 4711 |
| basedepatos.tablon | repair | status | OK |

Como dicen, el resto es historia: Intentar recoger los cachitos que faltan, y hacer un mysqldump final y largarlo al dueño, que ya a estas alturas estaba pensando en un duelo a pistola a tres pasos.

MacOS: Mola, salvo cuando se le va la pinza creando Preboots

Lo malo de solo tener un culo es que hay que aceptarlo como es, y el mío es inquieto. Vamos, que a media lectura de la página de Apple sobre las bondades de Catalina, ya mi culo estaba firmando que recaerá sobre mí y mi descendencia hasta la octava generación el karma por correr betas, y que bla bla bla aceptaryaleche.

Pero las cosas a veces van y otras veces se arrastran, y en mi caso el arrastre por todos los motores de búsqueda conocidos por el hombre empezó con un misterioso mensaje de error: Could not create a preboot volume for APFS install.

Por la Internet alante se encuentra todo tipo de recetas para salir de esa. Para variar, ninguna me funcionó. Pero salí de esa. ¿Cómo?

Observé que mi directorio /Volumes contenía una cantidad enfermiza de directorios cuyo objetivo en la vida, aparentemente, es montar el volumen Preboot:

alfredo@Alfredobot-274 /Volumes> ls

InstallESD    Preboot 18  Preboot 29  Preboot 4   Preboot 50  Preboot 61  Preboot 72  Preboot 83  Preboot 94

Macintosh HD    Preboot 19  Preboot 3   Preboot 40  Preboot 51  Preboot 62  Preboot 73  Preboot 84  Preboot 95

Preboot        Preboot 2   Preboot 30  Preboot 41  Preboot 52  Preboot 63  Preboot 74  Preboot 85  Preboot 96

Preboot 1    Preboot 20  Preboot 31  Preboot 42  Preboot 53  Preboot 64  Preboot 75  Preboot 86  Preboot 97

Preboot 10    Preboot 21  Preboot 32  Preboot 43  Preboot 54  Preboot 65  Preboot 76  Preboot 87  Preboot 98

Preboot 11    Preboot 22  Preboot 33  Preboot 44  Preboot 55  Preboot 66  Preboot 77  Preboot 88  Preboot 99

Preboot 12    Preboot 23  Preboot 34  Preboot 45  Preboot 56  Preboot 67  Preboot 78  Preboot 89

Preboot 13    Preboot 24  Preboot 35  Preboot 46  Preboot 57  Preboot 68  Preboot 79  Preboot 9

Preboot 14    Preboot 25  Preboot 36  Preboot 47  Preboot 58  Preboot 69  Preboot 8   Preboot 90

Preboot 15    Preboot 26  Preboot 37  Preboot 48  Preboot 59  Preboot 7   Preboot 80  Preboot 91

Preboot 16    Preboot 27  Preboot 38  Preboot 49  Preboot 6   Preboot 70  Preboot 81  Preboot 92

Preboot 17    Preboot 28  Preboot 39  Preboot 5   Preboot 60  Preboot 71  Preboot 82  Preboot 93

Y observé, en particular, que había hasta el Preboot 99. Ni uno más, ni uno menos. Así que, cabezazo a cabezazo contra la mesa, acabé por formular la hipótesis de que lo que el programa de instalación quería no era otra cosa que crear un punto de montaje nuevo para el Preboot. Aparentemente, si ya existe /Volumes/Preboot, intenta /Volumes/Preboot 1, y si no /Volumes/Preboot 2, etc… Hasta /Volumes/Preboot 99, y ahí lo deja por imposible. Pero, ¿acaso dice «Unable to create /Volumes/Preboot directory» o algo así clarificador? Noooo, esto lo ha hecho uno que viene de Microsoft, y lo que dice, que al traducirlo despista más todavía, es lo que se ve en el título.

Total. Que me los cargué todos, excepto el primero y el último, por si acaso. Innecesaria precaución: Tras instalar Catalina, no quedó ni uno. Y Catalina funciona, al menos lo bastante como para contarlo.

Ansible y autenticación mysql

Trabajando con una Debian o Ubuntu por defecto, la autenticación para el usuario root de MySQL/MariaDB está tan lejos como anteponer sudo a lo que sea que queramos hacer desde el shell.

Esto es, obviamente, enormemente práctico. ¿Queremos crear una base de datos? sudo mysql. ¿Examinar una base de datos? sudo mysqldump basedepatos. Etcétera. Sin necesidad de recordar ninguna clave o mantener una insegura.

Al pasar alguna de estas actividades a Ansible, sin embargo, tenemos todas las papeletas de encontrarnos de morros con esto:

fatal: [mizervio]: FAILED! => {"changed": false, "msg": "unable to connect to database, check login_user and login_password are correct or /root/.my.cnf has the credentials. Exception message: (1698, \"Access denied for user 'root'@'localhost'\")"}

¿Esto qué es? Bueno, pues que la magia de la que hablaba al principio es posible simplemente porque usamos el socket de autenticación… Y eso lo podemos hacer porque somos root. Este es el socket de autenticación de una Debian 10:

srwxrwxrwx 1 mysql mysql    0 sep  9 18:39 /run/mysqld/mysqld.sock

Pero Ansible no usa el socket de autenticación. A no ser que se lo digamos explícitamente. Por qué han elegido este comportamiento, en lugar de ser consistentes con la línea de comandos, probablemente tiene que ver con pensar en ello demasiado o demasiado poco, pero no seré yo quien arrample contra unos tipos a los que, la verdad, estoy más que agradecido por haber creado esta máquina de ahorrar tiempo y dolores de cabeza.

Además, la solución es fácil. Se coge la receta uno, y se añade en la tarea en que se llame a mysql_db:

login_unix_socket: /run/mysqld/mysqld.sock

Listo, resuelto todo. De nada.

ixgbe failed to load because an unsupported SFP+ or QSFP module type was detected

En la más pura y molesta tradición de Cisco, ahora el controlador que lleva el kernel (para valores de «ahora» cercanos a 4.19) para los chips de red de Intel (disculpad la palabrota), solamente quiere usar SFPs que hayan probado anteriormente.

Si tienes un SFP de «su» marca, todo va bien. Si no es de «su» marca, ya puede ser el mejor del mercado, que el controlador decide que a la mierda:

ixgbe 0000:01:00.0: failed to load because an unsupported SFP+ or QSFP module type was detected.

Señor, dame paciencia que para mala leche ya tenemos a Linus.

Total. Que, si nos pasa eso, tenemos dos posibles soluciones:

  • La buena, que es decirle al controlador que se verifique al que lo programó:

echo "options ixgbe allow_unsupported_sfp=1" > /etc/modprobe.d/ixgbe.conf

Si nuestro kernel lleva el controlador de marras compilado dentro, tendremos que pasarlo por la línea de comandos del kernel. Prosaicamente, añadir donde toque (/etc/default/grub, /etc/grub.d/ o lo que tenga nuestra distro) ixgbe.allow_unsupported_sfp=1.

Y con eso, y si acaso el juicioso uso de rmmod ixgbe ; insmod ixgbe, estaremos de nuevo en marcha, como si no se les hubiera ocurrido… Bueno, no sigo, que me enciendo.