[Eisfair] Fehlermeldung beim Einsatz von rsync - NEU

Jürgen Witt j-witt at web.de
Mi Mär 13 16:19:40 CET 2019


Hallo Marcus,

Am 13.03.2019 um 08:11 schrieb Marcus Roeckrath:
> Hallo Jürgen,
> 
> Was passiert, wenn man explizit diese Datei im rsync-Aufruf mal
> ausschliesst.
> 
> Oder diese Datei auf dem Backupsystem manuell oder im Skript mal vorher
> löscht.

habe ich noch nicht probiert.

Die Datei ist aber eine Datenbank-Datei und darf nicht ausgelassen werden.

> Wie groß ist die Datei?

Der zugesendete Report endet wieder mit der selben Datei QMETA.FPT in 
einem Unterordner von public. Diese Datei ist 2700 MB groß.
> 
> Hast du mir nicht beschrieben, dass auf keinem der beiden Rechner der
> rsync-Daemon läuft?

das ist auch korrekt. Ich baue per ssh eine Verbindung zwischen den 
beiden Servern auf und gleichen per rsync dann 3 Ordner ab.

Der Ordner TDAMP vom Produktiv-Server wurde komplett (weil ich den 
Original-Ordner auf dem Ziel-Server ja in TDAMP- umbenannt und TDAMP neu 
erstellt habe) und erfolgreich übertragen.

rsync hatte eine Menge zu tun.

sent 2,310,778 bytes  received 78,116,910,294 bytes  7,019,113.26 bytes/sec
total size is 537,209,539,545  speedup is 6.88



Plattenplatz auf dem Backup-Server

eis # df -h
Filesystem                    Size  Used Avail Use% Mounted on
/dev/md3                       23G  2.0G   20G   9% /
tmpfs                         2.0G  496K  2.0G   1% /run
devtmpfs                      2.0G  4.0K  2.0G   1% /dev
/dev/md1                       43M   16M   24M  39% /boot
/dev/md4                      1.8T  521G  1.2T  31% /data
/dev/sdc1                     1.8T  882G  858G  51% /mountpoint
tmpfs                         2.0G     0  2.0G   0% /run/shm
tmpfs                         2.0M  312K  1.7M  16% /brute_force_blocking
10.20.3.100:/mountpoint/data  1.8T  882G  858G  51% /backup

inodes sind auch nicht voll

eis # df -i
Filesystem                      Inodes   IUsed     IFree IUse% Mounted on
/dev/md3                       1537088   47065   1490023    4% /
tmpfs                           217335    1063    216272    1% /run
devtmpfs                        216667    1747    214920    1% /dev
/dev/md1                         12288      23     12265    1% /boot
/dev/md4                     120291328 1011255 119280073    1% /data
/dev/sdc1                    122101760 5330328 116771432    5% /mountpoint
tmpfs                           217335       1    217334    1% /run/shm
tmpfs                           217335      42    217293    1% 
/brute_force_blocking
10.20.3.100:/mountpoint/data 122101760 5330328 116771432    5% /backup

Die gespiegelten Festplatten des Backup-Servers

eis # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
/dev/md1 /boot ext4 defaults,errors=remount-ro 0 1
/dev/md2 none swap sw 0 0
/dev/md4 /data ext4 defaults 0 2
UUID=77d2f9a2-8847-4b38-a8ab-8d1e70ec3ea6 /mountpoint ext4 defaults 0 0
10.20.3.100:/mountpoint/data /backup nfs defaults,noauto 0 0
/dev/sdd1 /media/usb/sdd1 ext4 defaults,noauto 0 0
proc        /proc          proc      defaults                 0 0
/dev/fd0    /media/floppy  auto      defaults,user,noauto     0 0
/dev/cdrom  /media/cdrom   iso9660   defaults,ro,user,noauto  0 0
devpts      /dev/pts       devpts    defaults,gid=5,mode=620  0 0
/sys        /sys           sysfs     defaults                 0 0
tmpfs       /dev/shm       tmpfs     rw,nosuid,nodev          0 0
tmpfs       /run           tmpfs     defaults                 0 0
devtmpfs    /dev           devtmpfs  mode=0755,nosuid         0 0

Die tolle Röntgen-Software Sidexis hat innerhalb kurzer Zeit weit über 
32000 Ordner angelegt. Das führte zwischenzeitlich zu Problemen mit 
meinen USB-Festplatten (die nur ext3 formatiert waren), auf die ich die 
Dateien zusätzlich auch noch sichere.

Plattenplatz auf dem Produktiv-Server

debian # df -h
Filesystem         Size  Used Avail Use% Mounted on
/dev/cciss/c0d0p3  913G  537G  330G  62% /
tmpfs              1.8G   26M  1.8G   2% /run
devtmpfs           1.8G  4.0K  1.8G   1% /dev
/dev/cciss/c0d0p1   43M   15M   25M  37% /boot
tmpfs              1.8G     0  1.8G   0% /run/shm
tmpfs              2.0M  312K  1.7M  16% /brute_force_blocking

und die inodes

debian # df -i
Filesystem          Inodes   IUsed    IFree IUse% Mounted on
/dev/cciss/c0d0p3 60784640 1069950 59714690    2% /
tmpfs               218178     973   217205    1% /run
devtmpfs            217565    1689   215876    1% /dev
/dev/cciss/c0d0p1    12288      20    12268    1% /boot
tmpfs               218178       1   218177    1% /run/shm
tmpfs               218178      42   218136    1% /brute_force_blocking

Könnte auch ein Problem auf dem Produktiv-Server die Ursache sein? Dort 
gibt es ein Hardware Raid-1. Ursprünglich waren an dem Controller 
SAS-Festplatten. Als die zu klein wurden, habe ich diese durch 
Sata-Platten (WD Gold) ersetzt. Seit dem kann ich auf dem Server keine 
Smart-Werte mehr per smartmon ermitteln. Sollte ich dort am Wochenende 
'mal ein e2fsck machen?

Die Größe von public: ca. 520 GB und die Anzahl der Ordner (mehr als 
250000).

Danke
Jürgen


Mehr Informationen über die Mailingliste Eisfair