Noch ne Anregung
Hi,
wenn du es denn unbedingt mit der Bash machen willst, könntest du die Datei auch vorher in hanlichere Portionen (Teildateien) zerlgen, Genau dfür gibt es ja das split-Kommando:
SPLIT(1) User Commands SPLIT(1)
NAME
split - split a file into pieces
SYNOPSIS
split [OPTION]... [INPUT [PREFIX]]
DESCRIPTION
Output fixed-size pieces of INPUT to PREFIXaa, PREFIXab, ...; default
size is 1000 lines, and default PREFIX is `x'. With no INPUT, or when
INPUT is -, read standard input.
Mandatory arguments to long options are mandatory for short options
too.
-a, --suffix-length=N
use suffixes of length N (default 2)
-b, --bytes=SIZE
put SIZE bytes per output file
-C, --line-bytes=SIZE
put at most SIZE bytes of lines per output file
-d, --numeric-suffixes
use numeric suffixes instead of alphabetic
-l, --lines=NUMBER
put NUMBER lines per output file
--verbose
print a diagnostic just before each output file is opened
--help display this help and exit
--version
output version information and exit
SIZE may be (or may be an integer optionally followed by) one of fol‐
lowing: KB 1000, K 1024, MB 1000\*1000, M 1024\*1024, and so on for G, T,
P, E, Z, Y.
Das könnte dann den Vorteil haben, dass du einen Wiederaufsetzpunkt hast, wenn die DB nach dem 53000 Insert sich über fehlenden Platz o.ä. beschwert und abbricht… (Naja, 100.000 ist aber auch nicht wirklich viel)
gruss
bernhard