Hallo Andreas,
Die genannten Programme haben das primäre Ziel die
Downloadmege zu reduzieren.
Naja, das kann man so sagen, aber man kann auch sagen, daß sie das Ziel haben einen lokalen Spiegelserver einzurichten und dadurch dann die Downloadmenge zu reduzieren.
So wie ich mir das Vorstelle, müsste ich in einer unsicheren
(Netzwerkt mit Internet) Umgebung die Update-Packete
runterladen. Verifizieren, dass diese auch von Ubuntu stammen
Die Quellen werden ja ohnehin mittels apt-key und dem Schlüsselbund authentifiziert, insofern ist mir nicht ganz klar, inwiefern Du noch eine eigene Verifizierung durchführen willst.
und diese dann per USB-Stick oder andere Speichermedien in das
sichere Netzwerk transportieren und von dort aus an die
jeweiligen Clients verteilen.
Was brauchen ich um in
sicheren Netzwerk ein „eigenen“ Ubuntu-Update-Server zu
betreiben?
Aber willst oder musst Du dir das tatsächlich antun, sozusagen täglich einen USB-Stick an dem einen (unsicheren) Rechner zu beschreiben und dann an den anderen (sicheren) Rechner anzustöpseln?
Welches Medium da auch dran hängt, es kann ja von den anderen Rechnern gelesen und als Quelle genommen werden, da sehe ich nicht die Schwierigkeit. Aber kann man da noch von „Update-Server“ reden?
Spiegelung wäre im Prinzip eine Lösung aber ich brauche nicht
die ganzen 82GB an Daten nur die Update-Packete von Ubuntu.
Ich habe nicht nachgezählt, weiss also nicht, wie Du auf 82 GB kommst, aber diese Zahl ist entschieden zu hoch gegriffen. Ich habe hier eine Ubuntu-DVD rumliegen, also maximal 4,7 GB, und da ist schon mehr drauf, als ich wahrscheinlich jemals in meinem Leben brauchen werde.
Wegen der Trennung stelle ich mir das so vor: Auf dem unsicheren Rechner richtest Du ganz normal einen Spiegelserver ein, in dessen Konfigurationsdatei /etc/apt/mirror.list nur die Update-Section eingetragen ist:
deb-amd64 http://ftp.de.debian.org/debian/ squeeze-updates main
Das ist die Zeile von meinem Rechner, für Ubuntu bin ich zu faul zum nachsehen, die Anpassung sollte aber kein Problem sein. Da lädtst Du einmal eine größere Menge an Updates herunter, für den Rest der Tage hält sich das dann in Grenzen. Bei mir kommen höchstens mal bei einem Kernel-Update mehr als 200MB an.
Anschliessend wird dieser Rechner vom Internet getrennt und der sichere Rechner synchronisiert sich mit ihm (rsync, ftpsync).
Wenns tatsächlich beim USB-Stick bleiben soll, dann werden eben die Update-Pakete, die ja letztendlich auch nur eine Verzeichnis-Struktur sind, damit auf den sicheren Rechner kopiert.
Aber da reicht meine Phantasie nicht aus, um zu sagen, warum man das nicht gleich so mit dem sicheren Rechner machen könnte, währenddessen den anderen Rechnern im Netz der Zugriff auf das Internet verwehrt bleibt.
Mir ist jedenfalls keine Lösung bekannt, wie man auf einem Rechner, der sich nie mit dem Internet verbinden darf, effektiv einen Update-Server einrichten sollte.
Viele Grüße
Marvin