Moin,
Eigentlich war das Thema/Projekt schon fast vom Tisch aber ich erwische Anno/alex einfach nichtmehr … Mir ging der QuellCode verloren.
Anno bitte meld dich ma.
mfg jonny
Oder ich fange nochmal bei 0 an…
Ich habe vor langer zeit mit der Hilfe von Rainer ein Tool zum Synchronisieren von Daten geschrieben. Wenn dieses Tool auf dem Laptop gestartet wird vergleicht es ca. 80.000 Dateien mit einem Netzlaufwerk. Neue oder Veränderte Dateien werden auf dass Laptop Kopiert. Vorher haben wir einmal im Monate den ganzen Ordner Kopiert…….bitte warte……
Also spart das Tool im vergleich zum kompletten Kopiervorgang eine menge Zeit, da die Dateien verglichen und nur wenn neu oder geändert kopiert werden.
Leider funktioniert das Tool nur im LAN und nicht über DSL, naja es funktioniert schon, dauert aber ganz schön lange. Darum habe ich mir Gedanken gemacht und möchte das ganze nun mit Hilfe eines kleinen Servers im Büro Optimieren.
Ich hoffe es ist wie Folgt realisierbar.
Auf dem Server wird ein kleines Programm alle 3 Stunden ausgeführt welches ein Index von dem Netzlaufwerk macht. Also Eine Liste mit allen Dateien , Pfad, Größe und Erstellungsdatum. Zusätzlich muss es noch einen Index der ganzen Benutzer geben um änderungen festzustellen
Nun gibt es ein 2tes Programm welches auf dem Laptop ausgeführt wird. Dort wird beim kopieren der Daten vom Server auch eine Dateiliste lokal angelegt und beim nächsten Programmstart mit der auf dem Server verglichen. So wird in wenigen Sekunden festgestellt welche Dateien neu auf dem Server sind ohne alle zu Vergleichen.
Auf dem Server werde ich einfach eine Rekursive Suche(API) auf bestimmt Ordner machen und diese in eine Datei schreiben. Nun kopiert sich der Client die Datei und vergleicht diese.
Der Vergleich und der Index sollte am besten mit einer Datenbank realisiert werden.
Besten Dank, mfg Jonny