@x-storm;
Ich bin durchaus Deiner Ansicht, dass normalerweise ein Server in einem professionellen, gesicherten, mehrfach redundant angebundenen Rechenzentrum besser ist, wie eine lokale Lösung … das müsste sogar eigentlich viel billiger sein, weil das Rechenzentrum, den Server, viel billiger kaufen und administrieren kann.
Aber, dann ist man von dem good-will von den Leuten im Rechenzentrum abhängig und wenn die dann so spinnen, wie die Leute mit denen ich es zu tun habe … dann ist das doch nicht wirklich so gut.
Das mit der Redunanz und der Administration von einem lokalen Server kenne ich schon sehr gut, weil wir schon seit ca. 15 Jahren, sehr erfolgreich, dafür gesorgt haben, dass wir keine Datenverluste mehr haben, indem wir hier, lokal, NAS Geräte einsetzen, auf denen ALLE Daten, sobald das möglich ist, gespeichert und gesichert werden. Das läuft ganz toll, erfordert aber einen großen Aufwand, weil man die Festplatten regelmäßig austauschen muss.
Deshalb will ich nun die Methode, die wir bis jetzt zur Datensicherung und zum Austausch von Daten genutzt haben, nicht kaputtmachen, sondern auf ein weiteres Niveau ausweiten.
Bisher haben wir viele Sachen auf Computern erledigt, die (wenn das möglich war) an ein NAS angeschlossen werden und die konnten dann vieles autonom (ohne Anschluss an das NAS) erledigen. Neue oder geänderte Daten wurden dann, wenn diese Computer mit dem NAS verbunden waren, auf dem NAS gesichert, blieben aber solange es nötig war immer auf den Computern, die sie gebraucht haben.
Größe Datenmengen, konnten so zum Beispiel Nachts mit dem NAS abgeglichen werden und man muss das nicht machen, wenn man vor dem Kasten sitzt.
Statt dem NAS könnte man das jetzt mit einem Cloud machen: Aber das grosse Problem vom Cloud ist, dass die Übertragungszeiten derartig hoch sind, dass man noch extrem viel Zeit versaut, wenn man Daten auf so einen Cloud Server schaufelt.
Wir wollen außerdem, dass es in Zukunft einen gespiegelten Server hat, der auf einem anderen Kontinent steht und mit einem Server in Europa (oder in unserem Büro) synchronisiert wird. Das ist dann das Rechenzentrum im Cloud …
Da das Rechenzentrum dann eine Kopie von unserem lokalen Server betreibt, können wir alles so einstellen, wie wir das brauchen. Wir müssen uns dann nicht mit irgendwelchen begeisterten Deppen herumschlagen, weil wir zum Beispiel keine absurd komplizierten Passwörter für völlig sinnfreie Sicherheitsmaßnahmen wollen, oder mehr als 10 E-mails pro Stunde und Account verschicken müssen, weil wir ein paar hundert Rechnungen verschicken müssen, die wir nicht, wie im Mittelalter, einzeln schreiben.
Wenn der Glasfaser Anschluss genauso schnell ist, wie der Anschluss von einem Rechenzentrum, dann ist der lokale Server nur eine „Außenstelle“ vom Rechenzentrum. Wenn die Glasfaser zu langsam ist, dann kann man damit dafür sorgen, dass es nicht groß stört, wenn die Daten nur relativ langsam auf den Server im Rechenzentrum übertragen werden.
Das ist aber alles eine Frage der Geschwindigkeit. Wir bekommen erst in ca. 2 Monaten einen Glasfaseranschluss und ich finde nirgendwo heraus, wie schnell der wirklich sein wird. Jetzt ist es zum Beispiel völliger Unfug, dass wir uns einen 8TB Cloud mieten … bis der dann auch nur zur Hälfte gefüllt ist, werden Jahrzehnte vergehen …
Danke
brainstuff