Hallo,
ich kämpfe gerade mit einem Testaufbau für eine Video-on-Demand Lösung. Der gelieferte Movie-Server saugt per HTTP GET Filme auf seine Platte. Ich muss also einen Webserver mit den Filmen bereitstellen. Leider sind die Dateien sehr groß (weit > 2GB) und ich habe noch keinen Webserver gefunden, der mit diesen Größen zurecht kommt.
Da ich den Overkill Apache vermeiden möchte (der übrigens standardmäßig auch nicht mit solchen Größen klarkommt), habe ich es mit thttpd und mini_httpd versucht.
http://www.acme.com/software/thttpd/
http://www.acme.com/software/mini_httpd/
Laut Mailing-Liste soll thttpd bei Übersetzung mit den Optionen
-D_FILE_OFFSET_BITS=64 -D_LARGEFILE_SOURCE
mit großen Dateien umgehen können. Das ist aber nicht der Fall. Er zeigt sie dann zwar endlich im Directory an, aber beim Versuch des Download kommt immer noch der Fehler
500 internal Error: There was an unusual problem serving the requested URL ‚/bound_together.mts‘.
Meine Fragen:
-
Gibt es eine Möglichkeit den thttpd aufzubohren? Ich habe hier die neueste Beta am Start (2.23beta1) unter Linux Kernel 2.4.20-4GB/SuSE 8.2
-
Kennt jemand einen Webserver, der klein und schlank ist und große Dateien ohne Fummelei unterstützt?
Jaja, ich weiss, dass HTML für solche Dateigrößen nicht elegant ist, aber an dem Server kann ich nichts ändern. Es gibt leider auch keinerlei Möglichkeit per telnet oder ssh darauf zuzugreifen um dann evtl. eine FTP Übertragung zu starten.
Dank für Tipps und Hilfe
Fritze