Hallo,
ich bin auf der Suche nach einem HTTP Proxy Cache. Die Standardantwort ist hier ja eigentlich immer Squid (denke ich mal). Dummerweise wird Squid auf die zu puffernde Datenmenge vermutlich ueberhaupt nicht skalieren. Der Cache soll ungefaehr eine Groesse von 4 bis 8 TB haben und auch noch ein paar Millionen hits pro Stunde aushalten. (Nein, ich versuche damit keine koerperlichen Unzulaenglichkeiten zu kompensieren.)
Sowas erschlaegt man fuer gewoehnlich mit mehr Maschinen und einem Loadbalancer davor (oder einer Proxy-Hierarchie, wenn man sparen muss). Der Proxy-Phalanx wuerde man ein gemeinsames storage danebenstellen, damit nicht jeder einzelne Proxy die die Daten lokal halten muss.
Und genau hier ist Squid einfach nur doof, der moechte seinen Cache exklusiv fuer sich alleine haben. Ich seh aber gar nicht ein, fuer z.B. 8 Squids insgesammt 8TB x 8 = 64TB storage zu kaufen und dann auch noch damit zu leben, dass ein client mit irgendwas zwischen 7/8 = 87.5% und 1/8 = 12.5% auch noch erstmal einen miss erzeugt obwohl das Objekt schon in einem der Caches liegt und der trottelige Squid das Ding erstmal von einem seiner 7 Brueder ziehen muss. (Ich versteh ja auch nicht, was so kompliziert daran ist, eine URL auf eine eindeutige Postition im Dateisystem auf das Objekt selbst nebst Metadaten zu mappen.)
Jedenfalls: gibt’s da irgendwas, moeglichst frei und fuer Linux?
Danke im Voraus,
Gruss vom Frank.