Najlepsza pamięć masowa dla puli serwerów WWW?


Przyjrzałem się narzędziom, takim jak DRDB (które można skalować tylko do 2 aktywnych-aktywnych węzłów) i GlusterFS (co jest świetne, ale nie w przypadku małych plików, które zwykle obsługuje serwer sieciowy).
Poszukuje systemu plików/klastra serwerów pamięci masowej:
  • To jest kompilator POSIX (jak wiele aplikacji internetowych tego wymaga)
  • Działa to świetnie z obciążeniem 90% odczytu/10% zapisu małych plików (pomyśl o stronach index.php lub małych obrazkach).
  • Skalowalne zarówno pod względem rozmiaru, jak i wydajności
  • Czas dostępu jest minimalny

Mam w tej sprawie wiele trudności i myślę, że nie ma nic, co mogłoby mi pomóc.
Zaproszony:
Anonimowy użytkownik

Anonimowy użytkownik

Potwierdzenie od:

i witaj w tym odwiecznym problemie.
  • Czasami oddzielny serwer plików, a następnie liczba X serwerów WWW z głównym serwerem WWW zainstalowanym przez NFS działa dobrze. Najprawdopodobniej w przypadku materiałów zorientowanych na czytanie. Nie podałeś nam żadnych danych dotyczących ruchu, więc nie możesz być pewien.
  • Czasami podejście takie jak „Puppet (lub po prostu stary rsync i niektóre skrypty) dystrybuuje pliki do każdego hosta na serwerze WWW” działa dobrze.
  • Dla niektórych GFS/GPFS działa dobrze - niezalecane w przypadku wielu małych plików.
  • Istnieją rzeczy takie jak klastrowy LVM i klastrowana wersja XFS o nazwie CXFS. Następnie możesz mieć jedną jednostkę SAN LUN i każdy serwer sieciowy, aby ją zamontować, podobnie jak w przypadku GFS/GPFS. Nie mam pojęcia, czy to działa lepiej w przypadku wielu małych plików. Zawsze podejrzewam, że to nie działa.

Osobiście unikałbym wszystkiego, co mogłoby stać się pojedynczym punktem awarii. Jeśli ktoś ma jakieś dobre sugestie, jak rozwiązać ten problem, ja też jestem BARDZO zainteresowany. +1 do twojego pytania, proszę pana!

Aby odpowiedzieć na pytania, Zaloguj się lub Zarejestruj się