Rozwiązywanie problemów z wydajnością serwera hosta?
Jesteśmy w trudnej sytuacji, mamy hostowany serwer o następujących cechach:
OS: Windows Server 2008 R2 Enterprise SP1 64bit
Processor: Intel Xeon X7550 @ 2GHz (8 processors)
RAM: 16GB
System plików znajduje się w sieci SAN lub NAS (nie jestem pewien).
Widzimy bardzo dziwne problemy, gdy użytkownik otwiera plik .xslb o wielkości 25 MB, co czasami zajmuje dosłownie 60-120 sekund. Serwer po prostu wolno się różnicuje.
Zasoby nie są powiązane z zasobami, procesor nigdy nie podskakuje, dużo pamięci RAM ... po prostu dziwnie wolno.
Nasz gospodarz bada problem od kilku tygodni, ale nie może nic pokazać. Czy istnieje narzędzie, które mogę uruchomić samodzielnie, aby pomóc w wyśledzeniu naszego problemu?
znalazłem
Server Performance Advisor V1.0
http://www.windowsnetworking.c ... .html
Czy masz jakieś doświadczenie w jego używaniu?
Ostatecznie odpowiada za to nasz gospodarz, ale mamy 1 miesiąc i nasi użytkownicy tracą cierpliwość. Każda rada byłaby pomocna.
Nie znaleziono powiązanych wyników
Zaproszony:
Aby odpowiedzieć na pytania, Zaloguj się lub Zarejestruj się
2 odpowiedzi
Anonimowy użytkownik
Potwierdzenie od:
Aby szybko sprawdzić „czy moje dyski są w stanie obsłużyć moje żądania”: otwórz Monitor wydajności i dodaj
AverageDiskQueueLength
http://technet.microsoft.com/e ... .aspx
licznik dla tego dysku (logiczny lub fizyczny w porządku). Ogólnie rzecz biorąc, nie powinno przekraczać 10: zgrubne uogólnienie, ale pomoże ci odróżnić dobro od zła. Długość kolejki dysku powinna zwykle wynosić od 0 do 1, ale na naprawdę przeciążonych serwerach widziałem, że dochodzi do setek tysięcy i tam pozostaje. Jest to po prostu licznik żądań oczekujących na przyjęcie we/wy na dysku do przetworzenia.
Ale po co w ogóle zawracać sobie głowę analizowaniem operacji we/wy dysku? Wiesz, że to powolne, więc dla mnie patrzenie na perfmon oznacza
wykluczać
dyski jako problem. Prawdopodobnie powinien być licznik opóźnienia dysku
zostań pod
magia
20 ms
http://blogs.technet.com/b/ask ... .aspx
.
Aby uzyskać pełniejszy przegląd, użyłbym
PAL (analiza wydajności dziennika)
http://pal.codeplex.com/, fantastyczne narzędzie, w którym je uruchamiasz, mówisz, jakiego typu „obciążenie” używasz, i wypluwa plik konfiguracyjny dla monitora wydajności. Zaimportuj ten plik do perfmon, uruchom go przez 24 godziny w typowy dzień, a następnie weź dane wyjściowe dziennika i zaimportuj je do PAL, co utworzy ładny raport podsumowujący HTML, korzystając z wytycznych MS i rzeczywistych informacji, aby pomóc Ci zidentyfikować potencjalne problemy. Oto więcej rzeczy do przemyślenia:
Anonimowy użytkownik
Potwierdzenie od:
Ostatni raz, kiedy zostałem poinformowany o tym "problemie", był to 40MB plik Excela z ponad 200 tabelami przestawnymi (i tuzinem odnośników) do obliczenia.
na komputerze klienta
za każdym razem, gdy został otwarty. Przejdź do stacji roboczej, pobierz plik Excel, otwórz menedżera zadań i obserwuj obciążenie procesora komputera lokalnego po otwarciu pliku.
W moim przypadku otwarcie pliku przy pełnym obciążeniu procesora zajęło 87 sekund w systemie z podwójnym czterordzeniowym procesorem i7. Jak tylko to potwierdziłem, zwróciłem problem do miejsca, w którym należał, czyli do idioty, który stworzył
arkusz
przy tak wielu zapisach i obliczeniach może zdusić mainframe. Stawiam na dobre pieniądze, w twoim przypadku problem jest ten sam. Arkusz kalkulacyjny jest zbyt duży, aby komputery klienckie mogły go przetworzyć w odpowiednim czasie, co zdarza się, gdy użytkownicy końcowi próbują zdalnie wykonać jakąś operację techniczną - nie robią tego zdalnie poprawnie, w wyniku czego wszyscy cierpią.