wyklad12, Materiały, IV Semestr, Sieci komputerowe, EGZAMIN, Wykłady, wyklady - 12 ów
[ Pobierz całość w formacie PDF ]
Wykłady z przedmiotu Sieci komputerowe – podstawy
Wykład 12
Opracowali: Monika Nazarko, Krzysztof Raczkowski IIIFDS na podstawie w
kładów dr inż. Mirosława Hajdera
y-
1
STRESZCZENIE
Wykład omawia problem diagnostyki i zarządzania siecią. Opisuje metodykę poszukiwań
uszkodzeń w sieci oraz typowe problemy, jakie mogą w niej wystąpić.
Przedstawia także protokoły służące do zbierania informacji o sieci, pozwalające diagnozować
jej stan oraz śledzić ruch w niej generowany .
Politechnika Rzeszowska im. Ignacego Łukasiewicza
Zakład Systemów Rozproszonych
Rzeszów 2002
2
SPIS TREŚCI
Politechnika Rzeszowska im. Ignacego Łukasiewicza
Zakład Systemów Rozproszonych
Rzeszów 2002
3
1. DIAGNOSTYKA SIECI
Obiekty informatyczne dzielą się na dwie grupy:
- już zepsute
- te, które zepsują się w pewnym konkretnym czasie.
Pewne parametry niezawodnościowe (np. MTBF) wprowadzają błędne rozumo-
wanie stwierdzające, że w eksploatacji systemu nie można mówić o jakiejkolwiek
awarii. Założenie to jest prawdziwe jedynie przy zapewnieniu idealnych warun-
ków funkcjonowania systemu. W praktyce, takie warunki są niemożliwe do speł-
nienia.
Próbując więc zapewnić maksymalną niezawodność dowolnego systemu, nie
można polegać wyłącznie na jego parametrach niezawodnościowych.
Im bardziej złożony system, tym jego czas MTBF jest mniejszy (jest on wypadko-
wą czasów MTBF poszczególnych urządzeń).
Istnieją systemy, od których wymaga się niezawodności działania – noszą nazwę
newralgicznych. Wprowadza się w nich nadmiarowość sprzętową, informacyjną i
ewentualnie czasową. W rezultacie osiąga się system odporny na uszkodzenia
(fault-tolerant). Jest on w stanie pełnić swoje funkcje nawet po wystąpieniu awa-
rii (wówczas jego praca odbywa się przy gorszych parametrach, np. czasowych).
Według statystyk, procent fałszywych zgłoszeń awarii w systemie jest największy
w początkowym okresie jego działania (sięga nawet do 80-90%). Problemy wyni-
kają np. z tego, że użytkownik samodzielnie przekonfigurował coś w systemie,
bądź nie ma wystarczających wiadomości do korzystania z systemu.
Rozkład pomiędzy zgłoszeniami fałszywymi a prawdziwymi zmienia się wraz ze
zwiększaniem się długości eksploatowania systemu. Okres wstępny (z ogromną
ilością fałszywych alarmów) trwa zazwyczaj do pół roku.
Bez względu na parametry niezawodnościowe poszczególnych komponentów, istnieje znaczne
prawdopodobieństwo uszkodzenia systemu informatycznego, zarówno w części programowej
jak i sprzętowej. W większości przypadków, przyczyną uszkodzenia jest niespełnienie wymo-
gów odnoszących się do funkcjonowania systemu. Jeżeli system jest systemem newralgicznym,
konieczne jest zastosowanie architektury odpornej na uszkodzenia.
System odporny na uszkodzenia
(fault-tolerant) to system, w którym w przypadku uszkodze-
nia jego komponentów zachowywane są parametry funkcjonalne przy niezmiennym, bądź
zmieniającym się w niewielkim zakresie wydajności systemu.
W przypadku sieci komputerowych, przestoje w działaniu powinny być mierzone
w promilach. W niektórych warunkach może to być trudne do osiągnięcia (do
przestoi zalicza się również brak kontaktu z siecią zewnętrzną – a to już może być
problem niezależny).
W warunkach polskich, dopuszczalne są przestoje rzędu pojedynczych procentów.
Projektując sieć komputerową należy być przygotowanym, że bez względu na
sposób projektowania i jej eksploatacji, uszkodzenia i defekty najprawdopodob-
niej się i tak pojawią. Należy je wówczas zlokalizować i usunąć.
Politechnika Rzeszowska im. Ignacego Łukasiewicza
Zakład Systemów Rozproszonych
Rzeszów 2002
4
2 METODYKA WYSZUKIWANIA USZKODZEŃ W SIECI
Metodyka składa się z następujących podstawowych kroków:
1) określenie priorytetów,
2) kompletowanie stosownej informacji,
3) określanie prawdopodobnych przyczyn,
4) sprawdzanie rozwiązań,
5) badanie i szacowanie rezultatów,
6) dokumentowanie.
2.1 Określenie priorytetów
Problemy występujące w sieci należy uszeregować względem stopnia ważności. Rozwiązywać
należy najpierw zadania o najwyższym priorytecie.
Nierzadko zdarza się tak, że administratorzy w pierwszej kolejności rozwiązują
problemy, które są im znane. Podczas rozwiązywania tych problemów pojawiają
się nowe, proste do rozwiązania – którymi administrator zajmuje się w następnej
kolejności. Natomiast problemy o dość wysokim priorytecie, które w sposób istot-
ny rzutują na funkcjonowanie sieci (w wielu przypadkach trudne problemy), są
często nie rozwiązywane.
2.2. Kompletowanie stosownej informacji
Podstawowymi źródłami informacji są:
1) użytkownicy,
Jednym z podstawowych źródeł pochodzenia informacji o uszkodzeniu w systemie
są sami użytkownicy. Często nie są to jednak wiarygodne źródła informacji.
Większość użytkowników ma niską kulturę informatyczną i nie potrafi sprecyzo-
wać problemu.
Rozwiązaniem mogą tu być ankiety, w których większość pytań sformułowana jest
tak, aby odpowiedź na nie brzmiała „tak” lub „nie”.
2) raporty systemu, w tym systemu zarządzania,
Innym źródłem są informacje zbierane przez sam system. Można wykorzystać tu
standardowe rejestry systemu. W większości przypadków, audyt systemowy jest
dość ubogi – producent, projektując system, nie chce zawierać w nim funkcji, któ-
re w istotny sposób będą obciążać zasoby.
Analiza audytu pozwala określić, czy występujące problemy nie pojawiały się już
wcześniej. Przeglądanie ręczne może być jednak niezbyt efektywne – audyt może
mieć pokaźne rozmiary.
Większość producentów systemów operacyjnych (jednak nie tych popularnych,
użytku domowego) wyposaża je standardowo w specjalne podsystemy diagnosty-
ki, rejestrujące wszystkie przerwania natury sprzętowej. Awaria np. dysku twar-
dego jest odnotowana przez taki system i można przeczytać wszystkie dane doty-
czące błędów odczytu bądź zapisu.
Metody te wykorzystują np. systemy firmy Sun. Jest to kontynuacja idei IBM-a z
roku 1978 – procesora diagnostycznego z serii 43.
Politechnika Rzeszowska im. Ignacego Łukasiewicza
Zakład Systemów Rozproszonych
Rzeszów 2002
[ Pobierz całość w formacie PDF ]