Wydawca: Psychoskok Kategoria: Specjalistyczne Język: polski Rok wydania: 2013

Uzyskaj dostęp do tej
i ponad 20000 książek
od 6,99 zł miesięcznie.

Wypróbuj przez
7 dni za darmo

Ebooka przeczytasz w aplikacjach Legimi na:

e-czytniku kup za 1 zł
tablecie  
smartfonie  
komputerze  
Czytaj w chmurze®
w aplikacjach Legimi.
Dlaczego warto?
Czytaj i słuchaj w chmurze®
w aplikacjach Legimi.
Dlaczego warto?
Liczba stron: 215 Przeczytaj fragment ebooka

Odsłuch ebooka (TTS) dostępny w abonamencie „ebooki+audiobooki bez limitu” w aplikacji Legimi na:

Androida
iOS
Czytaj i słuchaj w chmurze®
w aplikacjach Legimi.
Dlaczego warto?

Ebooka przeczytasz na:

Kindlu MOBI
e-czytniku EPUB
tablecie EPUB
smartfonie EPUB
komputerze EPUB
Czytaj w chmurze®
w aplikacjach Legimi.
Dlaczego warto?
Czytaj i słuchaj w chmurze®
w aplikacjach Legimi.
Dlaczego warto?
Zabezpieczenie: watermark Przeczytaj fragment ebooka

Opis ebooka Mac OS X Server 10.8 - Krzysztof Wołk


Praktyczny Podręcznik Administratora Mac OS X Server 10.8 (Mountain Lion) w praktycznych przykładach. Omawia zagadnienia w sposób szczegółowy i przystępny dla czytelnika, kładąc duży nacisk na praktyczne rozwiązania.

Publikacja opisuje w sposób szczegółowy możliwości Mac OS X Server 10.8 oraz sposób ich wykorzystania i konfiguracji. Między innymi omówiono sieci komputerowe, pracę Mac OS X i Windows w środowisku mieszanym (Magic Triangle), konfigurację RADIUS, Open Directory, DHCP, DNS, NetBoot, Wiki, Kalendarze, Usługi email, Server www, zaawansowane zarządzanie użytkownikami, ARD, najlepsze praktyki, najbardziej przydatne i pomocne aplikacje w pracy z systemem oraz wiele innych.

Autor Krzysztof Wołk, magister inżynier informatyki, doktorant na Polsko-Japońskiej Wyższej Szkoły Technik Komputerowych, a jednocześnie ćwiczeniowca i promotor techniczny w wyżej wymienionej uczelni. Zawodowo trener IT. Certyfikowany specjalista w produktach serwerowych Apple oraz Microsoft, jak również certyfikowany profesjonalista firm Adobe oraz W3Schools. Od 2009 roku redaktor portalu informatycznego in4.pl oraz własnego bloga www.wolk.pl, na łamach których opublikował kilkadziesiąt artykułów oraz poradników z dziedziny informatyki. Tworzy także autorskie materiały szkoleniowe, udziela się na portalu e-biotechnologia.pl , a także autor książek z dziedziny informatyki, w tym bestsellerowej ""Biblia Windows Sever 2012"". Designer oraz specjalista HTML5, a także w projektowaniu aplikacji na urządzenia mobilne.

Opinie o ebooku Mac OS X Server 10.8 - Krzysztof Wołk

Fragment ebooka Mac OS X Server 10.8 - Krzysztof Wołk

Krzysztof Wołk "Mac OS X Server 10.8"

Copyright © by Wydawnictwo Psychoskok, 2013 Copyright © by Krzysztof Wołk, 2013

Wszelkie prawa zastrzeżone. Żadna część niniejszej publikacji nie może być reprodukowana, powielana i udostępniana w jakiejkolwiek formie bez pisemnej zgody wydawcy.

Skład: Wydawnictwo Psychoskok Projekt okładki: Agnieszka Wołk Zdjęcie okładki © www.sxc.hu

ISBN: 978-83-7900-090-6

Wydawnictwo Psychoskok ul. Chopina 9, pok. 23, 62-507 Konin tel. (63) 242

Krzysztof Wołk
Mac OS X Server
10.8
Wydawnictwo Psychoskok 2013

1. Wstęp

Mac OS X Server 10.8 to skalowalne rozwiązanie dostarczające rozwiązań serwerowych zarówno dla małych grup roboczych, jak i rozbudowanych sieci komputerowych. Pomimo to platforma ta jest możliwie przyjazna administratorowi, jak również może pracować na bardzo zróżnicowanym środowisku sprzętowym. Posiada on wiele preinstalowanych usług oraz wiele możliwości instalacji. Mountain Lion Server kosztuje 19,99$ w AppStore, dlatego też może być używany nawet w domach przez użytkowników prywatnych. W domu pozwoli on stworzyć scentralizowany magazyn danych oraz nałożyć na nie odpowiednie uprawnienia, tak aby każdy z domowników miał dostęp do pożądanych danych zarówno z poziomu sieci lokalnej jak i Internetu. Dane te mogą być także dostępne na urządzeniach mobilnych pracujących pod kontrolą systemu iOS. Można więc mówić o zalążku chmury prywatnej.

Dzięki usłudze Profile Manager domownicy będą mogli w sposób scentralizowany zarządzać komputerami Mac oraz urządzeniami przenośnymi firmy Apple. Dodatkowym atutem tego rozwiązania jest możliwość stworzenia na serwerze lokalizacji, w której w sposób automatyczny będą przechowywane kopie zapasowe zarówno produktów firmy Apple, jak i komputerów pracujących pod kontrolą Windows za pomocą dodatkowego oprogramowania. Za pomocą Wirtualnych Sieci Prywatnych istnieje także możliwość uzyskania zdalnego dostępu do dowolnego domowego komputera.

Mac OS X Server pozwala w sposób automatyczny i intuicyjny jak nigdy dotąd użytkownikom domowym szybko za pomocą kreatorów uruchomić najważniejsze usługi na serwerze. Natomiast dla użytkowników biznesowych konfiguracja nie będzie znacznie bardziej skomplikowana.

Wszystkie wspomniane wcześniej zalety znajdą zastosowanie zarówno w biznesie jak i w edukacji. Dodatkowo Mac OS X Server w środowiskach produkcyjnych potrafi obsłużyć zarówno komputery Mac jak i komputery pracujące pod kontrolą systemu Microsoft Windows. Co więcej Mac OS X Server może bez problemu koegzystować w jednej sieci z Windows Server.

Nawet jeżeli w środowisku firmowym istnieje niewiele komputerów Mac, to i tak warto zainwestować w Mac OS X Server, ponieważ żaden inny system operacyjny nie oferuje tak wyspecjalizowanych ustawień dla produktów marki Apple.

Mac OS X Server posiada wiele usług i narzędzi do zarządzania klientami wśród których niektóre dostępne są z poziomu aplikacji Server, a do niektórych należy się dostać w inny sposób.

Usługa File Server odpowiada za udostępnianie plików oraz nadawanie uprawnień dostępu do danych. Pozwala ona udostępniać pliki za pomocą natywnego protokołu dla systemu OS X tj. Apple Filing Protocol (AFP), który jest obsługiwany tylko przez komputery Mac. Istnieje także wsparcie dla protokołu Microsoft Server Message Block (SMB), z którego mogą korzystać klienci pracujący na komputerach pod kontrolą Windows lub Linux. Z kolei użytkownicy urządzeń przenośnych marki Apple mogą korzystać z protokołu WebDAV do wymiany danych z serwerem. Dostępna jest także usługa FTP za pomocą której dostęp do danych można uzyskać nie tylko za pomocą sieci lokalnej, ale również z Internetu. Nie zabrakło także wsparcia dla protokołu Network File System (NFS) z poziomu linii poleceń.

Usługa Directory Services przechowuje i zarządza kontami użytkowników oraz komputerów. Jest to tak zwana usługa katalogowa, która korzysta z protokołu LDAP, Kerberos oraz ze standardów SASL. Jest ona kompatybilna z innymi usługami katalogowymi opartymi o te same technologie jak np. Microsoft Active Directory.

Istnieje także usługa Contacts Server, wcześniej znana jako Address Book Server, która pozwala na współdzielenie oraz synchronizację kontaktów zarówno grupowych jak i personalnych pomiędzy urządzeniami spod znaku jabłuszka. Jako, że jest ona oparta na protokole CartDAV jest ona kompatybilna także z odpowiednimi aplikacjami klienckimi w systemie Windows oraz Linux. Idea działania tego serwera jest analogiczna do usługi iCloud, ponieważ zmiany automatycznie pojawiają się na wszystkich powiązanych urządzeniach, które także otrzymują notyfikacje typu Push.

Z kolei usługa Calendar Server oparta o CalDAV działa analogicznie do serwera kontaktów, jednak odpowiada ona za współdzielenie kalendarzy oraz zapisanych w nich wydarzeń.

Messages Server stanowi serwer dla komunikatora dającego możliwość rozmów głosowych, wideo jak również tekstowych, lecz to nie wszystko. Łączy ona ze sobą dwa światy: urządzeń mobilnych oraz urządzeń stacjonarnych. Użytkownicy mogą wymieniać się wiadomościami w sposób błyskawiczny, analogiczny do wysyłania SMS lub rozmów za pomocą FaceTime. Usługa ta wyparła wcześniej używany iChat Server.

Server pozwala także na uruchomienie usług sieciowych takich jak DNS, Firewall czyVPN. Istnieje także możliwość uruchomienia Routingu.

Nie zabrakło także serwera wymiany poczty (Mail Server), który poza serwerem poczty wysyła notyfikacje push do urządzeń firmy Apple. Jest kompatybilny z innymi klientami pocztowymi, jak również potrafi filtrować spam, wirusy oraz zapewnia dostęp do wiadomość e-mail przez interfejs WWW.

Usługa WebHosting stanowi usługę pozwalającą hostować strony internetowe. Pozwala ona na wirtualne hostowanie wielu stron, wielu adresacji IP oraz wirtualnych domen za pomocą bardzo przyjaznych kreatorów. Jest to pakiet technologii w skład których wchodzą między innymi serwer Apache, serwer baz danych PostgreeSQL, wtyczka dla języka Perl oraz wsparcie dla skryptów CGI. Server wspiera PHP oraz szyfrowanie za pomocą SSL. Większość znanych skryptów WWW jak np. Wordpress powinno zadziałać bez najmniejszych problemów. Dodatkowo wbudowano serwer Wiki, który pozwala w sposób pełni automatyczny budować w pełni funkcjonalne strony Wiki. Są to strony internetowe z panelami administracyjnymi, dzięki którym użytkownicy mogą łatwo edytować ich zawartość. Jednak ich największą zaletą jest zaimplementowana możliwość współpracy nad projektami, narzędziami, czy branie udziału w burzy mózgów. Serwer Wiki także integruje w sobie aplikacje blogowe oraz posiada specjalne szablony przygotowane na potrzeby urządzeń mobilnych.

Zarządzać urządzeniami mobilnymi można za pomocą usługi Profile Manager. Jako, że urządzenia mobilne w ostatnich czasach stały się bardzo popularne, Profile Manager może okazać się nieocenionym dodatkiem. Pozwala on nie tylko nanieść na urządzenia ustawienia, ale również restrykcje czy zasady bezpieczeństwa oraz dostępu.

Nie zabrakło także serwera aktualizacji, który pozwala wybrać i pobrać aktualizacje z serwerów Apple, a następnie zainstalować je na komputerach lokalnych wszystkie jednocześnie. Usługi NetInstall orazNetBoot pozwolą administratorowi zainstalować oraz zaktualizować aplikacje na wielu komputerach jednocześnie, jak również masowo zainstalować system Mac OS X na komputerach lub uruchomić system z sieci.

Usługa Spotlight pozwala na zindeksowanie zawartości danych dostępnych z poziomu serwera, aby użytkownicy również zdalnie mogli szybciej wyszukiwać. Przydatna jest także usługa Time Machine, która pozwala komputerom klienckim wykonywać kopie zapasowe danych na serwer.

2. Wybór sprzętu i wymagania sprzętowe

Dobór odpowiedniego sprzętu dla systemu operacyjnego Mac OS X Server nie jest zadaniem trywialnym. Dobór sprzętu zależy w dużej mierze od specyfiki firmy. Przed wyborem spraw czysto hardware’owych należy przede wszystkim przeanalizować to, ilu użytkowników będzie korzystać z serwera oraz w jaki sposób będą go używać. Bardzo ważnym aspektem jest to, ilu użytkowników jednocześnie jest podłączonych do serwera. Może się okazać, że wszystko do pewnego etapu będzie działać płynnie, natomiast po osiągnięciu pewnego pułapu połączeń nastąpi nagły spadek wydajności, a nawet awarie działania sieci. Dla przykładu Mac Mini Server docelowo powinien obsłużyć od 20 do 50 klientów w zależności od tego, z jak obciążających usług oni korzystają. Warto zdecydować się na komputer z pewnym zapasem mocy, jednak nie należy przesadzać, ponieważ zawsze można zainstalować dodatkowy serwer, który przejmie część zadań na siebie. Dla przykładu Mac PRO w zależności od konfiguracji powinien obsłużyć setki klientów, natomiast średniej klasy iMac stanowi jakby krok pośredni. Zwiększyć wydajność można także stosując macierze dyskowe Xsan oraz dodając jak najwięcej pamięci RAM. Nie mniej jednak nie wolno zapominać o przepustowości sieci Ethernet, nawet absurdalna wydajność serwera zda się na nic, jeżeli sieć nie będzie w stanie sprostać wymaganiom użytkowników. Należy więc zadbać o to, aby topologia sieci była optymalna, a serwer zawierał odpowiednią ilość kart sieciowych. Poza ilością jednoczesnych połączeń należy pamiętać o tym, że ważne jest także to jakie zadania są przetwarzane na serwerze. Dla przykładu dziesięciu użytkowników uruchamiających system za pośrednictwem sieci będzie wymagało znacznie lepszego sprzętu niż dziesięciu użytkowników odczytujących stronę WWW hostowaną na serwerze. Dla kolejnego przykładu serwer WWW nie wymaga bardzo wydajnego sprzętu. Ani dyski twarde, ani pamięć operacyjna, ani procesor nie są przez niego w znaczący sposób obciążane. Podobnie ma się sprawa w przypadku usług Mail, DNS orazRouting. Z kolei usługi plików (File Server) nie obciążą procesora, za to będą wymagać pojemnych i szybki dysków twardych oraz szybkiej sieci. Warto więc pomyśleć o macierzach RAID bądź zewnętrznych magazynach SAN.

RAID – polega na takiej współpracy dwóch lub więcej dysków twardych, aby zostały zapewnione dodatkowe możliwości, które są nieosiągalne przy użyciu jednego dysku jak również przy użyciu kilku dysków, które są podłączone oddzielnie.

SAN (Storage Area Network) – jest to obszar sieci, który zapewnia systemom komputerowym dostęp do zasobów pamięci masowej.

Należy także pamiętać o tym, że awaria dysku może wywołać nieodwracalną utratę danych, dlatego należy mieć zewnętrzny magazyn do przechowywania kopii zapasowych. Podobnie ma się sprawa serwera Time Machine, gdzie trzeba zadbać o jeszcze większą przepustowość sieci. Jeżeli na serwerze przechowywane będą bazy danych może okazać się, że będzie potrzebny znacznie szybszy procesor oraz dyski twarde niż w przypadku udostępniania plików. W przypadku baz danych warto pomyśleć nie tylko o macierzach dyskowych, ale także o dyskach SSD, ponieważ oferują one więcej operacji wejścia/wyjścia niż standardowy dysk twardy. W większych sieciach najprawdopodobniej najbardziej używaną usługą może być Open Directory. Ważne jest to, aby serwer hostujący tą usługę miał odpowiednią wydajność, ponieważ spowolnienie Open Directory przełoży się na znacznie wolniejszą pracę całej sieci. Warto przemyśleć nawet posiadanie osobnego serwera na potrzeby tej usługi. W mniejszych sieciach raczej nie będzie takiej potrzeby. Jeżeli katalogi domowe będą przechowywane na serwerze należy również pamiętać o przepustowości sieci i prędkości dysków twardych. W przypadku częstego korzystania z usługi NetBoot nawet dla małej sieci należy zadbać o mocny sprzęt serwerowy, ponieważ system uruchamiany jest na każdym komputerze z serwera, a dane przesyłane są przez sieć, a do przetwarzania używany jest procesor na serwerze. Niezbędna będzie także szybka sieć oraz urządzenia pośredniczące takiej jak switch czy router. 100 Base T to absolutne minimum, jednak zaleca się stosowanie Gigabit Ethernet oraz wielu interfejsów sieciowych jednocześnie.

Dopiero znając nasze specyficzne potrzeby można przystąpić do planowania wdrożenia. W małych firmach czy domu ciekawym pomysłem wydaje się użycie laptopa, ponieważ można powiedzieć, że ma on „wbudowany“ zasilacz awaryjny. Nie mniej jednak Mac OS X Mountain Lion można zainstalować na ograniczonej liczbie urządzeń:

iMac

(2007 lub nowszy)

MacBook

(13“ Aluminium 2008, 13“ early 2009 lub nowszy)

MacBook

Pro (13“ mid-2009 lub nowszy, 15“ 2.4/2.2 GHz; 17“ late 2007 lub nowszy)

MacBook

Air (late 2008 lub nowszy)

Mac

mini (early 2009 lub nowszy)

Mac

Pro (early 2008 lub nowszy)

Xserve

(early 2009)

Lub dowolny nowszy Mac.

Wybrany komputer powinien posiadać procesor 64 bitowy z serii Core 2 Duo lub nowszej, kartę graficzną ze wsparciem dla OpenGL, minimum 2GB RAM oraz minimum 8GB wolnego miejsca na dysku.

Komputer typu Mac Mini sprawdzi się najlepiej w niewielkich grupach roboczych do 15 komputerów i 200 użytkowników. Bez problemu uruchomi się na nim większość usług sieciowych. Warto także pamiętać o tym, że serwer DNS działa najlepiej na osobnej karcie sieciowej nie powiązanej z innymi usługami, dlatego warto zainwestować w kartę sieciową na USB. Taki komputer jest przede wszystkim tani, mały, cichy i oszczędny energetycznie. Nadaje się także do tworzenia niskowydajnych klastrów.

Patrząc na stosunek ceny do wydajności iMac nie wydaje się sensownym nabytkiem na serwer, natomiast w przypadku wymiany takiego komputera w firmie na nowszy można go użyć w ramach recyklingu, ponieważ zapewni on mniej więcej to samo co Mac mini. Zaletą tego rozwiązania będą na pewno koszty i wbudowany wyświetlacz. Będzie on na pewno także szybszy od analogicznego Maca mini. Mac Pro sprawdzi się w pracy nawet z setkami użytkowników w zależności od jego komponentów. Wydajnościowo pozostawia on w tyle komputery typu Mac mini oraz iMac. Może posiadać 12 rdzeni procesora, 4 łatwo wymienialne dyski twarde, dwa szybkie porty sieciowe, trzy dodatkowe sloty na karty sieciowe, a przede wszystkim aż 64GB pamięci RAM. Komputery klasy Xserve przestały być produkowane wraz z styczniem 2011 roku, jednak wciąż są ciekawą propozycją, ponieważ są to prawdziwe serwery, które można montować w 19“ szafach.

3. Podstawy sieci komputerowych

3.1. Wstęp i podstawowe pojęcia

Sieć komputerowa to zbiór komputerów oraz innych urządzeń, które są połączone ze sobą za pomocą odpowiedniego medium transmisyjnego. Jej przeznaczeniem jest ułatwienie komunikacji pomiędzy użytkownikami sieci.

Sieć komputerowa może służyć do:

wymiany

danych pomiędzy jej użytkownikami;

ułatwienia

komunikacji

między ludźmi (za pomocą programów komputerowych, a także usług sieciowych);

udostępniania zasobów

logicznych

(pliki i foldery);

udostępniania zasobów sprzętowych (drukarka, pamięci

masowe

oraz inne urządzenia peryferyjne);

rozpowszechniania

Wolnego i Otwartego Oprogramowania.

Składniki sieci komputerowej:

Hosty

– komputery, dzięki którym użytkownicy mają możliwość

korzystania

z sieci,

Serwery

wydajne

komputery, które mają dużą moc obliczeniową i są stale włączone,

Medium transmisyjne

– nośniki informacji, pełniące funkcję kanału

komunikacyjnego, czyli

głównie kable oraz fale radiowe,

Sprzęt sieciowy

wszelkiego

rodzaju routery, access pointy, przełączniki, modemy, koncentratory,

Software

– aplikacje, które są

zainstalowane

na serwerach, hostach oraz urządzeniach sieciowych.

Serwer – wydzielony komputer, na którym znajduje się odpowiednie oprogramowanie sieciowe oraz zasoby jak na przykład aplikacje, pliki, dyski, drukarki. Służy on do zarządzania zasobami sieci, czuwa nad prawidłowym korzystaniem z zasobów, wykonuje określone zadania dla użytkowników. Istnieje podział serwerów ze względu na ich zastosowanie:

Serwer sieciowy

– wspólne

korzystanie

z zasobów sieci,

Serwer baz danych

– wspólne

korzystanie

z baz danych,

Serwer WWW

– wspólne

korzystanie

ze stron internetowych,

Serwer FTP

– wspólne

korzystanie

z usług pobierania plików,

Serwer wydruku

– wspólne

korzystanie

z drukarek,

Serwer aplikacji

– wspólne

korzystanie

z programów.

Grupa robocza – grupa użytkowników sieci, która ma dla siebie zdefiniowana zasoby programowe oraz sprzętowe. W obrębie sieci takich grup może istnieć wiele.

Karta sieciowa (NIC) – karta rozszerzenia, która służy do przekształcania pakietów danych w sygnały, które są przesyłane w sieci. Pracują w określonym standardzie na przykład Ethernet, FDDI, Token Ring itp. Dla większości standardów karta sieciowa posiada swój własny, unikatowy adres fizyczny zwany adresem MAC, adres ten jest przyporządkowywany karcie przez producenta w momencie jej produkcji. Karta sieciowa nie może działać w kilku standardach jednocześnie. Jeśli chodzi o typy kart sieciowych to można je podzielić na PCI, MCMCIA i USB.

Hub (Koncentrator) – to urządzenie łączące wiele urządzeń sieciowych. Koncentrator pracuje w pierwszej warstwie modelu ISO/OSI (fizycznej), gdzie przesyła sygnał z jednego portu na wszystkie pozostałe. Koncentrator powtarza każdy sygnał elektroniczny. Jest on najczęściej podłączany do routera spełniając rolę rozgałęziacza, do którego podłączane są pozostałe urządzenia sieciowe: serwery, stacje robocze, drukarki sieciowe itp.

Switch (przełącznik, komutator) – czyli urządzenie, które łączy segmenty sieci komputerowej pracujące zwykle w drugiej warstwie modelu ISO/OSI (warstwa łącza danych).

Router (trasownik) – to urządzenie sieciowe, które pracuje w trzeciej warstwie modelu OSI. Łączy on różne sieci komputerowe, pełniąc rolę węzła komunikacyjnego. Jest w stanie przekazać pakiety z dołączonej do siebie sieci źródłowej do docelowej na podstawie informacji, które są zawarte w pakietach TCP/IP, rozróżniając ją spośród wielu dołączonych do siebie sieci. Taki proces kierowania ruchem nazywa się trasowaniem lub routingiem.

Repeater – urządzenie służące do regeneracji sygnału. Repeatery działają w warstwie pierwszej modelu ISO/OSI (warstwie fizycznej).

Bridge – to urządzenie, które koordynuje przesyłanie pakietów pomiędzy komputerami, decyduje gdzie zostaną przesłane dane, które do niego docierają, dobierając właściwą trasę i optymalizując ją pod kątem jak najsprawniejszego przesyłu danych. Pracuje na warstwie łącza danych modelu ISO/OSI.

Internet – ogólnoświatowa sieć komputerowa, która jest także określana jako sieć sieci.

Administrator – informatyk, który zajmuje się zarządzaniem systemem informatycznym, odpowiada za jego sprawne działanie. Wyróżnić można administratorów:

Systemów operacyjnych

Baz

danych

Siec

i

Serwerów

Usług

typu

fora dyskusyjne, czaty itp.

Adres IP – liczba, która jest nadawana interfejsowi sieciowemu, grupie interfejsów lub całej sieci komputerowej opartej na protokole IP, służąca do identyfikacji elementów warstwy trzeciej modeli ISO/OSI w obrębie sieci oraz poza nią (tzw. publiczny adres IP).

Wi-Fi – zestaw standardów stworzonych do budowy bezprzewodowych sieci komputerowych. Wi-Fi bazuje na takich protokołach warstwy fizycznej, jak:

DSSS (ang. Direct Sequence Spread Spectrum),

FHSS (ang. Frequency Hopping Spread Spectrum),

OFDM (ang. Orthogonal Frequency-Division Multiplexing).

Szczególnym zastosowaniem Wi-Fi jest budowanie sieci lokalnych opartych na komunikacji radiowej WLAN. Jest obecnie wykorzystywane do budowania rozległych sieci WAN. Dostawcy usług internetowych umożliwiają użytkownikom wyposażonym w przenośne urządzenia zgodne z Wi-Fi na bezprzewodowy dostęp do sieci. Można wyróżnić następujące standardy:

802.11a

802.11b

802.11g

802.11n

Ethernet – to technologia, w której zawarte zostały standardy, które wykorzystywane są w budowie głównie lokalnych sieci komputerowych. Obejmuje ona specyfikację przewodów, a także przesyłanych nimi sygnałów. Opisuje także format ramek oraz protokoły dwóch najniższych warstw modelu OSI. Jest najpopularniejszym standardem w sieciach lokalnych.

3.2. Topologie sieci i podział sieci

Topologia sieci komputerowej – fizyczny układ sieci, połączenie oraz rozmieszczenie elementów. Topologią nazywa się też metody wysyłania i odczytu danych stosowane w poszczególnych węzłach sieci.

Topologia fizyczna – opisuje realizację sieci komputerowej, układu przewodów, medium transmisyjnych ze strony fizycznej. Topologia fizyczna poza połączeniem fizycznych hostów i ustalaniem standardu komunikacji zapewnia bezbłędną transmisję danych. Jest ściśle powiązana z topologią logiczną.

Topologia logiczna – opisuje sposoby komunikacji hostów za pomocą urządzeń topologii fizycznej.

Można wyróżnić następujące topologie fizyczne:

Gwiazda (Star network)-

sposób połączenia komputerów w sieci, który polega na tym, że koncentrator (hub) lub przełącznik (switch) znajduje się w centralnym punkcie sieci, łącząc kable sieciowe w jednym wspólnym punkcie. Większość zasobów w sieci tego typu znajduje się na serwerze przetwarzającym dane i zarządzającym siecią. Pozostałe elementy sieci korzystają z zasobów gromadzonych na serwerze, ponieważ same zazwyczaj mają niewielkie możliwości obliczeniowe. Zadaniem koncentratora jest także rozsyłanie sygnałów oraz wykrywanie kolizji w sieci. Zaletami tej sieci jest to, że można osiągnąć większą przepustowość, jest bardziej wydajna, awaria jednego komputera w sieci nie ma wpływu na funkcjonowanie sieci, a także to, że łatwo jest zlokalizować wszelkiego rodzaju usterki. Łatwo można także rozbudować taką sieć. Wadą jest jednak fakt, że jeśli w sieci mamy dużo komputerów, wiąże się z dużym zużyciem kabli, a co za tym idzie taka sieć jest droga w implementacji.

Gwiazda rozszerzona

, czyli topologia rozgałęzionej gwiazdy opiera się na topologii gwiazdy. Każde z urządzeń końcowych działa jako urządzenie centralne dla własnej topologii gwiazdy, inaczej można powiedzieć, że w tej topologii połączone są ze sobą pojedyncze gwiazdy za pomocą koncentratorów lub przełączników. Taka rozszerzona gwiazda ma charakter hierarchiczny i można ją skonfigurować tak, aby ruch pozostawał lokalny. Taką topologię można wdrożyć gdy rozbudowywana jest sieć lokalna, której obszar ma być większy niż pozwala na to topologia gwiazdy. Zaletą takiego rozwiązania na pewno jest to, że stosowane są tu krótsze przewody, a także ogranicza ilość urządzeń, które muszą być podłączone do węzła centralnego. Często jest ona stosowana w dużych instytucjach. Tak naprawdę jedyną i największą wadą jest fakt, iż takie rozwiązanie jest drogie, głównie przez duży koszt urządzeń.

Pierścień (Ring)

– w tej topologii komputery łączone są w zamkniętym układzie przy pomocy jednego nośnika informacji. Okablowanie tworzy zamknięty krąg – nie ma żadnych zakończeń. W tej topologii sygnał wędruje od komputera do komputera, a metoda transmisji to tzw. przekazywanie żetonu. Każda sieć posiada jeden taki żeton, który jest określoną sekwencją bitów, które zawierają informację kontrolną. Każdy z komputerów przekazuje pakiet dalej do momentu, aż nie zostanie odnaleziony komputer, do którego zaadresowany jest pakiet. Po odebraniu pakietu komputer przesyła komunikat do nadawcy o odebraniu danych. Po weryfikacji zostaje przesłany do sieci nowy żeton. Zaletą jest niski koszt budowy takiej sieci ze względu na niewielkie zużycie przewodów. Niestety taka sieć posiada więcej wad niż zalet. Dużą wadą takiego rozwiązania jest to, że uszkodzenie dowolnego elementu sieci powoduje przerwanie pracy sieci. Przez taką budowę trudna jest diagnostyka oraz naprawa sieci. Przebudowa lub rozbudowa sieci są niemal niemożliwe. Jeśli kilka komputerów w sieci nadaje w jednym momencie informacje może to prowadzić do zatorów. Fakt, że komputery pośredniczą w przesyłaniu danych sprawia iż informacje mogą zostać przechwycone przez dowolny, a co za tym idzie ten rodzaj sieci nie jest bezpieczny.

Podwójny pierścień (Dual Ring)

– składa się z dwóch pierścieni, które nie są ze sobą połączone. Wyróżnia się od topologii pierścienia tym, że posiada drugi zapasowy pierścień łączący te same urządzenia w sieci. Wzrasta więc wydajność takiej sieci. Wady są identyczne jak te omówione przy topologii pierścienia.

Magistrala (Szyna)

– wszystkie elementy w takiej sieci podłączone są do wspólnej magistrali, którą zazwyczaj jest kabel koncentryczny. Sieć składa się z jednego kabla, do którego pojedyncze urządzenia (hosty, serwery) są podłączane za pomocą trójników oraz łączy BNC. Na obu końcach kabla powinien znaleźć się opornik, który zwany jest także terminatorem, który „pochłania” impuls, dzięki czemu zapobiega zapchania łącza. Sygnał, który jest nadawany przez jedną stację w sieci jest odbierany przez wszystkie stacje, jednak tylko stacja do której jest on adresowany potrafi go otworzyć. Zaletami są małe zużycie kabla, prosta instalacja sieci, a także to, że nie potrzebne są dodatkowe urządzenia jak na przykład switch czy koncentrator. Awaria jednej stacji roboczej nie unieruchamia całej sieci. Wadami są trudna lokalizacja usterek, trudna naprawa sieci, niskie bezpieczeństwo, a także fakt iż w danej chwili może odbywać się tylko jedna transmisja danych. Awaria głównego kabla niestety powoduje unieruchomienie całej sieci.

Hierarchiczna (Drzewo)

– stworzona jest z wielu liniowych magistrali połączonych łańcuchowo. Magistrala początkowa podłączana jest do koncentratora, który dzieli ją na dwie lub więcej magistral za pomocą kabli koncentrycznych. Tak powstają nowe magistrale. Analogicznie tworzone są kolejne poziomy drzewa, na końcu którego znajdują się pojedyncze terminale, które są podłączane do magistral. Zaletami są łatwa konfiguracja, łatwa rozbudowa sieci, a także fakt, że uszkodzenie kabla czy komputera nie ma wpływu na działanie sieci. Wadą jest trudna diagnostyka oraz duża ilość kabli, co sprawia iż taka sieć jest droga w implementacji.

Siatka

– jest używana wtedy, gdy zapewniona jest komunikacja bez żadnych przerwań. Każdy host w takiej topologii posiada własne połączenia ze wszystkimi pozostałymi hostami. Zaletami są na pewno brak kolizji, niezawodność oraz to, że dane mogą być wysyłanie poprzez wiele ścieżek. Komputer, który doznał awarii może po prostu zostać odłączony od sieci nie wpływając nadziałanie sieci. Wadą jest skomplikowana budowa oraz wysoki koszt implementacji.

Sieci można także podzielić ze względu na obszar przez nią zajmowany. Mianowicie:

LAN (Local Area Network)

– sieć

lokalna

posiadająca najmniejszy zasięg – zasięgiem obejmuje obszar kilkuset metrów, czyli na przykład kilka sąsiednich budynków.

MAN (Metropolitan Area Network)

– sieć

miejska

obejmująca swoim zasięgiem obszar danego miasta. Nie wszystkie sieci lokalne należą do sieci miejskich.

WAN (Wide Area Network)

– rozległa sieć, o dużym zasięgu, który przekracza obszar jednego miasta (na przykład sieć, która łączy oddziały firmy w różnych krajach). Przykładem sieci WAN może być Internet mający zasięg na całej kuli ziemskiej.

3.3. Model ISO/OSI

OSI (ang. Open System Interconnection) lub Model OSI (pełna nazwa ISO OSI RM, ang. ISO OSI Reference Model – model odniesienia łączenia systemów otwartych) – jest to standard zdefiniowany przez ISO oraz ITU-T opisujący strukturę komunikacji sieciowej.

Model ISO OSI traktowany jest jako model odniesienia (wzorzec) dla większości rodzin protokołów komunikacyjnych. Podstawowym założeniem modelu jest podział systemów sieciowych na 7 warstw (ang. layers) współpracujących ze sobą w ściśle określony sposób.

Dla Internetu sformułowano uproszczony Model TCP/IP, który ma tylko 4 warstwy.

Kapsułkowanie danych

Model OSI opisuje drogę danych od aplikacji w systemie jednej stacji roboczej do aplikacji w systemie drugiej. Przed wysłaniem dane wraz z przekazywaniem do niższych warstw sieci zmieniają swój format, co nosi nazwę procesu kapsułkowania.

Na rysunku powyżej można dostrzec, że jak wraz z przenoszeniem kombinacji składającej się z nagłówka warstwy poprzedniej oraz danych w dół stacji wysyłającej (lewa strona) ulega ona kapsułkowaniu pod nagłówkiem warstwy kolejnej. W warstwie transportu dane obejmują dane właściwe oraz nagłówek segmentu, zaś w warstwie sieciowej dane prócz danych właściwych oraz nagłówka segmentu dodatkowo wzbogacane są o nagłówek sieciowy, zawierający adresy logiczne: źródłowy i docelowy. Takie adresy pozwalają na wyznaczenie drogi tych pakietów pomiędzy dwiema stacjami, które pracują w odległych sieciach. W warstwie łącza danych pakiet z poprzedniej warstwy wzbogacany jest dodatkowo o nagłówek ramki, który określa sposób w jaki dane przekazywane są przez interfejs sieciowy do sieci fizycznej. Ostatnia warstwa zwana fizyczną przekształca pakiet z poprzedniej warstwy do postaci, która pozwala przesłać informację za pomocą przewodu sieciowego lub innego nośnika. Takie dane wędrują do docelowej stacji, gdzie są ponownie przekształcane – najpierw z bitów na nagłówek tamki oraz dane pozostałe. Gdy dane wędrują do wyższych warstw to właśnie nagłówki służą do określenia w jaki sposób dane powinny zostać przekazane do wyższych warstw. W związku z tym, gdy dane dotrą do warstwy wyższej nagłówek warstwy poprzedniej jest zdejmowany.

Organizacja warstwowa

Model OSI definiuje jakie rodzaje danych i zadania mogą być przesyłane pomiędzy warstwami, zakłada istnienie warstw abstrakcji w medium transmisyjnym, oprogramowaniu oraz sprzęcie i wokół tych warstw orientuje specyficzne dla nich protokoły, usługi świadczone warstwom wyższym realizowane przez te protokoły, a także interfejsy, które umożliwiają dostęp do warstw przez procesy z innych warstw.

Warstwy wyższe

Można wyróżnić trzy warstwy wyższe, czyli warstwę aplikacji, prezentacji oraz sesji. Mają one za zadanie współpracować z oprogramowaniem, które realizuje zadania zlecane poprzez użytkownika systemu komputerowego. Tworzą one interfejs, który zezwala na komunikację z warstwami niższymi.

Warstwa aplikacji

jest warstwą najwyższą, która zajmuje się specyfikacją interfejsu, wykorzystującego aplikacje do przesyłania danych do sieci. W przypadku sieci komputerowych aplikacje są zazwyczaj procesami uruchomionymi na odległych hostach. Jeśli użytkownik posługuje się oprogramowaniem działającym w architekturze klient-serwer, zwykle po jego stronie znajduje się klient, a serwer działa na maszynie podłączonej do sieci świadczącej usługi równocześnie wielu osobom. Zarówno serwer jak i klient znajdują się w warstwie aplikacji. Komunikacja nigdy nie odbywa się bezpośrednio między tymi programami. Kiedy klient chce przesłać żądanie do serwera, przekazuje komunikat w dół do warstw niższych, które fizycznie przesyłają go do odpowiedniej maszyny, gdzie informacje ponownie wędrują w górę i są ostatecznie odbierane przez serwer.

Warstwa prezentacji

-

podczas ruchu w dół zadaniem warstwy prezentacji jest przetworzenie danych od aplikacji do postaci kanonicznej, która jest zgodna ze specyfikacją OSI-RM, dzięki czemu niższe warstwy zawsze otrzymują dane w tym samym formacie. Kiedy informacje płyną w górę, warstwa prezentacji tłumaczy format otrzymywanych danych na zgodny z wewnętrzną reprezentacją systemu docelowego. Wynika to ze zróżnicowania systemów komputerowych, które mogą w różny sposób interpretować te same dane. Dla przykładu bity w bajcie danych w niektórych procesorach są interpretowane w odwrotnej kolejności niż w innych. Warstwa ta odpowiada za kodowanie i konwersję danych oraz za kompresję / dekompresję; szyfrowanie / deszyfrowanie. Warstwa prezentacji obsługuje np. MPEG, JPG, GIF itp.

Warstwa sesji

-

otrzymuje od różnych aplikacji dane, które muszą zostać odpowiednio zsynchronizowane. Synchronizacja występuje między warstwami sesji systemu nadawcy i odbiorcy. Warstwa sesji "wie", która aplikacja łączy się z którą, dzięki czemu może zapewnić właściwy kierunek przepływu danych – nadzoruje połączenie. Wznawia je po przerwaniu.

Warstwy niższe

Najniższe warstwy zajmują się odnajdywaniem odpowiedniej drogi do celu, gdzie ma być przekazana konkretna informacja. Dzielą również dane na odpowiednie dla urządzeń sieciowych pakiety określane często skrótem PDU (Protocol Data Unit). Dodatkowo zapewniają weryfikację bezbłędności przesyłanych danych. Ważną cechą warstw dolnych jest całkowite ignorowanie sensu przesyłanych danych. Dla warstw dolnych nie istnieją aplikacje, tylko pakiety / ramki danych. Warstwy niższe to warstwa transportowa, sieciowa, łącza danych oraz fizyczna.

Warstwa transportowa

segmentuje dane oraz składa je w tzw. strumień. Warstwa ta zapewnia połączenie pomiędzy stacjami źródłową i docelową, które obejmuje całą drogę transmisji. Następuje tutaj podział danych na części, które są kolejno numerowane i wysyłane do docelowej stacji. Stacja docelowa po odebraniu segmentu wysyła potwierdzenie odbioru. W wyniku nie dotarcia któregoś z segmentów stacja docelowa ma prawo zlecić ponowną jego wysyłkę.

Warstwa sieciowa