uzyskanie przez osoby niepowołane dostępu do danych transmitowanych przez sieć lub przechowywanych na dołączonych do sieci komputerach; uzyskanie przez osoby niepowołane dostępu do innych zasobów (moc obliczeniowa komputerów itd.); utrata danych na skutek złośliwej ingerencji zewnętrznej; fałszerstwo danych (np. poprzez podszycie się pod innego nadawcę w poczcie elektronicznej). Większość zagrożeń sieciowych jest związana z Internetem i wypływa z niedoskonałości protokołu TCP/IP. Do tego dochodzi jeszcze niechlujstwo dostawców systemów operacyjnych i popularnego oprogramowania. Przerzucają oni kosztowne testy oprogramowania na użytkowników. Problem stał się na tyle poważny, że żaden użytkownik sieci nie może czuć się bezpiecznie. Nie można też popadać w paranoję i nie używać sieci. Jak to robić, spróbuje odpowiedzieć ten rozdział.
Robaki Robakami (ang. Worms) określa się programy podobne do wirusów, które zostały opracowane w celu szybkiego zainfekowania jak największej liczby komputerów.
Robaki rozprzestrzeniając się poprzez sieć mogą z jednego zainfekowanego komputera rozprzestrzenić się do tysięcy lub nawet milionów komputerów. Ich masowa reprodukcja powoduje ogromny ruch w sieci. W symulacjach teoretycznego robaka o nazwie Warhol Worm stwierdzono, że w ciągu kwadransa jest możliwe zarażenie nawet 9 000 000 komputerów (patrz http://www.opoka.org.pl/varia/internet/wirusy.html). Konie trojańskie Konie trojańskie lub trojany swoja nazwę wywodzą ze starożytnej Troi. Są jakby współczesną wersją drewnianego konia trojańskiego. Miejscem ich operowania jest sieć Internet. Po zainfekowaniu systemu nie czynią w nim żadnych zniszczeń tylko oczekują na polecenia z zewnątrz. W odróżnieniu od typowego wirusa ich kod zawarty jest w dwóch plikach. W jednym jest kod "wirusa", który jest instalowany na komputerze ofiary. W drugim pliku jest kod "sterownika" za pomocą, którego można sterować trojanem na komputerze ofiary. Trojan daje możliwość przejęcia kontroli nad komputerem ofiary. Zakres kontroli zależy od trojana a w zasadzie od jego twórcy. Trojan sam w sobie nie jest groźny gdyż, jego szkodliwość jest zależna od osoby, która danego trojana kontroluje. Często może się on ograniczyć do wyświetlenia głupiego komunikatu, ale nie należy wykluczać działań bardziej destrukcyjnych. Dialery Dialery są dość często wiązane z wirusami, choć nimi nie są. Są to programiki, które zmieniają ustawienia sieciowe komputera wyposażonego w modem. Duża część użytkowników łączy się do internetu wykorzystuje połączenia modemowe. Są to darmowe numery operatorów jak na przykład numer 0202122 TPSA czy też numery płatne, gdzie użytkownik otrzymuje jakiś dodatkowy zestaw usług. Dialer dokonuje zmiany numeru telefonu, za pomocą którego jest realizowany dostęp do Internetu na inny numer. Najczęściej jest to numer telefonu typu 0-700 gdzie opłata za wynosi kilka złotych za minutę. Operatorzy tych numerów mają podpisane umowy na dzielenie zysków z operatorami telekomunikacyjnymi. Oferują oni najczęściej dostęp do płatnych serwisów pornograficznych. Problem z dialerami jest taki, że są one instalowane na komputerach w sposób podstępny, przypominający działanie wirusów. Skutkami działania dialerów zagrożone są głównie komputery korzystające z połączeń modemowych. Problem stał się na tyle poważny, że niektóre programy antywirusowe są wyposażane w możliwości wykrywania i usuwania dialerów.
Choć poczta elektroniczna jest jedną z głównych dróg przenoszenia wirusów w sieci, to nie jest jedyną. Praktycznie każda z usług sieciowych może być wykorzystana przez wirusy. Powstają więc narzędzia, które mają usprawnić ochronę antywirusową. Ograniczają się one jednak do najbardziej popularnych usług, jak na przykład serwisy www. Dostępne są też narzędzia, które - po zinstalowaniu w sieci - potrafią przeglądać i analizować dane zanim trafią do komputera klienta. Tego typu rozwiązania stosują najczęściej firmy, których sieci są dołączone do Internetu. Oprócz możliwości blokowania dostępu wirusom, interesująca jest też możliwość blokowania innych niechcianych treści, jak strony serwisów erotycznych. Podobne rozwiązania mogli by wprowadzić operatorzy oferujący dostęp do Internetu indywidualnym klientom. Nie robią jednak tego, gdyż przypomina to cenzurowanie treści. Dla mniej popularnych usług raczej nie powstają specjalizowane narzędzia kontroli antywirusowej. Wynika to rachunku ekonomicznego. Usług jest bardzo dużo i zrobienie dla każdej z nich specjalizowanego narzędzia było by kosztowne, a rynek potencjalnych nabywców byłby niewielki. Taniej wychodzi blokowanie za pomocą firewali dostępu do zbędnych usług sieciowych.
fizyczne bezpieczeństwo samego serwera; zasilanie; strategię tworzenia kopii zapasowych; procedury awaryjne; zasady dostępu; ochronę sieciową.
Zasilanie w serwerowni powinno zapewnić prace serwera (serwerów) a także klimatyzacji. Powinno być także przewidziane zasilanie awaryjne całej serwerowni na wypadek awarii zasilania podstawowego. Nowoczesne komputery wymagają stałej temperatury pracy oraz stałej wilgotności. Takie warunki zapewnia klimatyzacja. Moc klimatyzacji powinna zapewnić możliwość usunięcia ciepła wytworzonego przez pracujące urządzenia. Zabezpieczenia antywłamaniowe: Jeśli serwery nam się nie spalą, to mogą stać się łupem złodziei. Najbardziej popularne są włamania i wykradanie danych poprzez sieć, ale nie należy wykluczyć próby kradzieży całych serwerów lub przynajmniej dysków twardych z danymi. Czasami jest to znacznie prostsze, niż włamanie poprzez sieć. Ważnym aspektem lokalizacji serwerowni oraz jej wyposażenia, a co za tym idzie bezpieczeństwa danych, jest zapewnienie odporności na swojego rodzaju klęski żywiołowe oraz zdarzenia przypadkowe, jak: wybijanie studzienek, przeciekanie dachu, awarie instalacji wodno-kanalizacyjnych i ciepłowniczych Firma musi mieć jasne i określone procedury opisujące zasady dostępu, zarówno do centrów danych znajdujących się w jej posiadaniu jak i do samych danych.
Pliki zgromadzone w systemie mogą ulec niepożądanym zmianom. Zmiany te mogą być np. efektem włamania do serwera. Nie można całkowicie zapobiec włamaniom. Można za to zadbać, aby modyfikacje plików były możliwie szybko wykrywane. Posłużyć się można sumami kontrolnymi md5. Należy wyliczyć te sumy dla wszystkich plików krytycznych. Ważne jest aby plik z obliczonymi sumami trzymać poza serwerem - najlepiej na wymienialnym nośniku np. dyskietce. Okresowo należy dokonywać sprawdzenia sum kontrolnych plików. Dane z jakiegoś powodu mogą ulec zniszczeniu. Aby nie narazić firmy lub siebie na całkowitą utratę danych, które często stanowią podstawę działalności, należy wykonywać kopie zapasowe. Już samo wykonywanie kopii jest skomplikowanym problemem technicznym, szczególnie gdy system pracuje całodobowo. Zawartość danych w takim systemie ulega ciągłym zmianom. W praktyce, aby wykonać kopie systemu na daną chwilę należało by system odłączyć na czas wykonywania kopii. Nowe systemy operacyjne, potrafią zablokować stan plików na potrzeby wykonania kopii zapasowej bez konieczności przerywania pracy systemu. Tworzenie kopii zapasowych powinno być ściśle określone w strategii ochrony informatycznej. Nośniki, na których wykonywana jest kopia, powinny być udokumentowane i właściwie przechowywane. Może się okazać, że znacznie prościej będzie ukraść zestaw taśm, na których jest kompletna kopia systemu niż dokonać włamania do systemu poprzez sieć komputerową. Taśmy lub inne nośniki z kopiami zapasowymi nie powinny być przechowane w tym samym pomieszczeniu, w którym znajdują serwery. Jest to wygodne, ale w wypadku jakiejś katastrofy może okazać się zgubne. Najlepiej kopie zapasowe trzymać w innym budynku. Jak pokazały wydarzenia 11 września wymóg ten wcale nie jest przesadzony. System może ulec awarii i dane zostaną utracone, bądź dostęp do nich będzie niemożliwy. Na taką okoliczność należy utworzyć procedury awaryjne, które pozwolą przywrócić system do pracy. Procedury powinny być na bieżąco aktualizowane. Podnosi to koszt bieżącej obsługi systemu, bo ktoś musi nad tym czuwać, ale w przypadku awarii powinno wydatnie skrócić czas jej usuwania. Długość przerwy pracy może się w przypadku firmy przenieść na konkretne straty finansowe.
dostępności i niezawodności; integralności przechowywanych i przetwarzanych danych; poufności i autentyczności. Kiedyś za taką sieć uważało się sieć LAN (Local Area Network). Sieci LAN były małe, obejmowały jedno piętro lub budynek. Dzisiaj sieć może obejmować wiele budynków na różnych krańcach świata. Sieci LAN budują firmy dla własnych potrzeb, powstają w sieciach osiedlowych. Różne są cele budowy tych sieci. Firmom służą one do wsparcia działalności biznesowej, a sieci osiedlowe mogą służyć ich użytkownikom do zabawy. Sieć jest tak bezpieczna, jak bezpieczne są komputery przyłączone do niej. W przypadku firmy może istnieć centralna polityka określająca co na komputerze w sieci LAN może być zainstalowane, a co nie powinno być. Inaczej jest w sieci osiedlowej. Pracują tam prywatne komputery i ich właściciele decydują co na nich jest. Sieć LAN to nie tylko komputery i ich oprogramowanie; to także urządzenia, które posłużyły do jej zbudowania. Obecnie do budowy sieci LAN wykorzystuje się urządzenia pracujące w standardzie Ethernet. Standard ten oferuje szereg rozwiązań, które mogą podnieść bezpieczeństwo sieci LAN.
Sieć LAN to komputery oraz urządzenia realizujące transmisje danych. Pomiędzy urządzeniami a komputerami musi być zrealizowane połączenie. Obecnie w sieciach LAN do budowy połączeń wykorzystuje się kable miedziane, światłowody oraz radio. Każda z tych technik niesie ze sobą określone zagrożenia. Kabel koncentryczny. Za pomocą tego typu kabli budowano sieci w topologii szyny. Najczęściej używanym kablem był kabel RG 58. Poszczególne stacje są oddalone co najmniej 2,5 metra (liczonego po kablu). Maksymalna długość kabla wynosi 185 metrów. Sposób budowy sieci w oparciu o kable koncentryczne powoduje poważne niebezpieczeństwo. Każda stacja podłączona do kabla otrzymuje wszystkie pakiety, które pojawiają się na kablu. Wystarczy więc przejąć jeden z komputerów i za pomocą oprogramowania typu sniffer można podsłuchiwać dowolną transmisje danych. Dodatkowym niebezpieczeństwem jest konieczność wykonania dobrego uziemienia kabla. W warunkach polskich jest to trudne do uzyskania. Ponieważ kabel taki łączy komputery przyłączone do różnych faz zasilania, możliwe jest pojawienia się przepięć. Mogą prowadzić one do uszkodzeń sprzętu, jak również mogą stanowić zagrożenie dla osób pracujących przy komputerach. Skrętka kategorii 5 i 5+ Za pomocą tego typu kabli buduję się obecnie większość okablowania strukturalnego. Sieć LAN zbudowana jest wtedy w topologii gwiazdy. W środku gwiazdy ulokowane są urządzenia aktywne. Ponieważ połączenia są typu komputer - urządzenie, to o danych transmitowanych do komputera decydują urządzenia aktywne. Istnieje także możliwość podsłuchu, co jest transmitowane w kablu, za pomocą specjalistycznych urządzeń.
Huby - jeszcze parę lat temu podstawowym urządzeniem sieci LAN był hub. Działanie huba jest proste. Pakiety otrzymane na jednym porcie wysyła do innych. Oznacza to, że każdy komputer podłączony do huba otrzymuje cały ruch przez niego przechodzący. Wystarczy więc, aby ofiarą włamywaczy stał się jeden z komputerów, a po zainstalowaniu programu typu sniffer będą mieli wgląd do całej sieci. Niektóre huby miały możliwość zdalnego zarządzania. Może to stanowić potencjalne niebezpieczeństwo, gdyż bardzo często pozostawione są domyślne hasła. Grozi to przejęciem kontroli nad urządzeniem poprzez nieuprawnione osoby. Ponieważ huby mają dość ubogie możliwości związane z zarządzaniem, to stopień zagrożenia nie jest wysoki. Może się jednak zdarzyć że złośliwy włamywacz wyłączy część lub wszystkie porty na hubie, co spowoduje przerwę w pracy sieci. Przełączniki - są to obecnie podstawowe urządzeniami wykorzystywane do budowy sieci LAN. Przełączniki uczą się adresów MAC urządzeń przyłączonych do ich poszczególnych portów. Pozwala im to na efektywne kierowanie pakietów. Otrzymany pakiet przełącznik wysyła wyłącznie do urządzenia, które ma go otrzymać. Utrudnia to możliwość podsłuchiwania, co się dzieje w sieci, przez dowolny komputer pracujący w tej sieci. Przełączniki można podzielić na dwie grupy: zarządzalne i niezarządzalne. Przełączniki niezarządzalne, jak sama nazwa wskazuje, nie mają możliwości zarządzania. Przenoszą tylko ruch w sieci. Przełączniki zarządzalne pozwalają na ustawienie różnych opcji zależnych od możliwości przełącznika. Najczęściej możliwe jest podzielenie przełącznika na VLAN-y oraz zbieranie statystyk ruchu z poszczególnych portów. W części przełączników możliwe jest mirrorowanie ruchu jednego portu na drugi. Opcja ta może być wykorzystana przez potencjalnego włamywacza do podsłuchania ruchu wybranego komputera. Aby temu zapobiec należy zadbać o bezpieczeństwo urządzeń. Powinny mieć one pozmieniane domyślne hasła i ustawienia protokołu SNMP.
Linie telefoniczne Linie telefoniczne nie oferują dużego pasma transmisji. Pozwalają na realizację krótkich łączy rzędu kilometrów. Linie tego typu nie oferują wysokiego poziomu bezpieczeństwa. Można je w stosunkowo prosty sposób podsłuchiwać. Wystarczy zainstalować podsłuch obok linii gdzieś na trasie jej przebiegu. Podsłuchy tego typu nie należą do kosztownych. Wykrycie tego typu podsłuchu może być bardzo trudne, a zatrudnienie ochrony do strzeżenia linii bardzo kosztowne. Aby realizować bezpieczną transmisje poprzez tego typu linie należy posłużyć się technikami kryptograficznymi - szyfrować dane. Linie światłowodowe Linie światłowodowe zapewniają duże pasmo transmisji na bardzo duże odległości. Same w sobie zapewniają wysoki poziom bezpieczeństwa. Jest je dość trudno podsłuchać. Do niedawna nie było to w ogólne możliwe. Są one jednak dość kosztowne. Budowa tego typu linii lub ich dzierżawa może być zbyt kosztowna dla pojedynczej firmy. Ponadto w warunkach polskich coraz trudniej otrzymać dzierżawę takich linii. Kanały cyfrowe Kanały cyfrowe zapewniają określoną przepływność pomiędzy dwoma punktami. Kanały może zestawić operator telekomunikacyjny. Generalnie są dwa typy kanałów: kanały cyfrowe zestawione dla potrzeb transmisji danych realizowane w technikach Frame Relay i ATM oraz kanały zestawiane dla potrzeb transmisji głosu. Niezależnie od wyboru typu kanału, jego bezpieczeństwo jest zależne od operatora, od którego kanał jest dzierżawiony. W zasadzie najlepiej jest założyć, że kanał nie jest bezpieczny i dla podniesienia bezpieczeństwa danych transmitowanych poprzez kanał cyfrowy należy je szyfrować. Linie napowietrzne Obecnie na rynku dostępna jest szeroka gama urządzeń pozwalających na zrealizowanie bezprzewodowej transmisji danych. Bezpieczeństwo tych rozwiązań jest zależne od użytych technik. Jeśli transmisja będzie realizowana za pomocą technik laserowych, to jest szansa na ograniczenie możliwości podsłuchu. W przypadku technik radiowych ograniczenie możliwości podsłuchu jest bardzo trudne ze względu na rozproszenie wiązki. W zasadzie, aby uniknąć kłopotów należy transmitowane dane szyfrować.
Skanowanie sieci - jest to atak, który nie do końca jest atakiem. Skanowanie sieci pozwala atakującemu wykryć włączone komputery i urządzenia sieciowe. W zależności od rodzaju skanu możliwe jest też wykrycie otwartych portów TCP/UDP, co pozwala potencjalnemu napastnikowi określić, które usługi są aktywne. Skanowanie sieci można przyrównać do wykonywania zwiadu przed decydującym atakiem; Fałszowanie adresu (ang. adress spoofing) - jest to atak, w którym sfałszowany zostaje adres nadawcy. Zamiast orginalnego adresu wstawiany jest adres z wewnętrznej sieci. Atak ten pozwala na oszukanie prostych filtrów ochronnych opartych na adresach; Routing źródłowy (ang. Source Routing) - w protokole TCP/IP można podać trasę, przez jaką ma przejść pakiet, aby dotrzeć do miejsca docelowego. Ponieważ możliwość ta bardzo rzadko jest wykorzystywana, to większość urządzeń sieciowych ignoruje pakiety ze znacznikami routingu źródłowego co uniemożliwia różnorodne ataki; Denial of Service - atak polegający na wysyłaniu serii pakietów IP, który powoduje spowolnienie lub zaprzestanie pracy usługi, do której pakiety są wysyłane. Odmiana ataku Distributed Denial of Service (DDOS) jest wykonywana z wielu komputerów równocześnie. Przejęcie sesji - atak polegający na przejęciu przez osobę nieuprawnioną (hackera)sesji użytkownika. Od momentu przejęcia sesji hacker uzyskuje dostęp do zasobów z uprawnieniami osoby, której sesje zawłaszczył; Przepełnienie bufora - atak polegający na wykorzystaniu niedoskonałości stosu TCP/IP implementowanego w urządzeniach sieciowych. Odpowiednio spreparowany zestaw pakietów jest w stanie przepełnić bufor w stosie, co najczęściej prowadzi do odcięcia urządzenia od sieci. Efektem dodatkowym może być reset urządzenia. Przed częścią z tych ataków można się uchronić, jeśli wykorzysta się możliwości urządzeń, które przenoszą ruch pakietów IP.
Mimo, że przyjmuje się, że firewall broni dostępu z zewnątrz do chronionej sieci, to jednak równie dobrze może blokować dostęp na zewnątrz sieci. Ta właściwość pozwala na określenie, jakie usługi mogą być udostępniane z sieci LAN. Te możliwości techniczne firewalla pozwalają na zbudowanie polityki dostępu, która zawiera co ma być z chronionej sieci dostępne na zewnątrz jak również co z zewnątrz jest dostępne w sieci. Na firewallach integruje się także szereg innych usług. Firewalle są obecnie bramami VPN, pozwalają autoryzować użytkowników oraz logować zdarzenia. Potrafią także przekierowywać ruch z niektórych usług. Przykładem może być poczta elektroniczna. Bardzo często firewall przekierowuje ruch z poczty elektronicznej do specjalnego hosta, na którym działa skaner antywirusowy lub filtr antyspamowy. Pozwala to lepiej chronić sieć. Firewalle potrafią także realizować usługi związane z translacją adresów. Ponieważ adresów IP zaczyna brakować to w sieciach LAN, powszechne się stało używanie adresów prywatnych (klasy 172.16.0.0 - 172.31.255.255, 10.0.0.0 - 10.255.255.255, 192.168.0.0 - 192.168.255.255). Aby jednak możliwy był dostęp z sieci LAN wykorzystującej prywatną pulę adresów, stosuje się techniki NAT ( ang. Network Address Translation) oraz PAT (ang. Port Adress Translation). Pozwalają one komputerom z niepublicznymi adresami IP korzystać z Internetu. Użycie prywatnych adresów w sieci LAN podnosi jej bezpieczeństwo. Niemożliwe jest bowiem dostanie się z Internetu do dowolnego komputera. Zagrożone są wyłącznie komputery, które w jakiś sposób są widoczne w sieci Internet.
sieciowe; systemowe. IDS sieciowy (ang. network-based) bazuje na badaniu ruchu sieciowego. IDS pracuje podobnie jak sniffer. Pobiera z sieci pakiety (na poziomie warstwy fizycznej) poprzez adapter (kartę) sieciowy ustawiony w trybie pasywnym promiscous. Tryb ten umożliwia przechwytywanie wszystkich pakietów podróżujących w danym segmencie sieciowym. W przypadku gdy IDS zostanie podłączony podłączony do przełącznika to na port, do którego jest przyłączony, musi być kopiowany ruch z portu, który ma być nadzorowany. Najczęściej w ten sposób nadzorowany jest port, poprzez który odbywa się transmisja danych z siecią zewnętrzną. Przechwycone pakiety są następnie poddawane analizie w czasie rzeczywistym. Wymaga to sporych mocy obliczeniowych od urządzenia realizującego analizę. Przechwycone pakiety mogą być analizowane pod kątem: dopasowywanie wzorców - dopasowywane są pakiety jak i ich zawartość, która jest porównywana z bazą sygnatur; badanie częstości zdarzeń i przekraczania ustalonych limitów ich ilości; wykrywania odstępstw od standardów RFC określających działanie protokołów; wykrywania korelacji pomiędzy pomniejszymi zdarzeniami; wykrywania anomalii statystycznych. Najczęściej realizowane jest dopasowywanie wzorców, gdyż jest to technicznie najłatwiejsze w realizacji. Podobnie ma się z wykrywaniem odstępstw od definicji protokołów. Określenie limitów zdarzeń wymaga sporej wiedzy od administratora. Pewne nietypowe zachowania sieci nie muszą oznaczać zagrożenia, a mogą być tylko specyfiką jej funkcjonowania. Tak samo ma się rzecz z wykrywaniem anomalii statystycznych oraz korealacji pomiędzy zdarzeniami. W razie wykrycia ataku system IDS może wykonać jedną ze zdefiniowanych przez administratora akcji. Może to być: e-mail do administratora z informacją o zdarzeniu; aktualizacja filtrów na routerze, która powoduje blokadę dalszego ataku; aktualizacja filtrów na firewallu, która powoduje blokadę dalszego ataku. Wykrywanie zdarzeń w trybie rzeczywistym oraz możliwość aktualizacji filtrów pozwala na bardzo szybką automatyczną reakcję. Niestety, możliwe staje się wtedy przeprowadzenie takiego ataku, po którym automatycznie ustawione filtry odetną możliwość funkcjonowania niektórym pożądanym usługom. IDS systemowy (określany czasami Host IDS) jest instalowany na chronionych komputerach. Podstawowym zadaniem takiego IDS-a jest wykrywanie nietypowych zachowań w obrębie komputera. Mniej istotne jest źródło ich pochodzenia. Analizie poddawana jest komunikacja między wybranymi procesami, kontrolowana jest integralność kluczowych plików systemowych oraz analizowane są logi. W wypadku wykrycia niepożądanych zdarzeń o ich wystąpieniu informowany jest administrator sieci lub użytkownik komputera. Działanie tego typu systemów IDS jest ściśle związane z systemami operacyjnymi komputerów, na których te systemy pracują. Bardzo często możliwa jest też analiza ruchu sieciowego wchodzącego do komputera. Ma to tę zaletę, że wykrywa to zdarzenia wewnątrz sieci LAN, które nie mogą być nadzorowane przez sieciowy IDS. Wymaga to jednak rezerwy mocy komputera, na którym ten system ma pracować.
Szyfr - jest to algorytm oraz klucz. Algorytm to umowny sposób zamiany tekstu jawnego na tekst zaszyfrowany. Algorytm określa przekształcenie, które zostanie wykonane przy użyciu klucza. Ilustruje to następujący przykład algorytmu: bierzemy znak tekstu, odszukujemy go w tekście gazety. Zliczamy, który to jest znak i zamieniamy na numer jego wystąpienia. Kluczem, który zostanie użyty do szyfrowania będzie gazeta. Jak widać algorytm jest prosty i każdy może go poznać, ale aby zaszyfrować i odszyfrować tekst potrzebne jest te same wydanie gazety. W technice cyfrowej mamy do czynienia z bitami. Kluczem najczęściej jest jakaś liczba losowa o określonej długości. Najczęściej spotykane wartości to 40, 64, 128, 512 lub 1024 bity. Można przyjąć, że im dłuższy klucz, tym zaszyfrowana wiadomość jest trudniejsza do odczytania przez osoby nieupoważnione. Funkcja skrótu - tworzy unikalną dla danej wiadomości sumę kontrolną. Wiadomość może mieć dowolną długość, funkcja skrótu wygeneruje zawsze liczbę o ustalonej długości (np. 126 lub 160 bitów). Funkcja skrótu uzyskana bezpiecznym algorytmem (SHA-1) ma dwie bardzo ważne własności: każda zmiana w wiadomości (nawet jednego bitu) powoduje nieprzewidywalną zmianę wartości skrótu oraz praktycznie niemożliwe jest obliczenie oryginalnej wiadomości na podstawie jej skrótu (jednokierunkowość). Dodatkowo żadne dwie różne wiadomości nie "wygenerują" takiej samej wartości funkcji skrótu (bezkolizyjność). Funkcje skrótu są wykorzystywane przy sprawdzaniu zachowywania integralności przesyłanych danych. Szyfr symetryczny - szyfr z jednym kluczem. Bezpieczeństwo wiadomości w systemie symetrycznym opiera się na utrzymaniu w tajemnicy klucza służącego jednocześnie do szyfrowania, jak i do rozszyfrowywania przesyłanej wiadomości. W idealnym przypadku klucz powinny znać tylko dwie osoby: nadawca i odbiorca. Szyfr asymetryczny powstał w wyniku prac matematycznych nad teorią liczb i funkcji asymetrycznych, czyli takich, które łatwo obliczyć (zakodować), ale bardzo trudno obliczyć ich funkcją odwrotną (złamać kod). W efekcie złamanie kodu asymetrycznego o dostatecznej długości kluczy może wymagać pracy najsilniejszych komputerów świata przez setki lat. W praktyce, szyfr asymetryczny to szyfr z parą kluczy: prywatnym (znanym tylko jego właścicielowi) i publicznym (dostępnym dla każdego), obydwa klucze są ze sobą powiązane matematycznie. Wiadomość zaszyfrowana jednym z kluczy (publicznym) może być rozszyfrowana tylko drugim (prywatnym), co pozwala na bezpieczną korespondencję w kierunku "świat zewnętrzny" - właściciel klucza prywatnego. W przypadku podpisu cyfrowego następuje zamiana: nadawca szyfruje skrót wiadomości kluczem prywatnym, a każda zainteresowana osoba może go zweryfikować kluczem publicznym.
prywatność - dane transmitowane przy użyciu protokołu SSL są szyfrowane; potwierdzenie tożsamości serwera za pomocą certyfikatów cyfrowych, co utrudnia możliwość podszycia się pod serwer; integralność przesyłanych danych przy użyciu sum kontrolnych - utrudnia to dokonanie wandalizmu na transmitowanych danych. SSL pierwotnie został opracowany do zabezpieczenia transmisji pomiędzy serwerem, a przeglądarka WWW. Pierwszą przeglądarką, która posiadała wsparcie dla SSL była przeglądarka firmy Netscape. Ponieważ na stosie protokołów TCP/IP warstwa SSL znajduję się pomiędzy warstwą aplikacji a warstwą transportową, to możliwe jest wykorzystanie protokołu SSL dla różnych aplikacji. Umieszczenie SSL nad stosem TCP/IP pozwala wykorzystać istniejące internetowe standardy bez konieczności ustawienia SSL jako protokołu aplikacji. SSL jest obecnie wykorzystywany przez wiele aplikacji, jak telnet czy ftp.
klient wysyła komunikat Client.Hello zawierający informacje o kliencie oraz klucz publiczny (najczęściej generowany w czasie instalacji); serwer analizuje dane. Jeśli wersja SSL oraz mechanizmy szyfrowania się zgadzają, odsyła zaszyfrowany kluczem publicznym klienta komunikat Server.Hello. W odpowiedzi znajduje się klucz publiczny serwera; klient po otrzymaniu odpowiedzi odsyła komunikat zawierający żądanie przesłania klucza sesji. Komunikat jest zaszyfrowany za pomocą klucza publicznego serwera; po otrzymaniu komunikatu od klienta serwer odsyła zaszyfrowany kluczem publicznym klienta klucz sesji, który będzie wykorzystany do transmisji danych. Ten sposób przekazywania klucza jest wykorzystywany nie tylko przez SSLa. Można go spotkać także w innych technikach kryptograficznych używanych w Internecie.
Koncepcja VPN VPN - (wirtualne sieci prywatne) jest rozszerzeniem prywatnej sieci LAN najczęściej chronionej firewallem na wybrane komputery znajdujące się w sieci publicznej. Osiągane jest to za pomocą dwukierunkowych kanałów służących transmisji danych przez sieci publiczne (najczęściej Internet) z zachowaniem bezpieczeństwa przesyłanych danych. Podczas transmisji poprzez kanał dane są szyfrowane, dzięki czemu nawet po ich przechwyceniu przez niepowołane osoby ich odczytanie jest bardzo utrudnione, a czasami prawie nie możliwe, gdyż proces deszyfrowania wymaga użycia odpowiedniego klucza. W ramach koncepcji VPN możliwe jest sprawdzanie tożsamości zdalnego użytkownika poprzez uwierzytelnianie kryptograficzne. Dodatkowo, dane są szyfrowane oraz enkapsulowane w pakietach IP, co pozwala na przeźroczyste przenoszenie danych transmitowanych w różnych protokołach. Architektura VPN Przy użyciu VPN-ów można realizować różnorodne architektury połączeń, które są najczęściej kombinacją trzech podstawowych typów: klient do klienta, klient do sieci, sieć do sieci. W przypadku transmisji typu klient do klienta możliwa jest bezpieczna wymiana danych pomiędzy dwoma komputerami. Trudno jest to kwalifikować do VPN'u, ale mogą zdarzyć się sytuacje, że taki tryb transmisji będzie potrzebny. VPN'y powstały głównie jako odpowiedź na potrzebę zapewnienia bezpiecznej transmisji danych pomiędzy użytkownikami znajdującymi się poza firmą (np. w podróży), a siecią firmy. Pierwsze standardy VPN odpowiadały właśnie tym oczekiwaniom. Okazało się, że taniej jest wykorzystywać jako platformę transmisji Internet. Połączenie do lokalnego dostawcy Internetu jest znacznie tańsze niż połączenie do siedziby firmy, która to można znajdować się nawet za granicą. Wkrótce okazało się, że budowa bezpiecznych połączeń pomiędzy oddziałami firm za pomocą dedykowanych łączy jest równie kosztowna, więc rozszerzono standardy VPN na potrzeby budowy połączeń typu sieć do sieci.
Bezpieczeństwo tuneli VPN jest ściśle związane z protokołami użytymi do ich tworzenia i szyfrowania. Obecnie dostępnych jest kilka standardów VPN. Nie są one ze sobą zgodne, należy więc zadbać o to, aby po stronie klienta i serwera były zainstalowane te same protokoły.
PPTP (Point-to-Point Tunneling Protocol) Opracowany został wspólne przez Microsoft i US Robotics, PPTP jest rozszerzeniem PPP (Point-to-Point Protocol), standardowego protokołu komunikacyjnego Internetu, używanego do asynchronicznej transmisji łączem szeregowym punkt-punkt bez ograniczania przepływności. PPP funkcjonuje w warstwie drugiej, więc połączenie PPTP, które umożliwia enkapsulację pakietów PPP, pozwala przesyłać pakiety IP, IPX i NetBEUI (NetBIOS Extended User Interface). Oprogramowanie darmowego klienta PPTP jest dostępne na większość systemów operacyjnych Microsoftu, a także na systemy Linux. W systemach MS-Windows jako protokół szyfrujący wykorzystywany jest MPPE (Microsoft Point to Point Encryption). Jest oparty na standardowym systemie kryptograficznym RSA (Rivest, Shamir, Adleman), który obsługuje szyfrowanie 40-bitowe lub 128-bitowe. Można dyskutować, czy jest to wystarczający poziom szyfrowania. L2TP (Layer 2 Tunneling Protocol) L2TP jest dziełem organizacji zajmującej się standaryzacją w Internecie IETF (Internet Engineering Task Force). Powstał poprzez połączenie PPTP oraz L2F (Layer 2 Forwarding), który to opracowała firma Cisco. L2F zaprojektowany przez Cisco Systems jest przeznaczone głównie do obsługi transmisji między routerami. Protokół L2TP, podobnie jak PPTP, pozwala na transport ramek PPP (Point-to-Point Protocol). Zaletą L2TP jest możliwość transmisji danych po sieci IP, lecz również po sieciach X.25, Frame Relay oraz ATM (Asynchronous Transfer Mode). IPSec (Internet Protocol Security) IPSec powstał z inicjatywy firmy Cisco System jest protokołem warstwy trzeciej i jak sama nazwa wskazuje zapewnia szyfrowanie na poziomie protokołu IP. IPSec tak naprawdę nie jest protokołem, tylko zbiorem otwartych standardów. W ramach standardów IPSec zdefiniowanych jest kilka nowych formatów pakietów: nagłówek autentykacyjny (authentication header AH), który zapewnia integralność przesyłanych danych, oraz obszar danych - encapsulating security payload (ESP), zapewniający dodatkowo poufność transmisji. Parametry IPSec pomiędzy dwoma urządzeniami mogą być negocjowane poprzez centralną jednostkę Internet Key Exchange (IKE, znaną wcześniej jako Internet Security Association Key Management Protocol, lub ISAKMP/Oakley). IKE używa cyfrowych certyfikatów do autoryzacji urządzenia, umożliwiając tworzenie dużych sieci wirtualnych. Możliwe jest użycie statycznie zdefiniowanych współdzielonych kluczy zamiast certyfikatów. Zastosowanie tego do dużych sieci jest raczej trudne w realizacji, gdyż dla każdego połączeniu należało by wygenerować oddzielną parę kluczy. IPSec jest zaprojektowany do bezpiecznego tworzenia tuneli przez sieć IP między ochranianymi sieciami lokalnymi, lub pomiędzy klientem a siecią chronioną. IPSec wykorzystuje w transmisji 168-bitowe szyfrowanie Triple DES, a także umożliwia szyfrowanie pakiet po pakiecie.
W trybie tunelowym oryginalny pakiet wejściowy IP jest w całości szyfrowany, stając się zawartością z danymi w nowym pakiecie IP. Tryb ten umożliwia urządzeniom sieciowym pracę jako IPSec proxy. IPSec proxy przejmuje niezaszyfrowany ruch od hostów, szyfruje go i wysyła wzdłuż tunelu IPSec. IPSec proxy na drugim końcu tunelu deszyfruje oryginalny pakiet IP i przesyła go do docelowego miejsca w systemie. Główną zaletą tego rozwiązania jest fakt, że docelowe systemy nie muszą być modyfikowane, by korzystać z usług IPSec. W trybie tunelowym prawie niemożliwe jest dokonanie analizy ruchu poprzez osoby nieuprawnione, gdyż w tym trybie można jedynie określić końce tunelu, a nie właściwego nadawcę i odbiorcę informacji. Z drugiej strony, jeśli oryginalny nagłówek IP zawierał dodatkowe informacje o jakości ruchu staną się one niewidoczne dla hostów pośredniczących w transmisji.
Aby połączenie IPSec mogło być zestawione, oba końce, które będą połączone muszą się wzajemnie autentyzować. W ramach IKE dopuszczone jest kilka sposobów uwierzytelniania. Ważne jest to że obie jednostki muszą wyrazić zgodę na wspólny protokół autentyzacyjny, który zbudują w procesie negocjacyjnym. Obecnie zaimplementowane są trzy mechanizmy autentyzacji: Pre-shared keys - takie same klucze pre-instalowane są na każdym hoście. IKE autentykuje każdy węzeł przez wysyłanie skróconych danych klucza, które zawierają klucze typu pre-shared. Public key cryptography - czyli każda strona generuje pseudo losowy numer i koduje go w kluczu publicznym drugiej strony. Digital signature (podpis elektroniczny) - każde urządzenie podpisuje cyfrowo zbiór danych i wysyła je do drugiej strony. IPSec jest obecnie dostępny w wielu urządzeniach sieciowych takich jak routery i przełączniki oraz systemach operacyjnych. Implementacje IPSec są dostępne w systemach Windows 2000, XP, Linux, FreeBSD. Nie wszystkie chcą ze sobą współpracować. Wynika to na przykład z braku wsparcia dla niektórych odmian algorytmów szyfrujących. Przykładem może być implementacja FreeSWAN na Linuxa, która nie pozwala na użycie pojedynczego DESa.
Bezpieczeństwo konta jest związane z hasłem. Hasło w większości systemów jest przechowywane w postaci zaszyfrowanej. Najczęściej do zaszyfrowania hasła są używane algorytmy jednokierunkowe. Z tekstu jawnego, jakim jest hasło, tworzą one ciąg odpowiadających mu znaków. Aby potwierdzić hasło w czasie logowania do sytemu użytkownik jest proszony o podanie swojego identyfikatora, a następnie swojego hasła. Hasło jest szyfrowane i porównywane z zaszyfrowanym hasłem przechowywanym w systemie. Jeśli weryfikacja przebiegnie prawidłowo, to użytkownik uzyskuje dostęp do przyznanych mu zasobów. Bezpieczne hasła Sposób przechowywania haseł nie pozwala na ich łatwe odczytanie. Niestety pamięć ludzka jest zawodna i jako hasło wybiera się proste w zapamiętaniu teksty. Najczęściej są to trywialne hasła typu imię żony, dziecka czy teściowej. Takie hasła jest bardzo łatwo złamać metodami słownikowymi. Z drugie strony bardziej skomplikowane hasła stają się trudne do zapamiętania. Może to prowadzić do sytuacji zapisywania haseł i naklejania ich na monitorach oraz pod spodem klawiatur. Obniża to bezpieczeństwo całego systemu, bo nie mamy pewności, że osoba, która się autoryzowała w systemie, jest osobą właściwą. Ważnym czynnikiem wpływającym na bezpieczeństwo jest długość hasła. Hasła krótkie są podatne na ataki polegające na przeszukaniu wszystkich możliwych kombinacji znaków. To nie zajmuje zbyt dużo czasu przy obecnych mocach obliczeniowych komputerów. Dodanie jednej litery powoduje wydłużenie przeszukania 24-krotnie. Obecnie, niektóre systemy unixowe nie pozwalają założyć haseł krótszych niż pięcioznakowe. Dodatkowo wśród znaków musi się pojawić co najmniej jeden lub dwa znaki nie będące literą. Zwiększa to znacząco zbiór przeszukiwania, ale także utrudnia zapamiętanie hasła. Hasła jednorazowe Nie zawsze można posłużyć się dwukrotnie tym samym hasłem. Powodów może być wiele. Jednym z nich jest brak zaufania do miejsca, z którego realizuje się połączenie do systemu. Rozwiązaniem są hasła jednorazowe. Każdemu użytkownikowi generuje się listę jednorazowych haseł. Użytkownik po użyciu hasła do zalogowania skreśla je z listy. Podczas następnego logowania musi wykorzystać następne hasło. Każde hasło można wykorzystać tylko raz. Gdy lista haseł zostanie wyczerpana, trzeba użytkownikowi stworzyć następną. Niestety, każdy użytkownik musi nosić przy sobie listę haseł i zawsze korzystać z nich w odpowiedniej kolejności. Pominięcie choćby jednego hasła z listy uniemożliwi następne logowanie. Problemem jest także dystrybucja haseł. Użytkownik musi otrzymać wydrukowaną listę haseł. Oznacza to, że musi osobiście zgłosić się do administratora lub też zestaw haseł musi być do niego wysłany listem poleconym.
Konta wymuszają na użytkownikach konieczność pamiętania haseł lub zapisywania ich w notesach. Nie jest to wygodne, a zapisywanie nie jest bezpieczne. Rozwiązaniem tego problemu mogą być metody biometrii. Kryminalistyka posługuje się od wielu lat odciskami palców. Obecnie są rozwiązania techniczne pozwalające na szybkie skanowanie odcisków palców i dokonywania na ich podstawie autoryzacji. Teoretycznie rozwiązywałoby to całkowicie problem potwierdzania tożsamości, ale zdarzają się ludzie z amputowanymi rękoma lub palcami. Możliwe jest już także podrabianie odcisków palców. Podobne możliwości oferuje badanie siatkówki oka ale jest na świecie trochę ludzi niewidomych, który utracili oczy. Pomimo tych niedogodności, metody te są stale rozwijane. Czy zastąpią hasła, trudno dziś powiedzieć. SSL i potwierdzanie tożsamości klienta SSL teoretycznie umożliwia wykupienia sobie prywatnego certyfikatu przez klienta. Certyfikat ten można stosować dla potrzeb potwierdzania tożsamości klienta. Ze względu na koszty raczej trudno jest oczekiwać, by certyfikat był masowo wykupywany przez osoby prywatne i małe firmy. Nie jest więc to metoda masowo używana, ale nie należy wykluczać możliwości jej zastosowania dla potrzeb weryfikacji użytkowników. Certyfikaty Certyfikaty można wykorzystać nie tylko w SSL-u. Ich zastosowanie może być znacznie większe. Można je wykorzystywać do szerszej weryfikacji użytkowników. Firmy mogą zredukować problem kosztów poprzez uruchomienie własnego centrum certyfikującego. Centrum takie może świadczyć usługi dla potrzeb firmy, jak i jej partnerów.
uniemożliwienie podszywanie się innych pod daną osobę (uwierzytelnienie osoby, autentyfikacja), zapewnienie wykrywalności wszelkiej zmiany w danych transakcji (integralność transakcji), zapewnienie niemożliwości wyparcia się podpisu przez autora, umożliwienie weryfikacji podpisu przez osobę niezależną.
Urzędu Rejestracji (ang. Registration Authority - RA), który dokonuje weryfikacji danych użytkownika, a następnie jego rejestracji; Urzędu Certyfikacji (ang. Certification Authority - CA), który wydaje certyfikaty cyfrowe. Wydanie jest poprzedzone procesem identyfikacji zgłaszającego. Po pozytywnym rozpatrzeniu zgłoszenia następuje wydanie certyfikatu wraz z datą jego rozpatrywania. Repozytoriów kluczy, certyfikatów i list unieważnionych certyfikatów (ang. Certificate Revocation Lists - CRLs). Typowa jest realizowana w oparciu o protokół LDAP. Podstawowym celem repozytorium jest udostępnianie publicznych kluczy, certyfikatów oraz dat ich unieważnienia. LDAP to jedno z rozwiązań. Inne rozwiązania mogą być oparte o protokoły X.500, HTTP, FTP, czy też wykorzystywać pocztę elektroniczną. Certyfikat może zostać unieważniony przed datą jego wygaśnięcia. Przyczyny tego mogą być rozmaite np. ślub i zmiana nazwiska lub zmiana adresu poczty elektronicznej czy ujawnienie klucza prywatnego lub kradzież PIN'u. W takich przypadkach CA powinno odwołać certyfikat i umieścić jego numer seryjny na ogólnodostępnej liście CRL. Jak widać, PKI jest kombinacją środków technicznych, oprogramowania oraz regulaminów. Zalecane jest aby RA i CA były oddzielnymi instytucjami. RA ma za zadanie sprawdzać dane użytkowników. W przedsiębiorstwie rolę RA może pełnić dział kadr. Wydawaniem certyfikatów zajmować się może pion informatyki. Certyfikat cyfrowy składa się z klucza publicznego właściciela, który jest podpisany przez centrum certyfikacji, oraz danych o właścicielu. Format certyfikatu jest opisany przez normę X.509. Wydanie certyfikatu przez CA wiąże się głównie z przeprowadzeniem procesu generacji kluczy i powiązaniem ich z danymi użytkownika oraz umieszczeniem danych w repozytorium. Repozytorium jest już typowym oprogramowaniem. Aby to wszystko sprawnie funkcjonowało potrzebne są także aplikacje, które bez problemów będą się odwoływać do zasobów PKI. Szacuje się, że koszty zbudowania własnej infrastruktury dla potrzeb podpisu elektronicznego, są na tyle wysokie, że zaczyna się to opłacać przy co najmniej 10 000 użytkownikach. W warunkach rentowności polskich firm może być to znacznie większa liczba. Rozwiązaniem jest korzystanie z usług zewnętrznych operatorów, którzy utworzą ogólnodostępne centra PKI. W praktyce, ze względu na koszty, firmy wykupują klucze wyłącznie dla tych pracowników, którym jest to niezbędne.