rosnącej popularności środowisk graficznych wśród użytkowników, rosnącego zapotrzebowania na pasmo przez aplikacje, rosnących możliwości obliczeniowych komputerów PC, które wymagały szybszego dostarczania danych, stale powiększającej się liczby użytkowników sieci Internet, rosnącej popularności sieci LAN i konieczności podłączania ich do sieci operatorów. Technologia FR była stosunkowo niedroga i pozwalała nawet na podłączanie bezpośrednio do sieci FR komputerów użytkowników. Początkowo FR była rozwijana w laboratoriach Bell Labs jako fragment specyfikacji technologii ISDN. Jednak sukces jaki odniosła spowodował, że wkrótce stała się odrębną technologią sieciową. Można powiedzieć, że FR była właściwym rozwiązaniem w odpowiednim czasie. Mogła współpracować z ATM, była skalowalna, elastyczna, z niskim narzutem nagłówków w pakietach i wysoką dostępnością. Dopiero ostatnie lata z rosnącą popularnością na rozwijanie usług związanych z przesyłaniem strumieni audio i video w sieciach komputerowych spowodowało, że zaczęto szukać innych rozwiązań. Zwłaszcza, że konkurencyjny Ethernet, rozwijany od ponad 30 lat, przekroczył bariery stosowania go tylko w sieciach LAN i zaczął być stosowany w sieciach rozległych
Podstawowe zadanie sieci FR jest bardzo proste: dostarczyć dane w bezpieczny sposób między dwoma maszynami. Rodzaj danych nie ma żadnego znaczenia. Dane, po otrzymaniu ich od warstw wyższych, są enkapsulowane w nagłówki FR oraz pole pozwalające na wykrycie błędów w ramce. Pole to jest sprawdzane w pierwszej kolejności przez maszynę odbierającą ramkę. Jeżeli błąd nie zostanie wykryty sprawdzane są dalsze pola z nagłówka. Operacje wykonywane przez FR na poziomie warstwy łącza danych są dużo prostsze niż w innych protokołach. Jest to jedna z przyczyn szybkiego przesyłania danych przez sieci FR. W szczególności operacje te sprowadzają się do: użycia flagi do sprawdzenia pojawienia się ramki w łączu oraz sprawdzenia, czy ramka nie zawiera błędów. Jeśli jest uszkodzona zostaje usunięta i warstwa łącza danych nie wykonuje żadnych operacji związanych z retransmisją.
Sieć FR wszystkie operacje związane z wykrywaniem błędów przenosi na maszynę odbierającą lub wysyłającą dane - UNI (ang. User-to-Network Interface). Konwencjonalna operacja CRC (ang. Cyclic Redundancy Check) jest wykonywana przy użyciu pola FCS (ang. Frame Check Sequence). Jednak jeżeli zostanie wykryty błąd, powstały podczas transmisji, ramka jest usuwana, a do nadawcy wysyłane jest negatywne potwierdzenie odebrania ramki. Dzięki temu, że potwierdzaniem odbioru ramek w sieci FR zajmują się stacje końcowe, przesyłanie danych w węzłach może odbywać się znacznie szybciej. Szybkość ta jest funkcją szybkości działania danego węzła oraz wielkości ruchu, który obsługuje. Maksymalna przepustowość jaką może zapewnić to 34 Mb/s. Ponieważ swoje działanie opiera na łączach cyfrowych sieć FR charakteryzuje niska stopa błędów. Ponadto urządzenia obsługujące sieci FR potrafią wykryć błędy nagłówka, formatu, cyklicznego kodu nadmiarowego FCS pakietu. Ramki z wykrytym błędem są usuwane z sieci przez urządzenie, które stwierdziło wystąpienie błędu. Do urządzenia, które wysłało uszkodzoną ramkę wysyłane jest negatywne potwierdzenie jej odbioru i następuje retransmisja. Przyczynę, dla której sieć FR "spycha" obowiązki związane z potwierdzaniem odbioru ramki, przedstawia slajd.
Ponieważ jednak w sieci FR urządzenia pośredniczące w przesyłaniu nie wysyłają potwierdzeń, nie muszą one czekać na otrzymanie całej ramki z danymi. Mogą ją zacząć transmitować dalej już po otrzymaniu nagłówka. Dzięki temu sieć FR nie musi stosować techniki "zapamiętaj i wyślij" (ang. store-and-forward) i w skuteczny sposób zmniejszyć opóźnienia w transmisji ramek. Takie podejście do przełączania ramek jest nazywane "przekaż dalej" (ang. cut-through switching). Wadą takiego podejścia jest niemożność sprawdzenia czy ramka nie uległa uszkodzeniu, aż do momentu kiedy dotrze do odbiorcy. Oczywiście takie podejście ma swoje dobre i złe strony. W sieciach z niską stopą błędów można sobie pozwolić na wykrywanie uszkodzeń ramek przez stacje końcowe. Jest to znacznie bardziej efektywne niż wymiana dodatkowych komunikatów przez urządzenia pracujące w sieci.
W zależności od tego, na jak długo obwody są zestawione w sieci dzieli się je na dwie grupy: stałe PVC (ang. Permanent Virtual Circuits) - bardzo popularne i jedynie dostępne na początku istnienia sieci FR. Zestawiane na stałe (aż do następnej zmiany), przełączane SVC (ang. Switched Virtual Circuits) zestawiane na żądanie. Używane są nieco rzadziej niż PVC, choć ich popularność na pewno jest wyższa niż w latach poprzednich. Każde z takich połączeń logicznych jest charakteryzowane dwoma parametrami transmisyjnymi: CIR (ang. Committed Information Rate), EIR (ang. Excess Information Rate). W przypadku kanałów PVC są one ustalane raz, przy zestawieniu łącza i nie są potem renegocjowane. Kanały SVC ustalają te parametry każdorazowo przy zestawianiu połączenia. CIR określa gwarantowaną przepływność minimalną. Pozwala on sieci dostosować się do aplikacji generujących tzw. ruch wybuchowy (w którym niekiedy pojawia się duża liczba danych w krótkim czasie). Miarą tej wybuchowości jest parametr Bc (ang. Committed Burst). Jest to ilość danych w bitach, którą sieć zgadza się przenieść w normalnych warunkach w przedziale czasu Tc. Dane mogą być przenoszone w formie jednej lub wielu ramek. Jeśli szybkość transmisji przekracza wartość CIR, to ramki mają ustawiany bit DE (ang. Discard Eligibility). Z kolei EIR określa nie gwarantowaną przepływność maksymalną. Z EIR związany jest parametr Be oznaczający ilość nadmiarowych danych w bitach, które sieć zgadza się przesłać, jeśli istnieją wolne zasoby.
Ramki transmitowane z szybkością przekraczającą wartość CIR + EIR mają ustawiany bit DE i mogą być usuwane z sieci FR przez urządzenia, które są przeciążone. Jeżeli szybkość wybuchowego ruchu przekracza możliwości sieci do przeniesienia go (parametry Be + Bc), wówczas urządzenie w węźle wejściowych zajmuje się usuwaniem ramek nadchodzących z szybkością przekraczającą ten limit.
FECN (ang. Forward Explicit Congestion Notification), BECN (ang. Backward Explicit Congestion Notification), CLLM (ang. Consolidated Link Layer Manager), prosta kontrola przepływu (ang. Simple flow control). Ponieważ komunikaty o przeciążeniu, wysyłane przez DCE i przekazywane dalej przez DTE, muszą być obsłużone najpierw przez te typy urządzeń, informują się one nawzajem w jawny sposób o wystąpieniu przeciążenia. Robią to za pomocą jednobitowych informacji zaszytych w nagłówku ramki. Odbiorca otrzymuje bit FECN, nadawca BECN. Urządzenie DTE musi odpowiedzieć na sygnał BECN zmniejszeniem szybkości transmisji. W przeciwnym razie DCE zacznie kasować ramki, którym nadawca nadał niższy priorytet. Może również arbitralnie nadawać niższy priorytet wszystkim ramkom z przepływnością przekraczającą CIR. BECN/FECN jest najpopularniejszym sposobem informowania o przeciążeniach.
kodowania i kompresji głosu, wykrywania sygnałów mowy, kasowania echa, używania buforów niwelujących zmiany opóźnień w czasie (ang. jitter), kształtowania ruchu, fragmentacji pakietów ze zwykłymi danymi, zmniejszania wielkości ramek, dynamicznej kontroli przeciążeń, wykorzystującej mechanizmy kolejek i odrzucania pakietów z danymi, przesyłania danych głosowych przez kolejki o wyższych priorytetach obsługi, niż te ze zwykłymi danymi. W rzeczywistości, urządzenia obsługujące FR używają kombinacji tych mechanizmów. W ten sposób zmniejszają one zapotrzebowanie na pasmo oraz przeciwdziałają opóźnieniom i stratom pakietów z danymi głosowymi. Mimo wszystko, brak zapewnienia mechanizmów sterowania przeciążeniami na poziomie protokołu FR jest wadą, która została zniwelowana tylko w ograniczonym stopniu. Dlatego też najczęściej, przy przesyłaniu danych głosowych, stosowane jest przesyłanie ich w pakietach protokołu IP przy wykorzystaniu FR (ang. Voice over IP over Frame Relay). Dzięki protokołowi IP możliwe jest już stosowanie protokołu RSVP, RTP (ang. Real Time Protocol) oraz kompresja nagłówków RTP.
adresowanie globalne, połączenia grupowe, obwód wirtualny LMI dla komunikatów. Adresowanie globalne nadaje numerom DLCI status unikatowych adresów w urządzeniach DTE sieci FR. Wówczas cała sieć FR przeobraża się w typową sieć LAN aż do routerów, FRAD-ów z jej obrzeża. Indywidualne interfejsy i komunikujące się z nimi węzły mogą być rozpoznawane przez typowe w sieciach LAN mechanizmy, np. protokoły odwzorowujące adresy międzysieciowe na adresy fizyczne. Połączenia grupowe gdzie komunikaty odbiera każdy komputer w danej podsieci wpływają na szerokość pasma. Dzięki nim nie jest obciążana cała sieć. Modyfikacje tras routingu zostają zawężone do grupy routerów lub FRAD-ów. Każdy z użytkowników w grupie otrzymuje również kopie komunikatów z raportami o stanie grupy i modyfikacjach. Połączenia grupowe są zazwyczaj ustawiane na dłuższy okres. Do adresowania multicast zostały zastrzeżone numery DLCI 1019-1022. Obwód wirtualny LMI został przeznaczony do sygnalizacji dostarczającej informacji o statusie i konfiguracji łącz. Usługi protokołu LMI są dostępne na poziomie interfejsu abonenta. Między przełącznikiem, a urządzeniem dostępowym tworzony jest specjalny kanał wirtualny. Przesyłane są nim cyklicznie listy ważnych DLCI, komunikaty określające stan każdego obwodu, stan sieci. Zapewnia też synchronizację między DTE a DCE.
sieciach LAN - poprzez interfejsy ATM w urządzeniach typu komputery, przełączniki itp; emulacje sieci LAN w tradycyjnych technologiach LAN takich jak Ethernet i Token Ring oraz poprzez emulacje ATM w sieciach LAN; sieciach WAN - poprzez interfejsy ATM oraz poprzez przenoszenie innych technologii WAN poprzez sieć ATM (np. Frame Relay over ATM); sieciach PTSN - poprzez interfejsy ATM w centralach telefonicznych oraz emulowanie łączny np. łączy E1. W przypadku gdyby ATM udało się wdrożyć na szeroką skalę, powstałaby jednolita sieć świadcząca usługi transmisji danych oraz usługi związane z telefonią. Nie stało się tak, gdyż powstały spore opóźnienia podczas definiowania kolejnych standardów. W sieciach LAN pojawił się Fast Ethernet, a następnie Gigabit Ethernet. Technologie te oferowały znaczny przyrost prędkości pracy sieci bez konieczności zapoznawania się z nową technologią. Koszty przełączników oraz kart sieciowych ethernet zaczęły spadać, podczas gdy koszty przełączników ATM oraz kart już nie. Koszty wdrożenia ATM w LAN-ie stały się na tyle duże, że obecnie nie buduje się sieci LAN w oparciu o ATM. Taniej jest budować sieci LAN z wykorzystaniem technologii ethernet.
DDC (ang. Designated Country Code) - jest formatem wykorzystującym specyfikacje ISO 3166, dzięki czemu można określić kraj, w którym adres jest zarejestrowany; ICD (ang. International Code Desigantor - podobnie jak DDC pozwala określić kraj, z tym, że wykorzystywana jest norma British Standards Institute; E.164 - jest formatem adresu zdefiniowanym zgodnie z numeracją przyjętą w sieci ISDN.
AFI (ang. Authority and Format Identifier) - określa stosowaną konwencję adresowania. Przyjmuje następujące wartości: 39 - jeśli adres jest w formacie DDC; 46 - jeśli adres jest w formacie ICD; 45 - jeśli adres jest w formacie E.164. DCC, ICD lub E.164 - prefiksy określające sieć, do której klient jest dołączony, zawierające dane o kodzie kraju wedle jednej z przyjętych konwencji. Pole to ma długość 2 bajtów dla DCC i ICD oraz 8 dla E.164; HO-DSP (ang. High Order Domain Specific Part) - pole określające adres organizacji zarządzającej siecią. Pole ma długość 10 bajtów dla formatów DCC i ICD oraz 4 dla E.164; ESI (ang. End System Identifier) - idendyfikator stacji wewnątrz sieci prywatnej. Rozmiar jego wynosi 6 bajtów dla wszystkich konwencji adresowych. ESI powinien być niepowtarzalny i najczęściej jest adresem nadanym przez producenta urządzenia (np. MAC Address); SEL (ang selector) - jednobajtowe pole, które nie jest używane do identyfikacji urządzeń i najczęściej jego wartość wynosi zero. Gdy urządzenie spełnia jakąś dodatkową funkcję w sieci to identyfikator ma inną wartość. Adresy ATM, choć identyfikują urządzenia w sieci, nie identyfikują przesyłanych komórek. Wynika to z faktu braku w komórce ATM pól adresowych nadawcy i odbiorcy. Adresy ATM są wykorzystywane wyłącznie do zestawiania połączeń pomiędzy poszczególnymi urządzeniami.
stały obwód wirtualny PVC (ang. Pernament Virtual Circuit) - tego typu obwód jest zestawiany przez administratora. Administrator w zależności od sprzętu konfiguruje porty urządzeń, trasę poprzez przełączniki, adresy oraz, jeśli trzeba, parametry określające jakość transmisji; przełączany obwód wirtualny SVS (ang. Switched Virtual Circuit) - tego typu obwód jest zestawiany na żądanie za pomocą protokołów sygnalizacyjnych. Protokoły zapewniają zestawienie połączenia poprzez przełączniki z żądaną jakością transmisji. Podczas zestawiania trasy, każdy przełącznik ATM sprawdza możliwość spełnienia wymaganych warunków transmisji. W wypadku posiadania odpowiednich zasobów przełącznik przesyła żądanie do następnego przełącznika. Po zestawieniu połączenia nadawany jest 24-bitowy identyfikator określający wirtualny kanał i ścieżkę. W koncepcji ATM, w ramach pojedynczego łącza fizycznego, są transmitowane komórki należące do różnych połączeń. Nie są one identyfikowane adresami nadawcy i odbiorcy, jak np. w sieci IP, ale są rozróżniane na podstawie zawartości pól VPI (ang. Virtual Path Identifier) oraz VCI (ang. Virtual Channel Identifier). Komórki mające te same identyfikatory VPI i VCI tworzą wirtualny kanał, który realizuje jednokierunkowy transport komórek. W celu realizacji połączenia dwukierunkowego należy zestawić parę połączeń. W sieci ATM realizuje się połączenia typu VCC (ang. Virtual Channel Connection), które jest połączeniem pomiędzy dwoma punktami dostępu do sieci ATM. Połączenie składa się z wielu logicznych łączy VCL ( ang. Virtual Channel Link). Łącza VCL mają znaczenie lokalne i są identyfikowane poprzez zawartość pola VCI w nagłówku komórki należącej do połączenia. Zawartość VCI może się zmieniać po przejściu przez kolejne węzły sieci powodując zmiany VCL. Połączenia VCC mogą mieć strukturę wielopunktową, która może być wykorzystana w przypadku transmisji rozgłoszeniowych. Wirtulany kanał składający się z wyznaczonej poprzez VCL trasy gwarantuje integralność i sekwencyjność komórek ATM. Kanał może się cechować określonym pasmem przenoszenia. Parametry kanału są negocjowane w trakcie nawiązywania połączenia. Grupa kanałów tworzy wirtualną ścieżkę VP (ang. Virtual Path), która również może mieć przypisane pasmo. Sieć ATM może realizować połączenia typu VPC (ang. Virtual Path Connection), które może być zainicjowane w punkcie dostępu do sieci lub w węzłach o odpowiednich uprawnieniach. Połączenia VPC, podobnie jak VCC, składają się z wirtualnych łączy VPL (ang. Virtual Path Link), które są identyfikowane poprzez pole VPI. Pole to może ulegać zmianie podczas transmisji, podobnie jak pole VCI. Połączenie typu VPC jest połączeniem jednokierunkowym i dla transmisji dwukierunkowej należy zestawić dwa połączenia. Połączenia VPC pozwalają operatorom na zestawienie połączenia dla klienta, który potrzebuje posiadać wiele wirtualnych kanałów. Wzajemne relacje pomiędzy kanałami i ścieżkami ilustruje slajd.
W sieci ATM realizuje się połączenia typu VCC (ang. Virtual Channel Connection), które jest połączeniem pomiędzy dwoma punktami dostępu do sieci ATM. Połączenie składa się z wielu logicznych łączy VCL ( ang. Virtual Channel Link). Łącza VCL mają znaczenie lokalne i są identyfikowane poprzez zawartość pola VCI w nagłówku komórki należącej do połączenia. Zawartość VCI może się zmieniać po przejściu przez kolejne węzły sieci powodując zmiany VCL. Połączenia VCC mogą mieć strukturę wielopunktową, która może być wykorzystana w przypadku transmisji rozgłoszeniowych. Wirtulany kanał składający się z wyznaczonej poprzez VCL trasy gwarantuje integralność i sekwencyjność komórek ATM. Kanał może się cechować określonym pasmem przenoszenia. Parametry kanału są negocjowane w trakcie nawiązywania połączenia. Grupa kanałów tworzy wirtualną ścieżkę VP (ang. Virtual Path), która również może mieć przypisane pasmo. Sieć ATM może realizować połączenia typu VPC (ang. Virtual Path Connection), które może być zainicjowane w punkcie dostępu do sieci lub w węzłach o odpowiednich uprawnieniach. Połączenia VPC, podobnie jak VCC, składają się z wirtualnych łączy VPL (ang. Virtual Path Link), które są identyfikowane poprzez pole VPI. Pole to może ulegać zmianie podczas transmisji, podobnie jak pole VCI. Połączenie typu VPC jest połączeniem jednokierunkowym i dla transmisji dwukierunkowej należy zestawić dwa połączenia. Połączenia VPC pozwalają operatorom na zestawienie połączenia dla klienta, który potrzebuje posiadać wiele wirtualnych kanałów. Wzajemne relacje pomiędzy kanałami i ścieżkami ilustruje slajd.
Znaczenie poszczególnych fragmentów jest następujące: GFC (ang. Generic Flow Control) - czterobitowe pole w nagłówku UNI. Jego wartość jest ustawiana przez przełącznik ATM. Użytkownik może wykorzystać to pole do wydzielenia wielu klas usług, w ramach jego sieci, które będą świadczone z różną jakością; VPI (ang. Virtual Path Identifier) - jest polem o rozmiarze 8 bitów na styku UNI lub 12 bitów na styku NNI, które określa przynależność komórki do wirtualnej ścieżki. Ścieżek może być 256 na styku UNI lub 4096 na styku NNI; VCI (ang. Virtual Channel Identifier) - jest polem o rozmiarze 16 bitów określającym przynależność komórki do wirtualnego kanału. PT (ang. Payload Type) - jest trzybitowym polem, określającym czy komórka jest komórką sygnalizacyjną czy użytkownika; CLP (ang. Cell Loss Priority) - jest jednobitowym polem określającym priorytet komórki. Wartość CLP=1 oznacza, że komórka może być utracona w sytuacji natłoku. Wartość CLP=0 oznacza, że komórka nie powinna być utracona ale nie oznacza to 100% gwarancji na dostarczenie komórki; HEC - jest ośmiobitowym polem sumy kontrolnej. Suma ta jest wyznaczana wyłącznie z nagłówka komórki. Mechanizm sumy pozwala na korekcję pojedyńczych błędów i wykrycie większej ich liczby.
Idle - nie przenoszące żadnej informacji, generowane są w celu dostosowania szybkości przepływu; Valid - przesłane prawidłowo bez błędów w nagłówku lub takie, w których błąd ten udało się skorygować za pomocą sumy kontrolnej; Invalid - przesłane z błędami, których nie udało się skorygować; Assigned - w warstwie ATM dostarczające usługi aplikacjom; Unasigned - wszystkie komórki, które nie są przydzielone.
PM (ang. Physical Media Dependent Sublayer - realizującą funkcje związane z dostępem do medium transmisyjnego. W ramach tych funkcji określone są parametry nadajnika, odbiornika, kodowania bitów, generowania i odtwarzania informacji synchronizujących. TC (ang. Transmission Convergence Sublayer) - realizującą funkcje adaptacji strumienia komórek ATM do przepływu przez fizyczny nośnik. Warstwa ta generuje oraz sprawdza sumę kontrolną w polu HEC nagłówka komórki. Podwarstwa TC generuje także puste komórki, gdy są one potrzebne do dostosowania strumienia ATM do strumienia medium transmisyjnego. Warstwa fizyczna może wykorzystywać różne nośniki (media transmisyjne), choć dla potrzeb ATM zaleca się stosowanie łącz światłowodowych. Najczęściej w ATM wykorzystuje się interfejsy takie jak SONET (ang. Synchronous Optical NETwork), SDH (ang. Synchronous Digital Hierarchy), PDH (ang. Plesiochronous Digital Hierarchy). Oferują one różne prędkości transmisji. Poniższa tabela pokazuje zestawienie prędkości transmisji dla interfejsów SONET kompatybilnych z SDH. Najczęściej spotykanymi interfejsami są interfejsy STM-1 (ang. Synchronous Transfer Mode i STM-4. W przypadku ich użytkowania efektywna prędkość dla użytkownika wynosi odpowiednio 146,76 Mb/s dla STM-1 i 599,04 dla STM-4. Wynika to z faktu, iż co 27 komórka jest przeznaczona dla transmisji sterujących warstwą fizyczną. Oprócz interfejsów na stykach STM są również zdefiniowane interfejsy ATM-TAXI o przepływności 100 Mb/s oraz ATM 25 Mb/s. Ponadto są implementowane wolniejsze rozwiązania przeznaczone np. do obsługi modemów xDSL (ang. Digital Subscriber Line).
podwarstwa SAR (ang. Segmentation and Reasebly) - segmentacji i składania, która odpowiada za zamianę jednostek PDU (ang. Protocol Data Unit) warstwy adaptacyjnej na pola danych komórek ATM. Dla stacji odbiorczej jednostka ta odpowiada za składanie jednostek PDU z poprawnie odebranych komórek. Podwarstwa ta jest usytuowana bezpośrednio nad warstwą ATM; podwarstwa CS ( ang. Convergence Sublayer ) - podwarstwa zbieżności odpowiedzialna za realizację usług ALL i współpracę z warstwami wyższymi. Warstwa AAL jest przeznaczona do współpracy z różnego rodzajami aplikacji przesyłającymi dane, dźwięk, lub obraz w postaci cyfrowej. Różne typy danych wymagają przydziału różnych zasobów sieci. Przy przydziale zasobów sieci, warstwa AAL musi uwzględniać następujące cechy żądań: rodzaj powiązań czasowych pomiędzy źródłem transmitowanej informacji, a jej przeznaczeniem; charakter przepływności bitowej (może być stały lub zmienny); tryb wymiany danych (połączeniowy lub bezpołączeniowy). Warstwa AAL stanowi swego rodzaju filtr przydzielający zasoby sieci. Ze względu na różnorodność charakterystyk transmisji danych, w obrębie warstwy AAL wydzielono kilka typów warstw adaptacji AAL: AAL typ 1 - jest wykorzystywany przy usługach klasy A (patrz niżej), które wymagają stałej, gwarantowanej prędkości transmisji w trybie połączeniowym. Jest przeznaczony do realizacji transmisji głosu, dźwięku, video i innych usług multimedialnych, w tak zwanym czasie rzeczywistym. AAL typ 2 - jest wykorzystywany przy usługach klasy B, które nie wymagają stałej, gwarantowanej prędkości transmisji ale wymagają nie przekraczania limitu maksymalnego opóźnienia. Przykładem tego typu transmisji jest transmisja kompresowanego obrazu wideo, gdzie zamiast przesyłania klatki po klatce przesyłane są różnice pomiędzy nimi; AAL typ 3/4 - jest wykorzystywana przy usługach klasy C/D, które nie wymagają transmisji danych ze ścisłymi zależnościami czasowymi. Dane mogą być transmitowane w trybie połączeniowym jak i bezpołączeniowym; AAL typ 5 - jest podobny do typu 3/4, lecz umożliwia transmisję danych, które nie wymagają ścisłych zależności czasowych ale pracują w trybie połączeniowym. Poszczególnym warstwom AAL przypisane są różne klasy ruchu.
styk UNI ( ang. User-to-User Interface) - ten styk określa zasady połączenia użytkownika z siecią i ma następujące odmiany: prywatny UNI (ang. private UNI) - przeznaczony do połączeń pomiędzy przełącznikiem ATM, a urządzeniem końcowym pracującym w obrębie tej samej prywatnej sieci ATM; publiczny UNI (ang. public UNI) - przeznaczony do przyłączenia urządzenia końcowego lub prywatnej sieci ATM do publicznej sieci ATM. styk NNI ( ang. Network to Network Interface) - przeznaczony jest do łączenia przełączników ATM lub sieci ATM i posiada dwie podwersje: prywatny NNI (ang. private NNI) - przeznaczony dla przełączników pracujących w sieciach prywatnych; publiczny NNI (ang. public NNI) - przeznaczony dla przełączników pracujących w sieciach prywatnych; Z interfejsami ATM związana jest sygnalizacja. Na dzień dzisiejszy dla styku UNI najcześciej używa się jednej z trzech wersji sygnalizacji: UNI 3.0, UNI 3.1, UNI 4.0. Wersja 4.0 jest najbardziej rozbudowana, gdyż obejmuje elementy związane z transmisją głosu. Z sygnalizacją na styku UNI związany jest też protokół ILMI (patrz niżej), zaś z sygnalizacją na styku NNI protokół PNNI (patrz niżej).
(adres ATM, długość adresu, indeks interfejsu) Długość adresu lub prefiks oznacza ilość bitów adresu ATM używanych przy porównywaniu. Można powiedzieć, że jest to "maska podsieci" podobna do maski podsieci w sieciach IP. Mechanizm ten pozwala na tworzenie wpisów określających trasę zarówno do pojedyńczych stacji końcowych, jak i do całych grup stacji identyfikowanych prefiksem adresu. Indeks interfejsu ma znaczenie lokalne i określa fizyczny port, lub kanał PVP. Stosowanie prefiksów może doprowadzić do sytuacji, w której dwie pozycje w tablicy wskazują na dwie różne drogi. W takiej sytuacji wybierana jest ta, która ma dłuższy prefiks. Na przykład w tablicy są dwa następujące wpisy:
Adres ATM 4700:1234:5678:9000:0000, prefiks 48, indeks 7 Adres ATM 4700:1234:2567:9000:0000, prefiks 56, indeks 8
Jeśli zajdzie konieczność wysłania pakietu do stacji o adresie ATM 4700:1234:5678:9012:2345 to pakiet zostanie przesłany zgodnie z drugą regułą, gdyż jest w niej dłuższy prefiks. ILMI zestawia połączenia w oparciu o kanały UBR lub ABR. Nie jest możliwe ustawianie za pomocą protokołu ILMI parametrów związanych z jakością transmisji. Protokół ILMI pozwalał na budowę sieci ATM, ale sieć zbudowana w oparciu o ten protokół nie pozwalała na pełne wykorzystanie możliwości sieci, szczególnie związanych z jakością oferowanych usług. Protokół PPNI-1 realizuje dynamiczny routing w sieci ATM. Komórka podróżuje zgodnie z trasami, których charakterystyki są umieszczone w przełącznikach - z tym, że trasy te są dynamicznie umieszczane przez protokół PNNI-1. Trasa, która jest wyznaczana przez ten protokół może posiadać parametry związane z wymaganiami QoS (ang. Quality Of Service). Może więc być realizowana w zależności od potrzeb w technikach ABR, VBR czy też CBR. Protokół PNNI-1 umożliwia tworzenie zarówno małych sieci jak i dużych sieci operatorskich.
LANE samo w sobie określa mechanizmy współpracy pomiędzy obiektami logicznymi realizującymi funkcje klientów oraz serwerów. W przypadku pojedynczej, emulowanej sieci LAN można wyróżnić następujące obiekty: LEC (ang. LAN Emulation Client) - obiekt klienta, powinien być co najmniej jeden; LES (ang. LAN Emulation Server) - obiekt serwera emulującego sieć LAN; BUS (ang. Broadcast and Unknown Serwer) - obiekt serwera dla ruchu broadcastowego; LECS (ang. LAN Emulation Configuration Server) - obiekt serwera konfiguracyjnego. Obiekty serwerów odpowiedzialne są za: odwzorowanie adresów MAC na adresy ATM; transmisje danych pomiędzy klientami LEC oraz dystrybucję ruchu typu broadcast i multicast; konfigurację i współpracę pomiędzy elementami sieci ELAN (ang. Emulated LAN). Obiekty serwerów są oprogramowaniem, które może być zainstalowane zarówno na urządzeniach końcowych, jak i na przełącznikach ATM. Poszczególne serwery mogą być umieszczone na różnych urządzeniach, choć najczęściej ulokowane są na jednym. Upraszcza to konfigurację tych serwisów. Klienci LEC umieszczani są na urządzeniach brzegowych sieci ATM. Mogą być to hosty ATM (np. komputer z kartą ATM) lub przełączniki brzegowe (np. przełącznik Ethernet z kartą ATM).
przesyłanie danych do innego klienta LEC lub do serwera BUS w sytuacji realizacji ruchu multicast lub broadcast; rejestracja swoich danych w serwerze LES; przechowywanie adresów w sytuacji, gdy LEC pełni funkcje Proxy LEC. LEC nie rejestruje wtedy wszystkich adresów MAC w serwerze LES. LES w poszukiwaniu powiązania adresu MAC-ATM przesyła zapytania do wszystkich klientów Proxy LEC. Pełnienie roli interfejsu dla pozostałych składników sieci ELAN (BUS, LES, LECS). Klient LEC zestawia z serwerem LECS połączenie w celu uzyskania danych konfiguracyjnych takich, jak adresy serwerów LES i BUS. Następnie zestawia połączenie z serwerem LES, w którym dokonuje rejestracji powiązanych ze sobą adresów. Rejestracja w serwerze LES oznacza przyłączenie klienta do ELAN-u, który ten serwer obsługuje. Aby ELAN był w pełni funkcjonalny, klient LEC zestawia jeszcze połączenie do serwera BUS, za pomocą którego będzie wysyłał ruch multicastowy i broadcastowy; enkapuslacja ramek LAN w komórki ATM i przesyłanie ich poprzez sieć ATM. LANE w transmisji danych wykorzystuje warstwę AAL5. Funkcjonalność LEC implementowana jest w kartach ATM, przełącznikach oraz routerach. Z reguły możliwe jest uruchomienie więcej niż jednego klienta na pojedynczym urządzeniu. Pozwala to tworzyć wirtualne sieci LAN na bazie ATM.
przyłączenie do sieci ELAN klientów LEC. LES na podstawie danych zawartych w żądaniu klienta LEC może klienta przyłączyć do ELAN-u lub odrzucić żądanie; rejestracja adresu klienta LEC oraz stworzenie na podstawie zarejestrowanych adresów LEC bazy odwzorowań adresów MAC na adresy ATM; W sieci ATM może być uruchomionych wiele serwerów LES ale, zgodnie ze specyfikacją LANE 1.0, jeden serwer LES obsługuje jedną sieć ELAN. Ten fakt ograniczył wdrożenia technologii LANE w sieciach LAN. Mało kto chciał uzależniać działanie sieci od jednego elementu. Powstały firmowe implementacje, które pozwalały na tworzenie serwerów zapasowych. Nie były to rozwiązania kompatybilne ze sobą, co zmuszało użytkowników do zakupu urządzeń od jednego producenta.
Configuration Direct VCC - dwukierunkowy kanał typu punkt-punkt zestawiany przez serwer LES do serwera LECS; Control Direct VCC - dwukierunkowy kanał typu punkt-punkt zestawiany przez klienta LEC do serwera LES; Control Distribute VCC - jednokierunkowe połączenie typu punkt-wielopunkt zestawiane przez serwer LES do wszystkich klientów LEC. Wykaz połączeń sterujących pokazuje slajd.
Data Direct VCC - dwukierunkowy kanał pomiędzy dwoma klientami LEC; Multicast Send VCC - dwukierunkowy kanał zestawiany przez klienta LEC do serwera BUS; Mutlicast Forward VCC - jednokierunkowe połączenie typu punkt - wiele punktów, które zestawia serwer BUD do klientów LEC. Połączenia te znajdują się na slajd. Serwer BUS może przesyłać dane do klientów LEC przez dwa typy łączy Multicat Send VCC jak i Multicast Forward VCC. Niezależnie do rodzaju wybranego łącza dane, które ma otrzymać klient LEC, muszą być nadesłane w odpowiedniej kolejności i nie mogą się duplikować.
W kliencie LEC konfiguracja sprowadza się do podania nazwy ELAN-u, w którym klient ma pracować. Po włączeniu, klient za pomocą procedur związanych z ILMI pobiera prefiks sieci ATM, w której będzie pracował. Następnie, łącząc się z serwerem LECS (który pracuje na domyślnym adresie) za pomocą kanału o identyfikatorach VPI=0 i VCI=17, pobiera adresy serwerów LES i BUS obsługujących ELAN, do którego LEC ma się przyłączyć. Potem klient LEC rejestruje się w serwerze LES i zestawiane są połączenia kontrolne.
LEC (ang. LAN Emulation Client) - obiekt reprezentujący klienta; LES (ang. LAN Emulation Server) - obiekt odpowiedzialny za rejestrację klientów LEC; BUS (ang. Broadcast and Unknown Service) - obiekt odpowiedzialny za obsługę ruchu broadcastowego; LECS (ang. LAN Emulation configuration Server) - obiekt przeznaczony do udostępniania informacji konfiguracyjnych klientom LEC w czasie inicjalizacji; SMS (ang. Selective Multicast Server) - obiekt odpowiedzialny za obsługę ruchu multicastowego. Protokół LANE v.2.0 definuje także dwa protokoły: LNNI (ang. LAN Emulation Network Network Interface) - odpowiedzialny za komunikację pomiędzy obiektami LES, BUS, SMS, LECS; LUNI (ang. LAN Emulation User Network Interface) - odpowiedzialny za komunikację pomiędzy LEC, a pozostałymi elementami sieci LANE.
wielu obiektów typu LES, BUS, LECS - mogących obsługiwać te same ELAN-y; nowego obiektu SMS, który pozwala na rozdzielenie drzew broadcastowych i multicastowych; wsparcia dla różnych klas ruchu, w tym ABR; ośmiu klas jakości ruchu. Cechy te pozwalają na budowę sieci o wyższej niezawodności i jakości, niż w przypadku sieci zbudowanych w oparciu o specyfikację LANE 1.0. Pozwolą także na zastąpienie rozwiązań firmowych, w których firmy oferowały własne rozwiązania podnoszące niezawodność sieci. Stanie się więc możliwe budowanie sieci w oparciu o urządzenia pochodzące od różnych producentów.
w postaci oprogramowania (sterownika) do karty sieciowej w komputerze lub routerze. W tym przypadku klient LEC rejestruje się w bazie adresowej serwera LES jako normalny klient z pełnym adresem; jako dodatkowy moduł oprogramowania w tak zwanych przełącznikach brzegowych. W tym przypadku klient LEC rejestruje się w bazie adresowej serwera LES jako proxy LEC. Serwer LES przesyła do tego typu klientów LEC wszystkie zapytania o powiązanie adresów MAC - ATM, których sam nie potrafi obsłużyć; Niezależnie od sposobu implementacji klient LEC realizuje następujące zadania: transmisji danych do innych klientów LEC dla normalnej transmisji danych między urządzeniami w sieci (unicast); transmisji danych do serwera BUS dla ruchu broadcastowego; transmisji danych do serwera SMS dla ruchu multicastowego; rejestracji swoich adresów w serwerze LES; enkapsulacji ramek danych z sieci LAN w ramki sieci ATM. Standardowo, w czasie inicjalizacji, klient LEC odpytuje serwer LECS o adresy serwerów LES i BUS. Następnie rejestruje swój adres ATM i adres MAC w bazie serwera LES. W niektórych implementacjach klientów LEC możliwe jest ręczne podanie adresów LES i BUS, a także nadanie adresu ATM klientowi LEC. Pozwala to uniknąć kłopotów związanych z błędami w implementacjach sygnalizacji UNI. Jednocześnie obniża to poziom bezpieczeństwa sieci, gdyż pozwala na podszycie się pod istniejącego klienta LEC.
LECS LNNI, który odpowiedzialny jest za zestawianie kanałów: synchronizacyjnych do innych serwerów LECS (LECS synchronization VCC(s) to other LECS); konfiguracyjnych do serwerów LES i BUS (Configuration Direct VCC(s) from one or more LES and BUS). LES NNI, który odpowiedzialny jest za zestawianie kanałów VCC: konfiguracyjnych do serwera LECS (Configuration Direct VCC to an LECS); synchronizacyjnych do sąsiednich serwerów LES lub BUS (Cache Synchronization VCC to neighbour LES(s) or SMS(s)); kontrolnych do pozostałych serwerów LES (Controll Coordinate VCC to all other VCC). BUS LNNI, który odpowiedzialny jest za zestawianie multicastowych kanałów VCC do komunikacji z innymi serwerami BUS2 (Multicast Forward VCC to all other BUS); SMS LNNI, który odpowiedzialny jest za zestawianie kanałów: konfiguracyjnych do serwera LECS (Configuration Direct VCC to an LECS); synchronizacyjnych do sąsiednich serwerów LES lub SMS (Cache Synchonization VCC to neighbour LES(s) or SMS(s)); multicastowych do pozostałych serwerów SMS(s) i BUS(s) (Multicast Forward VCC to other SMS(s) and BUS(s)).
kontrolne, synchronizacyjne, transmisji danych. Prawidłowa realizacja powyższych zadań pozwala różnym serwerom serwisu LANE pracować z punktu widzenia klienta LEC tak jak jeden wspólny serwer. Aby ułatwić zarządzanie kanałami w sieci LANE przyjmuje się, że podstawową jednostką sieci jest zbiór sąsiednich serwerów. Tworzą one tzw. oko sieci (ang. mesh). Podstawowym zadaniem protokołu LNNI jest takie zestawienie kombinacji połączeń wewnątrz oka sieci, aby każdy serwer będący składnikiem takiej grupy otrzymywał komunikaty bez pośrednictwa innego serwera. Ponieważ możliwe są dwa typy połączeń VCC ("point to point" i "point to multipoint") oraz połączenia mogą inicjować różne serwery wchodzące w skład grupy, to możliwe jest powstawanie pętli połączeń. Aby zapobiec pętlom, a także brakowi połączeń, w protokole LNNI przyjęto szereg założeń, które muszą spełnić połączenia, aby sieć działała prawidłowo. Dwa pierwsze założenia to: każda wiadomość wysłana od dowolnego serwera w grupie musi trafić do wszystkich adresatów, do których jest adresowana; każda wiadomość nie może być wysłana więcej niż jeden raz do pozostałych węzłów sieci. Pozostałe założenia definiują zasady wyboru połączeń w wypadku, gdy połączenia się dublują. Kanały, które zostały uznane za niepotrzebne nie są od razu likwidowane. Usuwane są one dopiero po czasie przeterminowania. Przed upływem tego czasu mogą być w każdej chwili wykorzystane do celów transmisji. Zasady tworzenia i likwidowania kanałów ilustrują kolejne slajdy.
W fazie drugiej serwer B tworzy połączenia VCC (kreskowana czerwona linia) point to point do serwerów A,C,D. Ponieważ istnieje już połączenie point to point do serwera A to jedno z nich musi zostać usunięte. Zostaje wybrane połączenie, które zainicjował serwer A. Serwer C musi mieć połączenie zarówno z serwerami sąsiednimi jak i z innymi serwerami. Aby zoptymalizować ruch, tworzy on dwa połączenie typu VCC (kreskowane zielone linie) point to multipoint, jedno wyłącznie do serwerów w obrębie swojej grupy, a drugie łączące zarówno z serwerami w obrębie grupy jak i po za nią.
Aby optymalizować ruch, serwer D przy wysyłaniu nie używa kanałów VCC point to point zestawionych do serwerów B,A. Używa do tego wyłącznie kanału point to multipoint.
zadania sygnalizacyjne, zadania synchronizacyjne. Do zadań sygnalizacyjnych należy informowanie poszczególnych serwerów sieci LANE o tym, że zaszły zmiany w bazach danych. Zmiany te zachodzą na skutek włączania się nowych serwerów serwisu LANE do sieci, odłączania tychże serwerów, a także na skutek rejestracji nowych klientów LEC w różnych miejscach sieci ATM. Klienci LEC korzystający z usług sieci ATM nie powinni zauważać, gdzie są podłączeni oraz ile serwerów serwisu LANE świadczy im usługi. Rozważając sposób budowy protokołu SCSP można wyróżnić w nim dwie podwarstwy. W pierwszej warstwie określanej jako protocol independent sublayer zestawiane są połączenia pomiędzy sąsiednimi serwerami serwisu LANE. Dowolny serwer, który używa zestawu procedur składających się na tę podwarstwę, może zsynchronizować swoją bazę ze wszystkimi pozostałymi serwerami. Natomiast przy użyciu procedur składających się na podwarstwę określaną jako protocol dependent sublayer, dwa serwery korzystające z procedur składających się na tę podwarstwę mogą zsynchronizować tylko swoje bazy.
kanały kontrolne VCC dwukierunkowy point to point Configuration Direct VCC pomiędzy klientem LEC, a serwerem LECS (inicjowany przez klienta LEC); dwukierunkowy point to point Control Direct VCC pomiędzy klientem LEC, a serwerem LES (inicjowany przez klienta LEC); jednokierunkowy point to multipoint Control Distribute pomiędzy serwerem LES, a klientami LEC (inicjowany przez serwer LES). kanały transmisji danych: dwukierunkowy point to point Data Direct VCC pomiędzy klientami LEC (inicjowany przez klienta LEC); dwukierunkowy point to point Multicast Send VCC pomiędzy klientem LEC, a serwerem BUS (inicjowany przez klienta LEC); jednokierunkowy point to multipoint Multicast Forward VCC pomiędzy serwerem BUS, a klientami LEC (inicjowany przez serwer BUS).
wsparcie dla QoS (Quality of Service); wsparcie dla Multicastów; multipleksacji ruchu w jednym kanale VCC. Wsparcie dla wymagań QoS obejmuje możliwość zestawiania kanałów VCC dla transmisji danych w standardzie ABRi (ang. Availble Bit Rate). W LANE 1.0 możliwe jest zestawianie wyłącznie kanałów w standardzie UBR (ang. Unspecified Bit Rate). Pozwala to na transmisję danych, które wymagają większej gwarancji jakości pasma. LANE v.2 pozwala definiować parametry QoS lokalnie dla każdego klienta LEC. Najniższe parametry jakości transmisji QoS odpowiadają transmisji w standardzie UBR. Dane wysyłane przez klienta LEC z ustawionymi parametrami QoS są otrzymywane przez odbierającego klienta LEC z zachowaniem jakości nadawania. Wsparcie dla multicastów obejmuje możliwość tworzenia takich grup multicastowych, w których odbierającymi będą tylko członkowie danej grupy. Możliwe się to stało po utworzeniu nowego obiektu w serwisach LANE serwera SMS. Pełne wykorzystanie jego właściwości jest możliwe dopiero wtedy, gdy klient LEC jest oparty o specyfikację LUNI 2.0. W LANE 1.0 multicasty były rozsyłane za pomocą serwera BUS, który rozsyłał je tak jak zwykłe pakiety broadcastowe. W LANE 2.0 klient LEC śle adresy multicastowe do serwera SMS. Następnie klient LEC rejestruje się w bazie serwera SMS jako klient, który chce odbierać pakiety multicastowe adresowane na konkretny adres multicastowy. W przypadku, gdy pakiety nie są adresowane do niego, to do niego w ogóle nie docierają. W przypadku sieci LANE 1.0 klient LEC musi odbierać i ignorować pakiety multicastowe, które nie są adresowane do niego. Pozwala to na oszczędność pasma i na lepsze wykorzystanie sieci. W LANE 1.0 w jednym kanale VCC przy transmisji danych nie jest możliwa multipleksacja ruchu do wielu różnych źródeł danych i typu danych. W takim kanale mogą być transmitowane zarówno dane kontrolne jak dane zawierające enkapsulowane pakiety sieci LAN.
znacznie bardziej efektywną komunikacje pomiędzy ELAN-ami; zmniejszenie liczby urządzeń potrzebnych do przesłania pakietów pomiędzy ELAN-ami; uproszczenie budowy sieci, gdyż zmniejsza się liczba urządzeń potrzebnych do zapewnienia połączeń międzysieciowych, a co za tym idzie upraszcza się konfiguracja sieci; obniżenie kosztów, bo mniejsza liczba routerów oznacza więcej wolnych portów dla innych urządzeń. Standard MPOA może być zaimplementowanych w sieciach ATM które: wspierają sygnalizacje UNI (ang. User Network Interface) w wersjach 3.0, 3.1, 4.0. pracują zgodnie ze specyfikacją LANE 2.0. Aby wdrożenie MPOA było możliwe, należy najpierw zaimplementować protokół NHRP, którego definicja znajduje się w dokumentach RFC 2332.
serwera MPOA (MPS - MPOA Server), klienta MPOA (MPC - MPOA Client).
Serwer MPOA (MPS) jest funkcjonalnym odpowiednikiem routera. W jego skład wchodzi NHS (ang. Next Hop Serwer),który jest implementacją standardu NHRP z pewnymi rozszerzeniami. MPS współpracuje z klientami MPC. MPS jest najczęściej implementowany jako rozszerzenie na oprogramowania na routerach sprzętowych. Klient MPOA (MPC) jest lokowany na przełącznikach brzegowych (MPOA Egde Device) lub na komputerach bezpośrednio przyłączonych do sieci ATM (MPOA HOST). Zadaniem klienta MPOA jest wykrywanie strumienia pakietów, które muszą być przesłane przez router i przesłanie informacji o nich do serwera MPOA. Gdy okaże się, że transmisja danych jest skierowana do ELAN-u, który jest w tej samej sieci ATM i ma zaimplementowanego klienta MPC, to zestawiane jest połączenie VCC łączące bezpośrednio dwóch klientów LEC i nim są transmitowane dane. Sytuację tą ilustruje rysunek 4.13. Przykładowe drogi pakietów w sieci ze standardem MPOA.
Dla pakietów IP zalecane wartości pól są następujące: 0xAAAA03 dla pola LLC, co odpowiada ramce Ethernet; 0x000000 dla pola OUI, co oznacza organizację odpowiedzialną za standaryzację Ethernetu; 0x0800 dla pola EtherType, co odpowiada pakietowi IP w ramce Ethernet. Właściwy pakiet IP zawarty jest w polu IP PDU. Dodatkowo warstwa ALL 5 dodaje do pakietu własne, specyficzne dla niej dane, takie jak sumy kontrolne (CRC) czy też pola wypełnienia (PAD).