Testujeme 10Gb ethernetové přepínače

Laboratorní testy dokazují, že většina 10gigabitových přepínačů nedosahuje hranice propustnosti 10 Gb/s. Ale přesto...


Laboratorní testy dokazují, že většina 10gigabitových přepínačů nedosahuje
hranice propustnosti 10 Gb/s. Ale přesto vám nejnovější páteřní switche
poskytnou větší šířku pásma než starší zařízení využívající agregace linek a
lepší práci odvedou také v oblasti zajištění kvality služeb (QoS).
Naši kolegové z amerického NetworkWorldu podrobili 10Gb přepínače srozumitelné
sestavě výkonnostních testů při rychlostech 1 Gb/s a 10 Gb/s. Testu se
zúčastnily produkty společností Avaya, Force10 Networks, Foundry Networks,
Hewlett-Packard a Nortel; dodatečně bylo také (ovšem za stejných podmínek)
testováno zařízení společnosti Cisco (recenzi a výsledky naleznete ve vloženém
článku na str. 15).
Záhadní skřítci posedli zařízení od Nortelu, a nebyli jsme proto schopni získat
platné výsledky v rámci výkonnostních testů, avšak co se týče dalších výrobců,
výsledky jsou mírně optimistické:

Force10 E1200 poskytuje skutečně propustnost 10 Gb/s při libovolné velikosti
rámce (tohoto výsledku dosáhl i switch Cisco, který naleznete v avizovaném
vloženém článku)
Foundry Network FastIron 400 a HP ProCurve Routing Switch série 9300m (který HP
nakupuje od společnosti Foundry) dosáhly rychlých časů zotavení.
Avaya Cajun P882 MultiService Switch dokázal udržet fázové kolísání (jitter) na
minimu a "nezahodil" žádné datové pakety s vysokou prioritou při testech QoS.

Podtrženo a sečteno, žádný z testovaných přepínačů není dokonalý. Force10 E1200
exceloval při testech propustnosti, ale hodnoty zpoždění a jitteru (fázové
kolísání) jsou mnohem vyšší, než by měly být. Co se týče ostatních účastníků,
žádné ze zbylých zařízení nelze označit jako skutečně 10gigabitové, dokud se
jim od výrobců nedostane upgradu kapacity.
Přestože výsledky jsou tak trochu zklamáním, je důležité dívat se na ně v
kontextu. Jen velmi málo uživatelů (pokud vůbec někteří) plánuje využívat čistě
10Gb sítě, přičemž přepínače podporují celou škálu rozhraní a dalších funkcí
užitečných pro klíčové podnikové sítě, jako je například podpora vysoce
redundantních komponent nebo různé metody pro jejich správu. Musíme také
poznamenat, že přepínače odvedly velmi dobrou práci, pokud se týče úkolů, které
se přímo netýkají 10Gb Ethernetu, například v oblasti zotavení a zajištění
kvality služeb (QoS).

Jak jsme testovali
Výkonnost přepínačů jsme hodnotili s pomocí sady čtyř testů: měření jsme
prováděli v "čistém" 10Gb prostředí, v Gigabit Ethernetu po 10Gb páteři,
zjišťovali jsme časy zotavení a konečně zajištění QoS. Hlavním cílem testů v
čistě 10gigabitovém prostředí bylo získání základních charakteristik přenosu
dat a hodnot zpoždění u této nové technologie. Opravdu je možné dosáhnout 10
Gb/s? A jak velké zpoždění a fázové kolísání lze při této rychlosti očekávat?
Abychom mohli výše uvedené otázky zodpovědět, sestavili jsme zkušební zařízení,
sestávající ze switche vybaveného rozhraními pro 10Gb Ethernet a generátorem a
analyzátorem síťového provozu SmartBits od firmy Spirent Communications.
Všichni dodavatelé poskytli pro tento test čtyři zařízení, s výjimkou firmy
Avaya, která dodala pouze dvě.
Zařízení SmartBits jsme nastavili tak, aby generovalo provoz z více než 2 000
virtuálních hostitelských počítačů (více než 1 000 v případě přepínačů od firmy
Avaya), čímž jsme simulovali prostředí s vysokým počtem zařízení, typické pro
10Gb switche.
Použili jsme tři různé velikosti datových rámců: 64 bajtů, což je nejkratší
rámec povolený ve specifikaci Ethernetu, 256 bajtů hodnota blížící se mediánu
délky datového rámce v oblasti různých internetových připojení, a 1 518 bajtů,
maximální povolená velikost v Ethernetu, používaná při přenosu velkých objemů
dat.
Pouze jediný switch Force10 E1200 v našich testech (viz graf č. 1) dosáhl
skutečně nominální hodnoty propustnosti 10 Gb/s. Působivé je, že této hodnoty
dokázal dosáhnout při využití krátkých, středních i velkých rámců dat. Během
našich základních testů u něj nedošlo ke ztrátě jediného rámce.
Zařízení firem Avaya, Foundry a HP dokázala přenášet data rychlostí kolem 80 %
maximální specifikace linky. Zástupci společností Avaya a Foundry, kteří byli
přítomni při testování, tvrdí, že přepínací moduly omezují schopnosti jejich
zařízení (dosáhla maxima kolem 8 Gb/s, což obecně odpovídá dosaženým hodnotám
při různých velikostech datových rámců).
Přepínač firmy Foundry dosáhl přenosu dat na úrovni 86 % kapacity linky při
použití 64bajtových rámců. Tento výsledek Foundry vysvětluje tím, že jejich
přepínací deska má kapacitu o něco málo vyšší než 8 Gb/s.
Možná ano, ale při testech s rámci o velikosti 256 a 1 518 bajtů tento přepínač
dosáhl přenosových rychlostí pouze 5,5, resp. 5 Gb/s. Pozoruhodné přitom je, že
přepínač od HP docílil při všech velikostech rámce propustnosti blížící se 8
Gb/s, ačkoliv obě zmíněná zařízení vyrábí společnost Foundry. Jedním z možných
vysvětlení je, že Foundry a HP dodaly pro testy různé verze softwaru. To by
vysvětlovalo některé problémy s výkonností a vyšší propustnost switche HP.
Je nutné zdůraznit, že Avaya dodala pro testování pouze dvě 10Gb rozhraní
oproti čtyřem od zbývajících výrobců. Konfigurace s jediným párem portů je
obecně méně zatěžující oproti plně čtyřcestné síti, s jejíž pomocí jsme
hodnotili ostatní zařízení.

Časové zpoždění taktika
Pro některé uživatele je časové zpoždění a fázové kolísání (jitter) dokonce
důležitějším měřítkem než surová rychlost jednotlivých switchů, zejména pokud
se jedná o aplikace v reálném čase. U Gigabit Ethernetu se zpoždění běžně měří
v desetinách milisekund. Očekávali jsme, že u desetigigabitových zařízení by se
tyto hodnoty měly desetinásobně snížit, ale tato očekávání nebyla naplněna.
Zpoždění by se u 10Gb rychlostí mělo blížit nule. Kdybychom měli hypoteticky
dokonalý přepínač, který sám o sobě žádné zpoždění nepřidává. Při hodnotách
rychlosti 10 Gb/s by trval přenos 64bajtového rámce pouhých 67 ns a přenos
rámce o velikosti 1 518 bajtů pak zabere 1 230 ns.
V reálném světě jsou však prodlevy mnohem vyšší (viz graf č. 2). Při 10%
zatížení, kdy je zpoždění způsobeno čistě přesměrováním a neprojevují se zde
další vlivy, jako například narůstající fronta paketů, jsme naměřili hodnoty
zpoždění od 4,3 ms u přepínače Foundry FastIron 400 při použití 64bajtového
rámce až po 46 ms u zařízení Avaya Cajun a rámce o velikosti 1 518 bajtů.
Ačkoliv žádná z hodnot zpoždění sama o sobě není tak vysoká, aby jeden jediný
switch ovlivnil výkon nějaké aplikace, je třeba mít na paměti dvě věci. Zaprvé,
je pravda, že hranicí, kdy výkon aplikace trpí, jsou zpoždění v řádu
milisekund, ale na druhou stranu hodnoty zpoždění jsou kumulativní. Proto by
sítě s mnoha přepínači mohly být zpožděním negativně ovlivněny.
Zadruhé, neexistuje žádný dobrý důvod, proč by 10Gb zařízení mělo zdržovat
datové rámce po dobu 30-50 ms. Pro ilustraci, pokud například Force10 E1200 při
zpracování 64bajtového rámce přidává zpoždění 31,9 ms, pak musí pokaždé uložit
do vyrovnávací paměti 46 rámců.
Firma Force10 tvrdí, že dodaný software byl optimalizován pro minimalizaci
zpoždění při maximálních zatíženích a že další změny v konfiguraci sníží
naměřené hodnoty až o polovinu. Tato tvrzení jsme ale neověřovali.
Přepínače firem Foundry a HP se v tomto ohledu jeví jako nejlepší. Dokonce i v
nejhorším případě u přepínače HP a datového rámce o velikosti 1 518 bajtů
činilo zpoždění pouhých 7,6 ms. To sice není velké zlepšení oproti hodnotám
dosahovaným u gigabitových zařízení, ale přesto podstatně lepší než hodnoty
dosahované jinými výrobci u zařízení desetigigabitových, a to při libovolné
délce rámce.
Pro aplikace typu Voice-over-IP nebo video přenosy je fázové kolísání (jitter)
ještě kritičtějším měřítkem než samotné zpoždění. Naše měření ukázala, že
přepínače s nejmenším zpožděním (viz graf č. 2) také dosahují zanedbatelných
hodnot jitteru. U obou jejich dodavatelů dosahovalo fázové kolísání hodnot 100
ns, což je nejmenší možná hodnota, kterou naše testovací nástroje byly schopné
změřit.
Přepínači Avaya Cajun P882 je také třeba přičíst k dobru, že dokázal udržet
fázové kolísání v hodnotách stovek nanosekund, což je přinejmenším o čtyři řády
níže než hranice, kdy by trpěl výkon aplikací.
Hodnoty docílené u produktu firmy Force10 byly vyšší než u jeho konkurentů a
obecně dosahovaly zhruba 25% průměrného zpoždění. To znamená, že hodnoty
zpoždění u daného přepínače se mohou měnit v průběhu času o 25 % směrem nahoru
i dolů, což je relativně velká odchylka. Ačkoliv takové hodnoty samy o sobě
nezpůsobí degradaci výkonu aplikace, platí již jednou zmíněné upozornění na
kumulativní povahu těchto faktorů: síť s mnoha přepínači firmy Force10 by mohla
přidávat významný jitter.

Stavitelé páteřních sítí
Zatímco základní testy 10Gb zařízení nám dávají slušnou představu o tom, jak se
projevuje technologie uvnitř 10Gb přepínačů, jen málo návrhářů sítí počítá v
dohledné době s čistě 10Gb architekturou. Proto jsme také vyzkoušeli 10Gb
Ethernet v podobě, ve které je jeho využití nejpravděpodobnější: jakožto
agregační technologii pro mnohonásobné gigabitové spoje.
Není náhodou, že testovací konfigurace vypadala podobně jako sestava, kterou
jsme dříve využívali pro testování agregace linek. Primárním cílem testu bylo
zjistit, zda 10Gb ethernetová páteř představuje nějaké zlepšení oproti
předchozím testům využívajícím spojování kapacity, kde dochází k vysokým
ztrátám datových rámců a latenci.
Opět jsme použili zařízení Spirent SmartBits a 64, 256 a 1 518 bajtové rámce k
určení propustnosti, zpoždění a jitteru. V tomto případě jsme využili částečnou
vícecestnou konfiguraci sítě, což znamená, že deset rozhraní na jednom zařízení
si vyměňovalo data s deseti dalšími rozhraními na druhém zařízení přes 10Gb
páteřní spojení, a to oběma směry.
V čele pole stanul opět přepínač Force10 E1200, který dosáhl nominální
rychlosti při všech třech velikostech datového rámce (viz graf č. 3).
Agregovaná propustnost mezi oběma zařízeními se blížila 30 milionům rámců za
sekundu při jejich nulové ztrátě.
Výsledky HP přesně odpovídají 8Gb limitu konstrukce jejich přepínačů. Testy
produktu firmy Foundry při velikosti rámců 256 a 1 518 bajtů byly podstatně
lepší než při našich základních testech v "čistém" 10Gb prostředí.
Switch Avaya Cajun uzavíral startovní pole s propustností pod 5 Gb/s v každém
testu. Avaya to připisuje designu zařízení, u kterého dochází k zahlcení, pokud
využití dosáhne zhruba 60 % kapacity. V daném případě představuje 60 % z 8Gb/s
právě hodnoty, které jsme naměřili.

Méně čekání
10Gb ethernetová páteř má oproti agregaci linek výhody i co se týče zpoždění a
fázového kolísání. V našich dřívějších testech jsme zaznamenali při agregaci
zvýšení naměřených hodnot zpoždění až o 1 200 %. Letos jsme naměřili jen mírný
nárůst zpoždění a jitteru oproti čistě 10Gb konfiguraci.
Přepínače firem Foundry a HP odvedly nejlepší práci a změřené hodnoty se
pohybovaly nízko, a to při všech velikostech datového rámce (viz graf č. 4).
Nejhorších výsledků dosáhl produkt FastIron při délce rámce 1 518 bajtů, kdy
průměrné zpoždění činilo 32,3 ms, což je i tak hluboko pod hranicí vlivu na
výkon aplikace.
Zpoždění a fázového kolísání byly vyšší u přepínačů Avaya a Force10, u produktu
společnosti Force10 dokonce mnohem vyšší. Nejhorší hodnota byla naměřena v
případě rámce o velikosti 1 518 bajtů, který switch Force10 zpozdil v průměru o
90,9 ms; v případě produktu Avaya Cajun dosahovalo zpoždění 16,4 ms. Taková
čísla sama o sobě nejsou důvodem k obavám, pohybují se ve stejném rozsahu jako
u některých gigabitových přepínačů, a právě Gigabit Ethernet byl jedním z
faktorů ovlivňujících tento test. Přesto ale přepínače firem Foundry a HP
dokazují, že je možné dosáhnout nižšího zpoždění a fázového kolísání.

Rychlé zotavení
Mnoho uživatelů dává přednost odolnosti před propustností, jitterem nebo
zpožděním. Hodnotili jsme schopnost přepínačů zotavit se ze selhání linky tak,
že jsme měřili, jak dlouho trvá přesměrování provozu na linku záložní.
Pro tento test jsme spojili dva switche pomocí dvou 10Gb ethernetových linek a
požádali dodavatele, aby nastavili produkty do konfigurace OSPF (Open Shortest
Path First), kdy jedna linka byla určena jako primární a druhá jako záložní.
Poté jsme dodávali data na gigabitové rozhraní jednoho přepínače a ověřovali,
že data byla přenesena přes primární linku na přepínač druhý. Jakmile jsme toto
ověřili, fyzicky jsme odpojili primární spojení obou switchů. Tím jsme je
donutili přesměrovat provoz na záložní linku. Přesměrování nějakou dobu trvá, a
během této doby nezbytně dochází ke ztrátě určitého počtu datových rámců. Čas
potřebný ke zotavení jsme odvodili právě z počtu rámců, které byly ztraceny.
Force10 dodala dostatek rozhraní k tomu, aby tento test bylo možno opakovat se
dvěma páry páteřních spojení agregovaných s využitím 802.3ad. Avaya se tohoto
testu nemohla zúčastnit, neboť nedodala potřebná čtyři 10Gb rozhraní. U
zařízení dalších výrobců jsme testovali zotavení pomocí jediného páteřního
spojení.
Výkon zařízení Force10 v našem testu zotavení je ilustrací velkého zlepšení
oproti obdobným testům prováděným v minulosti při agregaci linek. Další
dodavatelé neposkytli dostatečný počet 10Gb rozhraní pro vyzkoušení agregace
linek, ale dosažené časy zotavení jsou přesto imponující. V minulých testech se
potřebná doba pro zotavení při použití agregace zdesetinásobila. To se ale
nestalo při použití Force10 E1200. V našem testu se čas nutný pro zotavení
dokonce při agregaci linek zlepšil ze 474 ms na 384 ms.
Ani Foundry, ani HP nedodaly dost zařízení k vyzkoušení agregace, ale oba
výrobci dosáhli lepšího času zotavení než přepínač od firmy Force10. U Foundry
jsme naměřili 237 ms, u HP pak 313 ms.

Zajištění QoS
Pokud jde o zajišťování QoS parametrů pro různé třídy datového provozu při
rychlostech 10Gb Ethernetu, žádnému z dodavatelů se nepodařilo naplnit naše
požadavky. Přesto jsou ale výsledky lepší, než jakých jsme docílili v minulosti
s využití agregovaných připojení.
Rovněž v tomto testu našlo uplatnění zařízení SmartBits. Generovali jsem tři
různé třídy provozu a na switche jsme měli čtyři různé požadavky.
Zaprvé by přepínače měly přenést data za použití DCP (Diff-Serv Code Points).
Označování datových rámců je vhodnou metodou v oblasti bezpečnosti bez něj
mohou všichni uživatelé označit veškerý odchozí provoz jako vysoce prioritní.
Zadruhé jsme očekávali, že přepínače budou schopny dodávat data s vysokou
prioritou, aniž by docházelo k jejich ztrátě, a to i v případě zahlcení.
Zatřetí jsme požádali dodavatele, aby nastavili své produkty tak, aby síťový
provoz s nízkou prioritou v žádném případě nespotřeboval více než 2 Gb/s z
dostupné přenosové kapacity. Tato funkce je kritická pro řízení toků dat s
nízkou prioritou, jako jsou například streamovaná média.
A konečně jsme požadovali, aby switche byly schopny alokovat zbývající
přenosovou kapacitu pro přenosy se střední prioritou. Při dané testovací
konfiguraci bylo možno přesměrovat beze ztrát veškerý provoz s touto prioritou,
ale ne všechny přepínače to ve skutečnosti dokázaly.

Závěr
Rozhodnout, který produkt byl nejlepší, je otázkou volby pravidla, které je pro
vás nejdůležitější. Pokud je hlavním požadavkem, aby nikdy nedošlo ke ztrátě
rámce s vysokou prioritou, pak je nejlepší Avaya Cajun.
Pokud dáváte přednost tomu, aby všem pravidlům bylo vyhověno v maximální možné
míře, pak v této soutěži vítězí Force10 E1200. Ačkoliv došlo ke ztrátě malého
množství dat s vysokou prioritou, E1200 nejlépe naplnil očekávání ohledně všech
3 tříd datového provozu.
Výsledky dosažené při použití switchů od HP a Foundry jsou poněkud záhadné.
Zatímco oba výrobci slušně zvládli přenášet data s vysokou a střední prioritou,
výsledky v oblasti kontroly přenosové kapacity u provozu s nízkou prioritou
jsou hluboko pod očekáváním. Dobrou zprávou pro všechny výrobce je zjištění, že
zajištění kvality služeb na 10Gb páteřní síti funguje obecně lépe, než je tomu
u agregovaných linek složených z jednotlivých gigabitových linek.

Cisco Catalyst 6500 zvyšuje laťku
David Newman

Cisco sice přišlo na trh 10Gb ethernetových přepínačů poměrně pozdě, ale
rozhodně nezaostává za konkurencí. Naše testy ukázaly, že nové karty a moduly
pro správu přepínače Cisco Catalyst 6500 posouvají výkonnostní hranice v celé
řadě aspektů:
Testovaný Catalyst je teprve druhých produktem, který dokázal plně využít
teoretickou kapacitu 10 Gb/s spojení.
Rychlé zotavení. V tomto testu dosáhl produkt rekordních hodnot.
Dokonalá prioritizace. Catalyst je jediným produktem, který je schopen chránit
datové toky s vysokou prioritou a současně omezovat přenosy dat s nízkou
prioritou.
V našem vůbec prvním testu směrování IPv6 dokázal produkt firmy Cisco přesouvat
data na úrovni maximální kapacity linky a zvládnout přitom 250 milionů datových
toků.
Abychom zajistili srovnatelnost testů, provedli jsme u 10Gb karet Cisco
WS-X6704-10GE a doplňujících modulů pro správu WS-SUP720 stejné testy, jako u
ostatních produktů, které naleznete v našem přehledu. Testovali jsme výkon
zařízení jak v "čistém" 10Gb prostředím, tak i v rámci gigabitového Ethernetu
po 10Gb páteři, dále časy zotavení a konečně zajištění kvality služeb QoS. Pro
recenzi tohoto produktu jsme navíc přidali zotavení a směrování a forwardování
IPv6.
Při testování 10Gb Ethernetu jsme opět použili zařízení SmartBits od firmy
Spirent Communications. 10Gb karty od Cisca dosáhly při všech testech maximální
teoretické propustnosti. Tím se Cisco vyrovnalo přepínači E1200 společnosti
Force10 Networks.
Měli bychom zmínit, že při využití všech čtyř portů 10Gb ethernetových karet od
firmy Cisco dochází při přenosu 64bajtových datových rámců k blokování, které
způsobuje následně jejich ztrátu. Při našich testech to neznamenalo žádný
problém, protože jsme přesouvali data mezi dvěma porty každé z dvojice karet.
Cisco tvrdí, že k blokování nedochází, pokud se přenášejí data se smíšenými
velikostmi rámců, což jsme neověřovali.
Zpoždění (delay) a fázové kolísání (jitter) u 10Gb ethernetových karet od firmy
Cisco nedosáhly tak nízkých hodnot, jaké jsme naměřili u dříve testovaných
produktů od Foundry Networks nebo HP, ale dosažené výsledky jsou hluboko pod
hranicí, kdy by mohlo dojít ke zhoršení výkonu aplikací (viz tabulka).
Nejvyšší naměřená průměrná hodnota zpoždění (u rámců o velikosti 1 518 bajtů
při 10% zatížení) dosáhla 12,4 ms, v porovnání se 7,5 ms u produktu firmy
Foundry. Fázové kolísání činilo 0,5 ms, což je srovnatelné s přepínačem
Foundry, jenž dosáhl při stejném testu 0,6 ms. Ani jedna z těchto hodnot však
neovlivní výkon aplikací.
Také jsme vyzkoušeli 10Gb Ethernet v podobě, ve které je jeho využití
nejpravděpodobnější: jakožto páteřní technologii. Produkt firmy Cisco při všech
velikostech datového rámce dosáhl maximální hranice propustnosti linky, přičemž
hodnoty zpoždění a kolísání opět nevýznamně zaostávaly za výrobky Foundry a HP.
Nejvyšší zpoždění (u 1 518bajtových rámců) činilo 33,5 ms, ve srovnání s 31,3
ms u HP. Rozdíl je to opět nepodstatný.

Představujeme IPv6
Výsledky produktu firmy Cisco byly u IPv6 prakticky identické s těmi, které
přepínač dosáhl u IPv4. Nové 10Gb karty opět dosáhly maximální teoretické
propustnosti ve všech případech. Zpoždění a jitter byly dokonce v případě
krátkých a středních datových rámců IPv6 nižší než při použití IPv4, a naměřené
zpoždění u dlouhých rámců bylo jen mírně zvýšené.
Všechny dosavadní testy IPv6 se dosud soustředily spíše na forwardování než na
směrování, zejména proto, že směrovací protokoly pro IPv6 se teprve dostávají
na trh. Modul pro správu WS-SUP720 podporuje OSPFv3, což je obdoba oblíbeného
protokolu Open Shortest Path First s podporou IPv6. V našem prvním testu IPv6
směrování jsme použili software TeraRouting od firmy Spirent, který přes OSPFv3
nabízel dvojici zařízení Catalyst 100 000 unikátních cest (každá z nich
představovala jednu síť). Jelikož škálovatelné adresování je jednou z hlavních
předností IPv6, posílali jsme data na 250 virtuálních počítačů na každou ze sto
tisíc sítí. To znamená celkem 250 milionů datových toků: na každém ze dvou
zařízení jsme dodávali data na 10 rozhraní z 250 hostitelských počítačů, z
nichž každý generoval provoz pro 50 000 sítí na každém ze dvou přepínačů.
Abyste si tyto údaje mohli dát do nějaké perspektivy, představte si, že jsme
vzali kompletní populaci 11 největších měst USA, každému obyvateli dali počítač
a směrovali veškerý síťový provoz na jeden pár přepínačů Catalyst. Je proto
třeba ocenit, že Cisco tento provoz zvládlo s maximální propustností a
průměrnými hodnotami zpoždění.

Zajištění QoS
Cisco také překonalo dříve testované produkty při zajišťování kvality služeb.
Při tomto testu jsme dodávali tři třídy datového provozu a požadovali jsme, aby
přepínač doručil veškerá data s vysokou prioritou beze ztráty, a to i v případě
zahlcení sítě.
Také jsme vyžadovali, aby síťový provoz s nízkou prioritou byl omezen tak, že v
žádném případě nespotřeboval více než 2Gb/s z dostupné přenosové kapacity.
Emulovali jsme 252 hostitelských počítačů na každém z 20 portů, což dává
dohromady 5 040 virtuálních strojů.
V testu zde uváděných přepínačů dokázaly produkty ochránit provoz s vysokou
prioritou, ale nedokázaly omezit přenosovou kapacitu pro data s nízkou
prioritou. Cisco zvládlo obojí: Catalyst 6500 nejen doručil veškerá data s
vysokou prioritou bez jakékoliv ztráty, ale také na 99,99 % splnil zadání, co
se týče omezení dostupné šířky pásma pro třídu provozu s nízkou prioritou.

Selhání? Jaké selhání?
V testu zotavení v případě selhání jsme hodnotili, jak rychle je přepínač
schopen v případě výpadku primární linky přesměrovat provoz na linku záložní.
Otestovali jsme Cisco jak při OSPF (Open Shortest Path First), tak při agregaci
linek 802.3ad.
Při testech zotavení OSPF přesměroval Catalyst provoz v průměru během 195 ms.
To je mírné zlepšení oproti 237 ms, času dosaženém u přepínače firmy Foundry.
Při využití agregace linek se čas potřebný k zotavení snížil na pouhých 45
milisekund.
Provedli jsme také test zotavení při dvou milionech datových toků, což znamená,
že milion z nich by byl ve stavu "zotavení". Výkon přepínače Catalyst se při
uvedeném testu zlepšil zotavení při OSPF činilo 86 ms a při agregaci linek
pouhých 18 ms. Tím se potvrzuje, že Cisco je schopno podporovat velké množství
datových toků; v budoucích testech zjistíme, jak jsou na tom ostatní produkty.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.