Jak chytře investovat do úložných řešení

15. 2. 2015

Sdílet

 Autor: © animind - Fotolia.com
Nasazení flash pamětí do úložných systémů by mělo předcházet pečlivé prozkoumání vlivu této technologie na současné i budoucí potřeby.

Úložiště využívající SSD představují slibnou technologii, která se v příštím desetiletí bude nasazovat v téměř všech datových centrech. Primární nevýhodou je ale cena, která je, navzdory tvrzení dodavatelů, 3x až 10x větší než cena rotačních médií (HDD).

Objasníme vám dva základní způsoby, které lze použít k analýze současných i budoucích požadavků a k porozumění tomu, jaké zátěže budou mít prospěch z úložišť tvořených právě prvky SSD.

Jedním z nejlepších způsobů, jak porozumět požadavkům nasazení, je mít přesný model představující aktuální profily vstupně-výstupních operací úložiště. Takový model lze použít k otestování nových architektur, produktů a přístupů.

Cílem je umožnit vývoj dostatečně realistického modelu zátěže, aby bylo možné srovnávat různé technologie, zařízení, konfigurace a verze softwaru i firmwaru, které se mají nasadit v infrastruktuře.

Prvním krokem k efektivnímu modelování zátěže je znát klíčové charakteristiky přenosů úložiště, které mají největší potenciální dopad na výkon. U každého nasazení je důležité pochopit špičkové zátěže, specializované zátěže, jako jsou například zálohování a vzorce zátěže ke konci měsíce a roku, a vlivné události, jako jsou například smrště úkonů přihlašování či odhlašování.

Existují tři základní oblasti, které je potřebné uvážit při charakterizování zatížení. První je popis velikosti, rozsahu a konfigurace samotného prostředí. Druhá je porozumět přístupovým vzorům – jak často a jakými způsoby se k datům přistupuje. A třetí je pochopit zátěžové vzory v průběhu času.

Prostředí různých úložných systémů (NAS, tedy souborový a SAN, blokový) mají své jedinečné charakteristiky, které se musí dobře pochopit, aby bylo možné vytvořit přesný model zátěže.

Například v prostředí NAS je nutné určit odpovídající počet klientů a serverů, množství klientů na server, rozložení velikostí souboru, podadresářů, hloubku stromů apod.

V prostředí SAN je zase nezbytné stanovit počet fyzických iniciátorů (HBA/NIC), průměrný počet virtuálních iniciátorů na jeden fyzický iniciátor, průměrné množství aktivních virtuálních iniciátorů na fyzický port, počet logických jednotek na HBA a nastavení hloubky fronty pro serverové HBA nebo iSCSI LUN.

Přístupové vzory jsou také klíčem k pochopení toho, jak často a jakým způsobem se k úložišti přistupuje. Je důležité zohlednit několik případů použití, jako jsou průměrné, špičkové a při speciálních podnikových událostech. Správné stanovení charakteristiky přístupových vzorů je také odlišné pro souborová a bloková úložiště.

 

Prostředí NAS

V prostředích NAS souvisejí informace o každém souboru s adresářem a počítačem včetně údajů, jako jsou název souboru, umístění, datum vytvoření, čas posledního zápisu, přístupová práva a stav zálohy. Tyto informace, nazývané jako metadata, často tvoří velkou část všech příkazů přístupu k souborům a přenosů úložiště.

Některé přístupové vzory aplikací obsahují více než 90 % metadat a méně než 10 % patří zápisu a čtení dat samotných. Pro přístup k souborům je důležité znát procentuální rozložení pro každý příkaz.

Freewarové nástroje jako Iometer (které mnoho dodavatelů flash technologií používá pro posuzování hodnoty IOPS) jsou v prostředích s ukládáním souborů nepoužitelné, protože nedokážou modelovat příkazy pro metadata.

Ty ale umožňují pochopit, jak aplikace zatěžuje úložnou infrastrukturu a zpracování, které se vyskytuje v každém počítači, a to nejen v souborovém systému.

Testování by mělo také odrážet komprimovatelnost, vzory a jak dobře lze data deduplikovat. Abychom rozuměli, jak dobře funguje rozpoznávání vzorů v prostředí, musí testování obsahovat datové typy reprezentující aplikace, které používají úložiště souborů.

 

Prostředí SAN

V prostředí SAN udržuje každá aplikace svá vlastní metadata. Z hlediska přenosů úložiště vypadá přístup k metadatům jako aplikační přístup s výjimkou toho, že se oblast metadat obvykle více zatěžuje a přístup je tam častější než v oblastech, kde se nacházejí data aplikací.

 

bitcoin školení listopad 24

Kompletní článek zahrnující spoustu dalších poznatků, trendů a zajímavostí si můžete přečíst v Computerworldu 15/2014.