Analýza aktivit na vašem Webu

O nezbytnosti prezentace firmy na vlastních WWW stránkách snad už dnes není třeba nikoho přesvědčovat. Mnoho již byl...


O nezbytnosti prezentace firmy na vlastních WWW stránkách snad už dnes není
třeba nikoho přesvědčovat. Mnoho již bylo také napsáno o tom, jakým způsobem
stránky správně propojit nebo jak by měl vypadat jejich obsah a to jak po
informační, tak i po grafické stránce.
Vytvoření stránek je ovšem jedna věc a jejich oblíbenost v očích uživatelů věc
druhá. Jak se o ní ale objektivně přesvědčit? Přístupů existuje samozřejmě
spousta. Od těch nejjednodušších, mezi které patří zjišťování počtu požadavků
na stažení určité stránky, až po složité analýzy chování návštěvníků v celé
síti stránek. Přitom je třeba vzít v úvahu, že uživatelé reagují různě na různé
typy Webů. Nejen podle jejich obsahu a uspořádání, ale také podle výkonnosti
serveru a momentální propustnosti sítě a tedy rychlosti doručení požadovaných
dat.
Měřit objektivně kvalitu obsahu je téměř nemožné. Zato další zmíněné parametry
už zpravidla měřitelné jsou. A z nich pak případně lze cosi odhadnout i o
přitažlivosti jednotlivých stránek.
Co měřit
První obvykle měřenou veličinou jsou zásahy hits, což znamená požadavky na
jednotlivé soubory tedy stránky, ale také v nich obsažené obrázky. Je na první
pohled patrné, že celkový počet zásahů v síti bude mj. záviset též na hustotě
obrázků na jednotlivých stránkách.
Další důležitou informaci představuje uživatelova cesta sítí kudy se
"proklikal", kterou stránku viděl první, kolik stránek viděl a kterou z nich
naopak viděl jako poslední před tím, než vaši síť opustil.
Velkým přínosem pro vystavovatele stránek by byla nepochybně také informace o
demografickém složení návštěvníků to ovšem předpokládá vyžádat si registraci,
což je pro lidi brouzdající Webem činnost velmi nepopulární. Ovšem i bez ní je
možno
evidovat, odkud se návštěvník
přihlásil nebo jaký prohlížeč používá.
Žádný sebelepší obsah nepomůže k oblíbenosti vaší sítě v případě, kdy jsou
stránky nedosažitelné, nebo jejich stahování trvá neúnosně dlouho. Na to má
vliv nejen kvalita serveru, ale též vlastní obsah stránek (především velikost
obrázků) a přenosová síť. Řadu faktorů je možno ovlivnit je ale třeba ze
spolehlivého zdroje vědět, kdy je třeba přistoupit ke změně.
Jak měřit
Než se podíváme, jak získat požadované informace, je ještě třeba podotknout, že
k vlastní analýze získaných dat je zpravidla nutno použít vhodný nástroj z
textových výpisů se jen těžko dělají závěry o změnách počtu vyžadovaných
stránek, převládajících stereotypech v chování návštěvníků vašeho Webu nebo
časovém rozvržení požadavků vznesených na jednotlivé stránky.
A nyní se již pojďme podívat, kde se dají data potřebná k analýze získat.
Většina webových serverů poskytuje informace o své činnosti prostřednictvím
tzv. log--souborů. Vyžádá-li si uživatel stránku nebo obrázek, server tento
požadavek zpracuje a po odeslání příslušných souborů si provedenou akci
poznamená a to i v případě chyby.
Log-soubor je zpravidla jednoduchý ASCII soubor, který by podle standardu z
roku 1994 měl obsahovat informace odpovídající tzv. CLF (Common Log Format).
Tak by měl na každém řádku obsahovat jeden záznam, který by se měl skládat z
adresy hostitelského počítače klienta, jména uživatele (je-li dostupné),
autorizace uživatele (pokud se autorizoval), data a času, časové zóny, prvního
řádku požadavku (např. GET/ /HTTP/2.0), výsledku zpracování požadavku a počtu
přenesených bajtů.
Postupem času byl formát CLF rozšířen na tzv. Extended CLF (ECLF), který navíc
poskytuje informaci o URL (Universal Resource Location), ze které návštěvník
přišel, a typu používaného browseru. I ECLF lze považovat pouze za minimální
variantu servery jsou často schopny poskytovat i další informace, o které
Web-master požádá.
Přesnost log-souborů ovšem nemusí být za všech okolností vyhovující, protože
hovoří o požadavcích a jejich plnění ze strany serveru, ale nedozvíte se z nich
už nic o skutečném doručení informací. Web-server také sám neví, jak dlouho
vlastně odpovídal, příp. jestli uživatel náhodou nestiskl tlačítko STOP v
průběhu odpovědi apod. Také přesnost časových údajů, které používají rozlišení
v řádu 1 sekundy, nemusí být postačující.
Všechny tyto faktory omezují informační hodnotu analýz provedených na základě
informací z těchto souborů. Správce Webu z nich nemá šanci ani odhadnout, zda
krátké setrvání v jeho síti má na svědomí nezajímavý informační obsah, dlouhá
doba odpovědi, nebo třeba špatné propojení stránek.
Naštěstí je možno, kromě zjišťování informací o provozu na webovém serveru z
log-souborů, často využít ke sběru požadovaných dat též API (Application
Program Interface) Web-serverů. Jeho prostřednictvím lze zpravidla získávat
daleko širší škálu údajů přímo od pramene. Bohužel ani sám server o spoustě
věcí neví, nebo je nemusí sledovat. Patří mezi ně např. informace o požadavcích
klientů, které neobsloužil z důvodu přehlcení nebo o těch požadavcích, které
klient zrušil v okamžiku doručování.
Možným přístupem ke sběru dat je též použití aktivního obsahu stránek např.
zaslaný program v Javě vás může zásobit řadou důležitých informací o chování
člověka, sedícího před browserem v okamžiku, kdy si prohlíží vaše stránky. To
ovšem předpokládá, že browser je schopen Javu provozovat a že váš návštěvník je
ochoten mu spuštění takových programů povolit. Což nemusí být z důvodu
bezpečnosti pravidlem.
Accrue Insight
Chceme-li získat komplexnější informace o všech oblastech, které nás v
souvislosti s provozem na Webu mohou zajímat, je třeba provádět jejich sběr
nejen na úrovni protokolu HTTP, ale také pod ní. Monitorováním aktivit už na
úrovni TCP/IP tak, jak to dělá např. analyzátor protokolu HTTP firmy Accrue
Software s názvem Insight, je možno získat přesné časování toku dat od chvíle
jejich vyžádání klientem, přes dobu zpracování, okamžik jejich odeslání až po
potvrzení adresátem. Společně s vlastní analýzou na úrovni HTTP pak lze získat
globální přehled také o reakcích uživatelů.
Sestoupení na nižší úroveň má oproti jiným řešením (např. využití log-souborů)
navíc tu výhodu, že je snadno možno použít jeden společný analyzátor pro větší
množství serverů.
O tom, že takto sebraná data je nutno dále analyzovat prostřednictvím
specializovaného softwaru, už byla zmínka výše. Zmíněný produkt Accrue Insight
to dělá poměrně velmi přehledně, jak je ostatně možno se přesvědčit na okolních
screenshotech. Ty ukazují grafické ztvárnění naměřených veličin program ovšem
umožňuje též zobrazení v tabulkách v případě zobrazení způsobu pohybu uživatelů
po vašem Webu je pak zvoleno speciální schema. S pomocí uvedených analýz je
možno snadno vysledovat, kolik informací zájemci o váš Web skutečně dostali,
kdy (a možná i proč např. pokud zjistíte, že doručení informací trvalo více než
10 sekund) vaši síť opustili apod. Tomu pak nepochybně přizpůsobíte obsah vaší
sítě a v případě potřeby i výkon vašich webových serverů.
8 0043 / pen









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.