Google postupoval tak, že z webu sesbíral náhodný vzorek z šesti milionů obrázků v rozlišení 1280x720 a ty rozdělil do nepřekrývajících se dlaždic o velikosti 32x32. Následně se zaměřil na 100 z nich, které měly nejhorší míru komprese; tedy je jde nejhůře komprimovat.
Cílem bylo zlepšit proces především u těch na kompresi nejsložitějších obrázků, protože u zbytku by to pak, dle uvažování týmu firmy, mělo jít o to snadněji.
Výzkumníci následně využili TensorFlow – open source systém pro strojové učení od Googlu – k vytvoření sady experimentálních neuronových sítí. S pomocí jednoho milionu kroků si neuronové sítě „vycvičili“. Poté sesbírali řadu technických dat, aby zjistili, které modely slavily největší úspěch.
Ve finále se jejich modelům podařilo v průměru překonat kompresi JPEGu. Další výzvou, popsali výzkumníci, bude porazit kompresní metody odvozené z kodeků pro videokompresi u velkých obrázků, protože ty „využívají triky, jako je opětovné použití segmentů, které již byly dekódovány.“ WebP, odvozený z kodeku VP8, je příkladem takové metody.
Výzkumníci však upozornili, že není vždy snadné přesně určit vítěze – lidské vnímání komprese se od toho strojového často liší.
Celý výzkum popisuje vědecká práce Googlu, zveřejněná minulý týden.