Google page speed insights

Wiele firm dostarczających rozwiązania internetowe, agencje kreatywne i firmy pozycjonerskie jako kartę przetargową przy sprzedaży swoich usług podają wyniki z Google page speed insight jako wyznacznik jakości wykonania strony internetowej. Chciałem podjąć ten temat, żeby Ci pokazać o co tak naprawdę chodzi.

Miernik prędkości strony

Zacznijmy od tego czym jest ww. narzędzie. Jest to nic innego jak aplikacja działająca przez przeglądarkę. Możesz wyszukać tej strony wpisując jej nazwę w wyszukiwarce Google i przetestować jej działanie na każdej stronie internetowej. Celem tego narzędzia jest pokazanie twórcom i administratorom prędkość ładowania się ich strony internetowej wypunktowując nad czym powinni popracować, aby poprawić wyniki. Wśród zaleceń znajdziemy wytyczne tj. kompresja obrazów, zminifikowanie kodów css i javascript, oraz zmniejszenie czasu odpowiedzi serwera.

Kilka miesięcy temu Google wypuścił na swiat nową i odświeżoną wersję narzędzia przy czym nie skupiał się tylko na kwestiach wizualnych. Wraz z aktualizacją pojawiły się nowe funkcje analizy stron internetowych. Nie wdając się w szczegóły – przegięli. Zanim opublikowali nową wersję byłem w stanie sugerować się wytycznymi i jak wielu szczyciłem się wysokimi wynikami przy rozbudowanych layoutach nafaszerowanych skryptami, animacjami, etc. Niestety dobra passa się skończyła. Wielki gigant ze stanów zjednoczonych zaczął wymagać więcej. Dobrym przykładem pokazującym absurd tej wersji jest czas odpowiedzi serwera (TTFB). O ile duże firmy hostingowe reklamujące się jako nr 1 w polsce faktycznie będą miały z tym problem, bo ich serwery są przeładowane, więc zanim serwer “pomyśli” miną 2-3 sekundy to reszta mniej obleganych powinna sobie poradzić. I w ten sposób oferuję klientom hosting na swoim VPS z niewielką ilością użytkowników i dobrze zoptymalizowanymi stronami. Tak więc w najlepszym wypadku w testach GPSI sam serwer jest w stanie uzyskać wynik TTFB na poziomie 0,06 s. Tak 60 milisekund sekund to mieści się w przedziale czasowym tempa uderzeń skrzydłami kolibra. I uwaga na stronie Google page speed insights ta wartość jest na czerwono! No to już się zagotowałem. Przepraszam ja się pytam ile potrzeba, żeby uzyskać wartość zieloną? Kolejna sprawa to obrazki na stronie. O zgrozo. Znalazłem narzędzie do kompresji online o nazwie tinypng. Wrzuciłem kilka obrazków do kompresji i o dziwo kompresja udana średnio zaoszczędzonej wielkości obrazów 45%.

Myślę sobie super i nawet nie ma dużej straty jakości. Wrzucam na stronę, nowy test i co? Znowu sugestia kompresji obrazów. Może jeden raz to za mało. Znalazłem jakieś kolejne narzędzie i jedziemy. Skompresowane, teraz zaoszczędzono 1-3% zawsze coś. Spowrotem na serwer i kolejny test. I jak teraz? Okazuje się, że w dalszym ciągu Googlowi to nie wystarcza, o zgrozo… odpuściłem. Po wczytaniu się w rozpiskę obrazów gdzie sugerują kompresję jest wyliczona szacunkowa wartość ile można by było jeszcze zaoszczędzić. Wyobraź sobie moją minę jak się okazuje, że Google doprasza się o skompresowanie obrazów, gdzie na każdym średnio jestem w stanie zaoszczędzić 10 kB. No już bez przesady…

Jeżeli coś zajmuje za dużo czasu a nie jest tego warte to odpuszczam i tak też zrobiłem w tym temacie. Uzyskałem najlepszy możliwy wynik i zrobiłem wszystko co w mojej mocy, żeby taki był. Podczas zmagań doszedłem do pewnych wniosków. Googlowi zależy żeby doświadczenie użytkownika przy przeglądaniu stron internetowych było jak najlepsze i to rozumiem, ale jakim kosztem. Strona ładująca się 2-3 sekundy jest jak najbardziej dopuszczalna. Mam też wrażenie, że twórcy tego narzędzia nie biorą pod uwagę jednego czynnika jakim jest prędkość transferu danych internetowych użytkownika. Wiadomo sieci komórkowe prześcigają się w prędkościach i technologiach, ale niestety nie posiadają 100%-owego pokrycia, więc siłą rzeczy poza miastem te strony będą się wczytywały wolniej.

Wniosek na dziś: zrób tak, żeby użytkownik nie czekał za długo, ale nie dajmy się zwariować.