Hostersi opublikowali kolejny raport z przeprowadzonego przez nich testu szybkości otwierania najpopularniejszych Polskich serwisów. Szczegóły metody dostępne są pod linkiem w wygodnym pliku badanie2013.pdf
Wyniki badania są o tyle interesujące, że w oczywisty sposób potwierdzają to, co Internauta z przeciętnym komputerem i przeciętnym łączem czuje i widzi na co dzień – łącza, owszem, są coraz szybsze, ale mało co się szybciej otwiera. Z raportu wynika wręcz, że tylko jeden popularny serwis (Interia.pl) przyspieszył w stosunku do tego, co było w zeszłym roku (z 6,6 sek do 6,1), a Gazeta.pl utrzymała swoje zeszłoroczne tempo. Nie pozostaje nic, tylko pogratulować zwycięzcom ;-)
Kto okazał się wygranym? W zasadzie pierwsza trójka jest ta sama, co i rok wcześniej – Wikipedia, Facebook i Allegro. jednak nawet tutaj przetasowania na przestrzeni ostatnich lat nastąpiły. Śmiało to powiem: dramatycznie! Allegro z I miejsca na podium w 2011 spadło na III miejsce już w 2012 i od tamtej pory tylko spada. Wikipedia i Facebook mijają się o włos; Obie te firmy walczą o złoty medal jak te lwy!
Dlaczego to robią? Biorąc pod uwagę koszta jakie generują szybka infrastruktura i tak zaawansowana optymalizacja, musi być coś na rzeczy, prawda?
Obrazki pochodzą z raportów opublikowanych na stronie Hostersi.
Dlaczego strony zwalniają? Zwiększona liczba użytkowników których musi obsłużyć serwer, to tylko część odpowiedzi; Nasycenie czy wręcz przesycenie stron reklamami (a co jedna, to cięższa), integracja z serwisami SocialMedia (osobiście tego właśnie nienawidzę najbardziej) i podpinanie jak największych ilości szpiegujących nas skryptów niech będzie częścią odpowiedzi kolejną.
O prędkości otwierania jako jednym z czynników rankingu SERP słychać od dawna. Chwilę temu pojawiły się informacje z samej góry, że witryny nie posiadające zoptymalizowanej wersji mobilnej będą w rankingu słabiej traktowane. Gdyby tego było mało, każdy z nas, Internautów zna to z codziennej praktyki – strona się wolno ładuje? Zapomnij o niej, jest wiele innych, prezentujących te same treści. Tylko szybciej. Oszczędzaj swój czas, oszczędzaj transfer, surfuj komfortowo ;-)
W tym miejscu dygresja; Rankingi takie jak powyższy nie dotyczą tylko wielkich graczy i stron z pod znaku grup kapitałowych. Niewielkich serwisów bardziej lub mniej prywatnych Internautów to również powinno dotyczyć. A jednak, z praktyki wynika, że mało który właściciel witryny przykłada do tego wagę i stara się przyspieszać własny serwis. Pal licho, gdy optymalizacji wymagają bardzo geekowskie elementy: łączenie javascriptów i arkuszy styli CSS, o prędkości samego serwera i interpretera php nie wspominając. Ale optymalizacja grafiki? Dlaczego nawet tego im się nie chce?
Wydaje mi się, że mnóstwo ludzi publikuje zdjęcia na stronach www prosto z aparatu; Producenci prześcigają się w technologicznym wyścigu i w efekcie matryce mamy coraz większe; Szybszy AF słabo wygląda w reklamie, zawsze co 24 czy 36 Mpix to jest naprawdę coś! 12Mpix zostawmy dzisiaj telefonom i smartfonom… Matryce mamy coraz większe, to i zdjęcia ważą coraz więcej. Proste.
Jest to dla mnie, zwłaszcza ostatnio, bo sam próbuję lizać temat przez obiektyw lustrzanki, bardzo interesujący temat. Inspirujące są zwłaszcza rozmowy z zawodowymi fotografami, którzy pytają: Creative Cloud? Co to? Albo ci, co o sobie mówią „świetnie znam Photoshopa” a nie korzystają z opcji „Save for Web”. Po co, przecież MAM* 30Mb łącze?
——
* – podkreślenie moje, ale zupełnie autentyczne. Facet na serio uważa, że sam fakt posiadania łącza o wysokiej przepustowości zwalnia go z obowiązku optymalizowania własnych fotografii publikowanych na firmowej witrynie. Uwierzysz w takich? Jak takiemu tłumaczyć konieczność optymalizacji dla innych, skoro nie widzi świata poza czubkiem własnego nosa? A sam siebie mianuje Pedagogiem :-/
Ja nie zwróciłem na to uwagi, ale też nie przyglądałem się zbyt uważnie; 30Mb łącze faktycznie rozleniwia :-P
Powiedzcie mi czy masie jakieś informacje o ile spowolniło ładowanie strony przez te nowe komunikaty o cookies?
Gdzieś ostatnio była informacją, że każdą dodatkowo sekunda ładowania zwiększa współczynnik odrzuceń o 7%. Tylko gdzie to było?:)
„Ale optymalizacja grafiki? Dlaczego nawet tego im się nie chce?”
„Nawet tego”, myślę że osoby tak mówiące nie mają pojęcia jak dużo czasu trzeba poświęcić, by odpowiednio zoptymalizować grafikę, uruchomienie skryptu do optymalizacji PNG na najwyższych obrotach to wydatek rzędu od 2 do nawet 90 minut przy moim procku 2.53, oczywiście czas uzależniony od rozmiaru grafiki i typu, bo niektóre typy grafiki optymalizuje się szybciej. Więc brak optymalizacji nie wynika z lenistwa, tylko z czasu który trzeba przeznaczyć na skuteczną optymalizację. Nikt nie będzie czekał godzinę, aż zdjecie zostanie zoptymalizowane na tyle skutecznie, że będzie opłacało się je podmienić. Owszem można to zrobić w miedzyczasie. Z optymalizacją grafiki mam bardzo dużo do czynienia, w tym dużą rolę gra doświadczenie, gdzie człowiek zerknie na fotkę i od razu wie jaką technikę zastosować, typowy Kowalski uruchamiając taki skrypt będzie oczekiwał cudów, a w wielu sytuacjach aby było skutecznie, trzeba uwzględnić takie zagadnienia jak format, typ kompresji, metodę optymalizacji, czy nawet interpolację zdjęcia. Nigdy nie ma dwóch takich samych zdjęć, a uniwersalne metody uzyskują mocno przeciętne efekty.
@Marcin, ja robiłem testy z uk cookie consent na wp, komunikat o cookies w JS spowolnił ładowanie o średnio 0,2s, do tego było odrobine większe zużycie czasu procesora na serwerze nie mówiąc już o transferze, dlatego też zdecydowałem się na komunikat klasyczny w widgecie a nie wyskakujący popup w js.
Oj, a Hostersi nie potrafią PDFow inaczej robić niz przez zeskanowanie grafik? :P
@Marcin Kołacz – pisząc o braku optymalizacji grafiki miałem na myśli najprostsze mechanizmy; Przyznam, że nie miałem okazji porównywać zdjęcia optymalizowanego wtyczką Photoshopa a takim o jakim Ty mówisz, ale jest różnica między jedno czy nawet dwu megowym zdjęciem a dwustukilowym jotpegiem.
Gdzie mogę zobaczyć przykłady tak zaawansowanej optymalizacji grafiki?
Pewnie że optymalizujemy ! :]
Optymalizacja grafik to jeden z wielu punktów na liście kompleksowej optymalizacji. Dla uszczknięcia 0.3s nie ma poniekąd sensu tracić godzin na dłubaniu i dziarganiu, ale jak przeliczyć gfx, js, wynikowy kod html, fonty, hosting i tak dalej, to uszczknięcie 3s stanowi ogromną różnicę.
Zwłaszcza przy wizytach Pani Krysi/Basi/Justynki itd. której komputer/os/przeglądarka ledwo zipie.
Tylko jak tu pogodzić wszystko w dobie tony jquerowych bajerów?
ps. odnośnie „podkreślenia mojego”, tworzyłem fotogalerie dla dwóch zawodowych fotoaparacistów i nie wyobrażam sobie całej webaplikacji bez automatycznego skalowania i kompresji zdjęć. Natomiast pierwszym punktem programu zawsze jest edukacja klienta z podstaw technologii (sic!). Jeśli nie zamierza pojąć konsultacji fachowca w najprostszy możliwy sposób, nie przechodzimy do drugiego punktu programu. Dla własnego zdrowia i dobra :)
pps. oczywiście zapraszam do oglądania galerii fotopozytywy.pl :)
Pewne elementy przyspieszania stron są proste i łatwe do wdrożenia. W większości małych serwisów, zupełnie wystarczające. Czasem warto też pomyśleć o tym, że na stronę wchodzą ludzie nie tylko z łączem 30mbps ale i przez internet mobilny, który jest wolny, drogi i ma limity transferu…