Projekt inny niż wszystkie? Z agencją kreatywną to możliwe!
5 października 2023
Harmonogram działań
Korzyści z audytu SEO Profesjonalny audyt witryny pod kątem wyszukiwarek pozwala w pierwszym rzędzie odnaleźć błędy uniemożliwiające poprawne indeksowanie serwisu oraz osiąganie przez niego wysokich pozycji w rankingach. Przeprowadzenie audytu jest więc rozsądnym rozwiązaniem w przypadku nagłego spadku ruchu na stronie pochodzącego z organicznych wyników wyszukiwania. Fachowa analiza wykonana przez agencję SEO powinna wskazać zarówno przyczynę lub przyczyny spadku, jak i sposoby rozwiązania problemu. Audyt SEO strony internetowej warto przeprowadzić jednak nie tylko w „awaryjnych” sytuacjach. Umożliwia on bowiem dostosowanie witryny do najnowszych standardów i wymagań wyszukiwarek, co pozwala na zwiększenie widoczności serwisu i wzrost jego pozycji w organicznych wynikach wyszukiwania. To z kolei przekłada się bezpośrednio na wzrost liczby odwiedzin strony (Case study - Responsive designs bring more mobile traffic). W efekcie możliwe jest skuteczniejsze realizowanie zadań postawionych przed witryną. Korzyści, w zależności od jej charakteru obejmować mogą więc np. zwiększenie sprzedaży produktów, dotarcie do większej liczby klientów, budowanie wizerunku i autorytetu firmy czy zwiększenie świadomości marki. Samodzielne przeprowadzenie audytu SEO Możliwe jest wykonanie we własnym zakresie pewnych elementów audytu SEO, jednak większość działań wymaga znajomości bądź to języków programowania i detali działania stron internetowych, bądź zagadnień z zakresu SEO. Najbardziej istotnym składnikiem budowy serwisów www, który można sprawdzić nie posiadając specjalistycznej wiedzy są tytuły stron. Widoczne są one na górze paska praktycznie każdej przeglądarki internetowej. Tytuły powinny przede wszystkim ukazywać główną tematykę danej podstrony (lub serwisu - w przypadku strony głównej) i nie należy „upychać” w nich na siłę słów kluczowych, gdyż przynosi to tylko negatywne skutki. Istotne jest także, aby każda podstrona w serwisie posiadała swój własny unikalny tytuł, o długości maksymalnie do ok. 70 znaków. Drugim ważnym czynnikiem, który w dużym stopniu można skontrolować samodzielnie jest występowanie zduplikowanych treści w witrynie. Sprawdzić należy w całym serwisie, czy na dwóch lub większej liczbie stron nie powtarza się identyczna treść o znacznej objętości (przykładowo jedno powtarzające się krótkie zdanie nie będzie szkodzić witrynie). Pamiętać trzeba także o zweryfikowaniu występowania kopii treści na zewnętrznych serwisach. Należy wziąć jednak pod uwagę, iż zjawisko tzw. „duplicate content” jest znacznie szersze i obejmuje również bardziej skomplikowane kwestie, takie jak przekierowania w obrębie domeny, indeksowanie wyników wyszukiwania oraz sortowania (konwertowanie kanoniczne) czy też paginacji stron. W prosty sposób przetestować można natomiast czas ładowania stron serwisu. W internecie jest dostępnych jest wiele darmowych aplikacji online wykonujących taką analizę. Zagadnieniem, którego weryfikacja także we własnym zakresie nie powinna sprawić wielu problemów jest struktura adresów url poszczególnych stron. Ważne jest, aby adresy stron nie składały się z ciągów niezidentyfikowanych cyfr czy parametrów. Tzw. przyjazne adresy url powinny być czytelne dla użytkowników oraz zawierać odpowiednie zagnieżdżenia kategorii. Analiza całej grupy innych kluczowych elementów witryny, mających zasadniczy wpływ na jej pozycje w wyszukiwarkach, wymaga co najmniej podstawowej znajomości języka HTML / PHP lub też specjalistycznych zagadnień SEO. Do tych czynników zaliczają się m.in.: • Struktura semantyczna serwisu Potrzebna jest tutaj wiedza nt. struktury kodu HTML, jego podziału na elementy liniowe i blokowe, prawidłowego stosowania takich znaczników jak <h1>, <strong>, <em>, <p>, <div> i wielu innych. • Meta tagi Wymagana jest umiejętność odczytania kodu źródłowego strony i odnalezienia w nim przede wszystkim takich meta tagów jak description, googlebot, author, refresh oraz robots, a także znajomość znaczenia ich elementów. • Linkowanie wewnętrzne Jest to bardzo szerokie zagadnienie, które wymaga wiedzy z zakresu: - przekazywania PageRank w obrębie serwisu, - budowy struktur nawigacyjnych (w tym tzw. breadcrumbs) - prawidłowego linkowania pomiędzy poszczególnymi rodzajami / grupami podstron - stosowania odpowiednich tekstów odnośników (anchor text) - używania różnego typu atrybutów znacznika <a>, takich jak title, rel=”nofollow”, rel=”canonical”, rel=”prev” itp. • Przekierowania i błędy strony Niezbędna jest znajomość zasad i działania przekierowań 301, 302, odczytywania statusu HTTP strony (np. error 404), konfiguracji preferowanej wersji strony (z www / bez www). • Pliki robots.txt i sitemap.xml Poznać trzeba rodzaje robotów internetowych oraz komendy jakie można im wydawać w pliku robots.txt, a także prawidłową budowę mapy strony w formacie XML. Przydatne materiały w tym zakresie znaleźć można na stronach: https://support.google.com/webmasters/answer/156449?hl=pl https://support.google.com/webmasters/answer/156184?hl=pl • Ukrywanie treści / cloaking Aby dokładnie sprawdzić, czy w serwisie nie zostały zastosowane jakiekolwiek metody ukrywania prawdziwej jego zawartości konieczna jest dobra znajomość języka HTML i przynamniej podstawowa PHP. Podstawowe informacje na temat tego zagadnienia umieszczone są na stronie: https://support.google.com/webmasters/answer/66355