Dlaczego moja strona nie jest widoczna w Google?

4 min. czytania
Marcin Depa
Dlaczego moja strona nie jest widoczna w Google?

W dzisiejszych czasach wysoka pozycja strony w wyszukiwarce Google jest niezwykle ważnym czynnikiem rozwoju każdej firmy – im wyższa pozycja, tym rośnie ruch organiczny w witrynie. Problem pojawia się wtedy, gdy strona nie jest widoczna w Google. Może być wiele powodów, dlaczego tak się dzieje – od źle skonfigurowanego pliku robots.txt, aż po różnego rodzaju kary nałożone za nieuczciwe praktyki w witrynie.

W tym wpisie pokażę Ci najczęstsze powody, przez które Twoja strona nie jest widoczna w wyszukiwarce Google, a także sposoby, jak rozwiązać ten problem.

Jak długo trwa indeksowanie strony w Google?

W przypadku, gdy Twoja strona powstała niedawno, algorytmy Google mogły nie zdążyć jej jeszcze w pełni zaindeksować – proces ten trwa od kilku dni do nawet kilku tygodni. Bardzo ważną rolę odgrywa linkowanie wewnętrzne w witrynie – jeżeli jest utworzone poprawnie, to roboty Google w łatwiejszy sposób mogą odkrywać poszczególne podstrony i je zaindeksować.

Aby zminimalizować ryzyko, że algorytmy Google pominą którąś ze stron, implementuje się mapę XML, czyli listę wszystkich adresów URL zawartych w witrynie. Poprawnie stworzony plik dodaje się na platformie Google Search Console w sekcji “Mapy witryn”. Za pomocą tego narzędzia można również dodawać linki do poszczególnych podstron, aby przyśpieszyć indeksację.

Sprawdzanie stanu indeksacji strony internetowej

Stan indeksacji strony internetowej możemy sprawdzić na dwa sposoby. Pierwszym z nich jest wpisanie w wyszukiwarkę Google frazy site:nazwadomeny.pl – wyświetlą się nam wszystkie zaindeksowane przez roboty podstrony naszej witryny. Drugim sposobem jest użycie ww. narzędzia Google Search Console, za pomocą którego w sekcji “Stan” możemy zobaczyć ilość zaindeksowanych stron, a także sprawdzić, co uniemożliwia ich wyświetlanie w wyszukiwarce.

ROXart – agencja reklamowa Wrocław

Blokowanie indeksowania przez plik robots.txt

Każda strona internetowa posiada takie miejsca, które nie powinny być skanowane przez algorytmy Google, np: panel administracyjny WordPress. Do wykluczania adresów URL z indeksacji wykorzystuje się plik robots.txt – zawiera on zestaw reguł, dzięki którym roboty Google wiedzą, których stron nie skanować. Podczas tworzenia nowych stron internetowych w pliku dodaje się następującą komendę:

User-agent: *
Disallow: /

Dzięki niej wyklucza się całą stronę z indeksowania, aby uniknąć kary od Google Panda za treści niskiej jakości. Bardzo często się zdarza, że po utworzeniu finalnej wersji witryny osoba odpowiadająca za jej stworzenie zapomina odblokować stronę dla robotów, przez co nie wyświetla się ona w wyszukiwarce.

Użycie metagu “noindex”

Do wykluczania konkretnych podstron często stosuje się metag noindex – umieszczamy go w sekcji head strony w znaczniku meta:


        <head>
            <meta name="robots" content="noindex">
        </head>
    

Powyższy fragment kodu sprawia, że dana podstrona zostaje wykluczona z indeksowania przez większość robotów – jeżeli chcesz, aby wyświetlała się w SERP, usuń ten metag.

Kary od Google

Wielu właścicieli stron internetowych chce, aby ich witryna znalazła się jak najszybciej na wysokich pozycjach w wyszukiwarce Google. Często zdarza się, że stosują oni techniki Black Hat SEO, czyli podejmują działania sprzeczne z polityką Google. Należą do nich m.in. upychanie słów kluczowych, maskowanie treści na stronie czy też nadużywanie danych strukturalnych (tzw. rich snippets).

Stosowanie powyższych technik sprawia, że Google początkowo może nałożyć na stronę tzw. filtr ręczny lub algorytmiczny. Informacje o pierwszym z nich można sprawdzić na platformie Google Search Console w raporcie “Ręczne działania”. W przypadku, gdy użytkownik nie zastosuje się do komentarza od Google, strona może zostać ukarana i w konsekwencji całkowicie wykluczona z wyświetlania się w wyszukiwarce.

Blokada strony hasłem lub na poziomie serwera

W przypadku, gdy do przeglądania treści na stronie wymagane jest logowanie, roboty Google nie są w stanie zeskanować witryny, a tym samym nie wyświetla się ona w wyszukiwarce na konkretne słowa kluczowe. Ważne jest, aby istotne treści na stronie były umieszczane w miejscach, do których roboty wyszukiwarki mają swobodny dostęp.

Serwery, na których postawiona jest strona internetowa, często są atakowane przez hakerów, co sprawia, że ich właściciele w niektórych przypadkach odcinają dostęp do usługi hostingowej. Przez takie działanie roboty Google nie są w stanie dostać się do witryny, a tym samym może się ona nie wyświetlać w wynikach wyszukiwania. Różnego rodzaju usterki na serwerze również mogą powodować zniknięcie z SERP, dlatego w takim wypadku należy skontaktować się z hostingodawcą w celu rozwiązania problemu.

Włączony filtr Safe Search

Filtr Safe Search odpowiada za niewyświetlanie stron internetowych w wyszukiwarce osobom niepełnoletnim. Jeżeli Twoja witryna oferuje treści dla osób powyżej 18-ego roku życia, nie będzie się wyświetlać w Google użytkownikom, którzy mają włączony ten filtr.

Podsumowanie

Powodów, dla których strona internetowa nie wyświetla się w wyszukiwarce, jest wiele – od tych najprostszych, jak choćby źle skonfigurowany plik robots.txt, aż po różnego rodzaju kary nałożone od Google. Aby zminimalizować ryzyko, że strona internetowa nie będzie widoczna w SERP, stosuj techniki White Hat SEO, które są zgodne z polityką Google. Natomiast jeśli nie posiadasz specjalistycznej wiedzy z zakresu SEO, poproś o pomoc specjalistę. Skontaktuj się z nami, a my wypozycjonujemy Twoją stronę internetową!

wróć do listy wpisów