Zabroń połączeń URL z parametrami za pośrednictwem pliku robots.txt

Instrukcje: Wymiana baterii w Ion Audio Blockrocker

Instrukcje dotyczące ikonDzisiaj zauważyłem mały problem z indeksowaniem na stronie internetowej klienta. Działa to z systemem sklepowym, który obsługuje „mówiące adresy URL” i dlatego jest nieco przyjazny dla SEO, ale niestety oferuje sortowanie list produktów, a tym samym dołącza wiele parametrów do pięknych adresów URL, które oczywiście są indeksowane zbyt często. Rezultatem jest mnóstwo [duplikatów treści->duplikatów treści].

Aby maksymalnie ułatwić pracę webmasterowi, szukałem rozwiązania z plikiem [robots.txt->robots-txt], które pomaga zapobiegać indeksowaniu takich sortujących stron. W moim przypadku całą sprawę można łatwo rozwiązać, ponieważ pliki zwykle kończą się na „.html” i dopiero w sortowaniach można znaleźć „.html?coś=jakoś”. Ten dodatek w pliku robots.txt działa teraz po stronie klienta:

Allow: /*.html$
Disallow: /*.html?*

Jeśli twoje pliki kończą się na .php, będziesz oczywiście musiał odpowiednio dostosować wpis. I daj Google kilka tygodni na usunięcie stron, które są teraz zablokowane w indeksie. Ciocia G nie jest najszybsza...

Podobał Ci się artykuł i czy instrukcje na blogu Ci pomogły? Wtedy byłbym szczęśliwy, gdybyś bloga poprzez stałe członkostwo będzie wspierać.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone * oznakowane

Na blogu Sir Apfelot znajdziesz porady, instrukcje i recenzje produktów Apple, takich jak iPhone, iPad, Apple Watch, AirPods, iMac, Mac Pro, Mac Mini i Mac Studio.

Promocje