Dzisiaj zauważyłem mały problem z indeksowaniem na stronie internetowej klienta. Działa to z systemem sklepowym, który obsługuje „mówiące adresy URL” i dlatego jest nieco przyjazny dla SEO, ale niestety oferuje sortowanie list produktów, a tym samym dołącza wiele parametrów do pięknych adresów URL, które oczywiście są indeksowane zbyt często. Rezultatem jest mnóstwo [duplikatów treści->duplikatów treści].
Aby maksymalnie ułatwić pracę webmasterowi, szukałem rozwiązania z plikiem [robots.txt->robots-txt], które pomaga zapobiegać indeksowaniu takich sortujących stron. W moim przypadku całą sprawę można łatwo rozwiązać, ponieważ pliki zwykle kończą się na „.html” i dopiero w sortowaniach można znaleźć „.html?coś=jakoś”. Ten dodatek w pliku robots.txt działa teraz po stronie klienta:
Allow: /*.html$
Disallow: /*.html?*
Jeśli twoje pliki kończą się na .php, będziesz oczywiście musiał odpowiednio dostosować wpis. I daj Google kilka tygodni na usunięcie stron, które są teraz zablokowane w indeksie. Ciocia G nie jest najszybsza...
Jens prowadzi bloga od 2012 roku. Pełni rolę Sir Apfelot dla swoich czytelników i pomaga im w problemach natury technicznej. W wolnych chwilach jeździ na elektrycznych monocyklach, robi zdjęcia (najlepiej iPhonem oczywiście), wspina się po górach Hesji lub wędruje z rodziną. Jego artykuły dotyczą produktów Apple, nowości ze świata dronów czy rozwiązań aktualnych błędów.