Як викинути сміття сторінки сайту з видачі легко!

Як завжди, буду писати коротко і по-справі.

Всім, думаю, вже набридло те, що у видачі пошукових систем з'являються сторінки типу:

  • site.ru/rasdel/#!ololo
  • site.ru/rasdel/?!ololo
  • site.ru/rasdel/?utm
  • site.ru/rasdel/?sort=priceorder=asc
  • site.ru/rasdel/?adid=55332531449key=+konad++rumatch=bnetwork=gplacement=position=1t2PAGEN_1=3
  • site.ru/rasdel/?id=5679595PAGEN_1=41

Здебільшого саме 1с бітрікс страждає генерацією самих різних подібних сторінок, які виникають незалежно від бажання власника сайту.

І, якщо сайт добре оптимізований, саме такі сторінки можуть вилазити навіть в пошуку, замінюючи собою потрібну сторінку:

І найбільша проблема не в тому, що необхідно передбачити якісь потрібно параметри вписувати в Роботс щоб закрити такі сторінки в індексі, бо їх навіть не вгадаєш, конкуренти можуть легко напложіть вам додаткових посилань які не існують навіть, але откротся, завдяки унікальним особливостям багатьох цмс відкривати сторінки яких немає.
А в тому, що сервер, на відміну від каталогів не зазлічает типи сторінок site.ru/#!ololo і site.ru і не можна в Роботс прописати правило на не індексація таких сторінок.

Як прибрати сміття свого сайту з видачі

І тут нам на допомогу приходить link rel = "canonical".

Через тиждень ви вже будете бачити позитивний графік зникнення сторінок з пошуку, сторінок-дублів:

Видимість ж сайту по ключам в пошуку - навпаки, начанет збільшуватися:

Приклад запису правила

Вставляється даний запис між тегами . .

додаткова інформація

Інструкція по роботі з даними тегом від Яндекса: завантажити.

Інструкція по роботі з даними тегом від Google: скачати.

Сподіваюся, я був вам корисний. Буду радий вашим лайкам і репоста.

ЗИ: Важливо знати, що даний спосіб - не панацея від усіх «хвороб» сайту, а всього лиш невелика частина внутрішньої оптимізації проекту.

Схожі статті