Як завжди, буду писати коротко і по-справі.
Всім, думаю, вже набридло те, що у видачі пошукових систем з'являються сторінки типу:
- site.ru/rasdel/#!ololo
- site.ru/rasdel/?!ololo
- site.ru/rasdel/?utm
- site.ru/rasdel/?sort=priceorder=asc
- site.ru/rasdel/?adid=55332531449key=+konad++rumatch=bnetwork=gplacement=position=1t2PAGEN_1=3
- site.ru/rasdel/?id=5679595PAGEN_1=41
Здебільшого саме 1с бітрікс страждає генерацією самих різних подібних сторінок, які виникають незалежно від бажання власника сайту.
І, якщо сайт добре оптимізований, саме такі сторінки можуть вилазити навіть в пошуку, замінюючи собою потрібну сторінку:
І найбільша проблема не в тому, що необхідно передбачити якісь потрібно параметри вписувати в Роботс щоб закрити такі сторінки в індексі, бо їх навіть не вгадаєш, конкуренти можуть легко напложіть вам додаткових посилань які не існують навіть, але откротся, завдяки унікальним особливостям багатьох цмс відкривати сторінки яких немає.
А в тому, що сервер, на відміну від каталогів не зазлічает типи сторінок site.ru/#!ololo і site.ru і не можна в Роботс прописати правило на не індексація таких сторінок.
Як прибрати сміття свого сайту з видачі
І тут нам на допомогу приходить link rel = "canonical".
Через тиждень ви вже будете бачити позитивний графік зникнення сторінок з пошуку, сторінок-дублів:
Видимість ж сайту по ключам в пошуку - навпаки, начанет збільшуватися:
Приклад запису правила
Вставляється даний запис між тегами
. .додаткова інформація
Інструкція по роботі з даними тегом від Яндекса: завантажити.
Інструкція по роботі з даними тегом від Google: скачати.
Сподіваюся, я був вам корисний. Буду радий вашим лайкам і репоста.
ЗИ: Важливо знати, що даний спосіб - не панацея від усіх «хвороб» сайту, а всього лиш невелика частина внутрішньої оптимізації проекту.