дублі сторінок

Доброго времени суток, друзі! Суть проблеми: при створенні продукту автоматично формується URL виду site.ru/product/номер-продукта/, якщо прописати значення в поле ID сторінки (тобто, зробити ЧПУ), виходить URL виду.

Пошуковики вважають дублями такі сторінки - сторінки з товарами (назва товару /? Page = 2 і назва товару /? Page = 2), сторінки блогу і т.д. Хоча в темі дизайну в файлі index.html прописаний атрибут rel = "canonical". Чому так?

Всім добрий день! Яндекс Вебмайстер показує дублі сторінок і для визначення кращої сторінки необхідно між тегами head розмістити тег canonical. Як це зробити в Вебасіст? Приклади дублів сторінок.

Прошу допомогти знатаков.Создал сомоподпісной сертифікат для коректної роботи Яндекс Каси, але тепер сайт доступний і по httpsВ результаті існує ймовірність появи дублів страніцПрібегнул до заборони через robots.txtСоздал файл robots-https.txt с.

Як прибрати хмару тегов- вони створюють дублі сторінок!

Все добрий день. Може хто підкаже. У Google Search Console - несподівано стало показуватися дуже багато дублей.У нас на сайті налаштоване по такому типу url сторінок

Доброго часу суток.Залез в гуглвебмастер і глянув, що не подобається Гуглу в моєму сайті. Виявляється його обурює дублювання контенту на безлічі сторінок. Як виявилося, дублюється опис бренду на кожну зі сторінок з товарами, що.

Чому при заході на сторінку з відсутнім тегом я не отримую 404 помилку? Я на сайтах взагалі теги не використовую, але будь-яку сторінку з посиланням на тег можна виходить загнати як дубль в кеш пошукової системи

Для того щоб ваш інтернет-магазин з'явився в результатах пошуку в пошукових системах, сторінки сайту повинні проіндексувати пошуковими роботами. Для цього потрібно «повідомити» їм про існування вашого магазину одним із таких способів: 1. По.

Підкажіть де розташований sitemap.xml, не можу знайти і можливо його редагувати. Тобто замість «monthly» встановити «weekly».

Залежить від програми. Для додатка сайт файл /wa-apps/site/lib/config/siteSitemapConfig.class.php

Добрий день! Підкажіть будь ласка, у мене яндекс чомусь показує, що сторінок в пошуку, всього одна.Нашел інфу, що за це відповідає robot.txt.Посмотрел файл - зразок робочий (якщо правильно інструкцію зрозумів): User-agent: * Disallow : Crawl-delay: 5А в.

Правила для файлу robots.txt потрібно вписувати в бекенде додатки «Сайт». Перейдіть в розділ «Налаштування» і знайдіть в ньому поле «robots.txt». Як скасувати індексацію зайвих сторінок Приклади директив складені для вітрини інтернет-магазину в корені.

Webasyst - це система для створення сайтів (CMS) + корпоративний портал. Додатки Webasyst дозволяють створити власний сайт, блог, інтернет-магазин і керувати бізнесом через інтернет.

Схожі статті