Доброго времени суток, друзі! Суть проблеми: при створенні продукту автоматично формується URL виду site.ru/product/номер-продукта/, якщо прописати значення в поле ID сторінки (тобто, зробити ЧПУ), виходить URL виду.
Пошуковики вважають дублями такі сторінки - сторінки з товарами (назва товару /? Page = 2 і назва товару /? Page = 2), сторінки блогу і т.д. Хоча в темі дизайну в файлі index.html прописаний атрибут rel = "canonical". Чому так?
Всім добрий день! Яндекс Вебмайстер показує дублі сторінок і для визначення кращої сторінки необхідно між тегами head розмістити тег canonical. Як це зробити в Вебасіст? Приклади дублів сторінок.
Прошу допомогти знатаков.Создал сомоподпісной сертифікат для коректної роботи Яндекс Каси, але тепер сайт доступний і по httpsВ результаті існує ймовірність появи дублів страніцПрібегнул до заборони через robots.txtСоздал файл robots-https.txt с.
Як прибрати хмару тегов- вони створюють дублі сторінок!
Все добрий день. Може хто підкаже. У Google Search Console - несподівано стало показуватися дуже багато дублей.У нас на сайті налаштоване по такому типу url сторінок
Доброго часу суток.Залез в гуглвебмастер і глянув, що не подобається Гуглу в моєму сайті. Виявляється його обурює дублювання контенту на безлічі сторінок. Як виявилося, дублюється опис бренду на кожну зі сторінок з товарами, що.
Чому при заході на сторінку з відсутнім тегом я не отримую 404 помилку? Я на сайтах взагалі теги не використовую, але будь-яку сторінку з посиланням на тег можна виходить загнати як дубль в кеш пошукової системи
Для того щоб ваш інтернет-магазин з'явився в результатах пошуку в пошукових системах, сторінки сайту повинні проіндексувати пошуковими роботами. Для цього потрібно «повідомити» їм про існування вашого магазину одним із таких способів: 1. По.
Підкажіть де розташований sitemap.xml, не можу знайти і можливо його редагувати. Тобто замість «monthly» встановити «weekly».
Залежить від програми. Для додатка сайт файл /wa-apps/site/lib/config/siteSitemapConfig.class.php
Добрий день! Підкажіть будь ласка, у мене яндекс чомусь показує, що сторінок в пошуку, всього одна.Нашел інфу, що за це відповідає robot.txt.Посмотрел файл - зразок робочий (якщо правильно інструкцію зрозумів): User-agent: * Disallow : Crawl-delay: 5А в.
Правила для файлу robots.txt потрібно вписувати в бекенде додатки «Сайт». Перейдіть в розділ «Налаштування» і знайдіть в ньому поле «robots.txt». Як скасувати індексацію зайвих сторінок Приклади директив складені для вітрини інтернет-магазину в корені.
Webasyst - це система для створення сайтів (CMS) + корпоративний портал. Додатки Webasyst дозволяють створити власний сайт, блог, інтернет-магазин і керувати бізнесом через інтернет.