Боти пошукових систем як вони працюють, wns

Запитай будь-якого, хто хоч трохи розуміється на принципах роботи інтернету, що головне в роботі з сайтом, і тобі дадуть відповідь - розкрутка та просування! А якщо запитати: «Що головне в розкручуванні і просуванні», більшість відповість - Пошукова оптимізація! Пошукова оптимізація (англ. Search engine optimization, SEO) - комплекс заходів для підняття позицій сайту в результатах видачі пошукових систем по певних запитах користувачів. Так, принаймні, говорить Вікіпедія. Щоб грамотно просувати сайт, необхідно розуміти, як здійснюється видача по пошуковим запитам. Видачу здійснює пошуковий бот і керується він при цьому власним індексом.







Наприклад, якщо заробляти за допомогою партнерки www.smartbucks.ru, то мій дохід безпосередньо залежить від кількості відвідувачів. Те, скільки людина відвідає ваш сайт, залежить від безлічі причин, але головною є положення вашого сайту у видачі пошукових систем. І сьогодні я хотів би поговорити з вами про роботу пошукових роботів, які власне і визначають, чи буде ваш сайт в першій десятці видачі, або де-небудь на п'ятій сторінці.

Як я вже говорив, бот в своїй роботі спирається на власний індекс. Як утворюється цей пошуковий індекс? Існує два способи індексації сайтів:

1) Пошукові боти постійно шерстять інтернет в пошуках нових сайтів і змін в уже індексованих. Якщо пошуковий бот натикається на новий сайт, він ставить його на замітку і протягом якогось часу стежить за ним. Якщо бот не може виявити на сайті спаму, чогось незаконного, бачить, що він постійно оновлюється, і періодично заходять нові користувачі, він індексує сайт. Час, протягом якого пошуковий бот буде «придивлятися» до нового сайту і кількість «правил» яким повинен відповідати цей сайт, щоб бути проіндексованості, залежить від конкретного пошукача. Рамблеру, наприклад, необхідно не менше пару місяців, щоб додати новий сайт, Яндекс ж, мабуть, самий «демократичний» пошуковик, саме тому в його видачі так багато спамерських сайтів.







2) Веб - майстер самостійно звертається до пошукача, щоб той проіндексував його нове творіння. Насправді, послати подібний запит на індексацію - перше, що повинен зробити веб - майстер, після відкриття нового сайту. Звертатися варто в Яндекс, Рамблер, Гугл, Апорт. Решта пошуковики складають дуже малу частку ринку пошукових послуг, так що ними можна спокійно знехтувати.

Стандартна помилка новачків - отримали високий індекс і забули про пошукової оптимізації. Це дуже велика помилка, тому як пошукові боти постійно «перевіряють» сайти. Якщо ви, після отримання високого індексу, почнете захаращувати свій сайт спамом, краденим контентом і т.д. - вже через місяць ваш сайт може пропасти з видачі взагалі. І, до речі, отримати високий індекс спочатку значно простіше, ніж опуститися у видачі та знову піднятися. Я вже мовчу про той випадок, якщо вас забанити популярний пошуковик. Якщо вас забанили Яндекс - можете відразу закривати сайт! Вірніше, не відразу звичайно - можна спробувати змінити хостинг, назва, домен, платформу, але насправді навіть це не завжди допомагає. Так що постійно стежте за положенням свого сайту у видачі пошукових систем! За швидкістю реіндексація найшвидший пошуковий бот у системи Яндекс, найповільніший - Апорт. У останнього на реіндексацію сайту з кількістю відвідувань 60 - 120 хостів за добу може піти до півроку! Тобто, якщо ви впали у видачі Апорта - можете сміливо забути про це пошуковику, так як будь-які ваші дії з підняття індексу дадуть результат ще дуже не скоро.

Не варто забувати також про різні АГС і інші жахи. Хоча я вже сумніваюся, що Яндекс здатний відрізнити СДЛ від ГС (судячи з того, що у мене він забанив кілька СДЛ), все одно потрібно робити сайти для людей.

Мені здається, що основною ознакою СДЛ тепер стає дизайн. Чи не шаблон, не "на коліні", а нормальний, гарний, куплений дизайн.







Схожі статті