Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
< >
1 2 3 4 5

8 SEO-правил на етапі розробки сайту

  1. 1. Оптимізація структури
  2. 2. Файл robots.txt
  3. 3. Налаштування человекопонятний URL (ЧПУ)
  4. 4. Виключення дублювання сторінок
  5. Сторінка помилки 404
  6. 6. Метатеги Title, Description і Alt
  7. 7. мікророзмітки
  8. 8. Мобільна адаптація

В процесі розробки сайту важливо відразу передбачити виконання вимог пошукових систем, щоб у підсумку отримати оптимізований ресурс. В іншому випадку доведеться доопрацьовувати його вже в процесі просування, що відніме і час, і гроші, і сповільнить зростання позицій в пошуку. Нижче наведено 8 SEO-правил, яких необхідно дотримуватися на етапі розробки сайту.

1. Оптимізація структури

Перед формуванням ТЗ на розробку сайта у вас обов'язково повинно бути готове семантичне ядро, розбите на групи. Виходячи із семантики буде простіше опрацювати структуру ресурсу.

Спочатку створіть ментальну карту сайту - накидайте категорії і підкатегорії, які ви вважаєте доцільними. Це можна зробити і на аркуші паперу, але зручніше використовувати спеціалізовані інструменти на кшталт Microsoft Visio.

Далі визначитеся з назвами категорій і підкатегорій відповідно до високочастотними запитами. Встановіть пріоритетність їх розташування в меню. Намагайтеся, щоб на сайті було не більше 3-4 рівнів вкладеності сторінок. В іншому випадку можуть виникнути проблеми з індексацією, та й відвідувачам буде незручно блукати по довгих навігаційним ланцюжках.

Щоб передавати інформацію про структуру пошуковикам, необхідно створити файл sitemap.xml , Який поміщається в корінь сайту.

2. Файл robots.txt

Robots.txt - це службовий файл, який створюється в текстовому редакторі (блокноті) і поряд з sitemap.xml розміщується в корені сайту. Тут прописані директиви для пошукових роботів, які вказують на файли і папки, які не потрібно індексувати. Директиви носять рекомендаційний характер. Тому якщо ви хочете напевно приховати від індексації конкретні сторінки, то краще використовувати метатег noindex (примітка: працює тільки в відношенні робота Яндекса, Google же його ігнорує):

<Meta name = "robots" content = "noindex">

Також можна приховати директорії і файли за допомогою захисту каталогів сервера паролем.

Різні пошукові роботи підтримують різні директиви. Наприклад, для Яндекса і Google можна прописувати стандарт винятків для роботів (User-agent), директиви заборони і відкриття доступу (Disallow і Allow) і Sitemap (вказується шлях до карти сайту). А ось для Яндекса ще треба задати директиву Host (головне дзеркало сайту), а також можна вказати директиви Crawl-delay (мінімальний період часу в секундах між завантаженнями сторінок) і Clean-param (потрібна, щоб робот багато раз не перезавантажувати дублює інформацію, якщо адреси сторінок сайту містять динамічні параметри, які не впливають на їх вміст).

Приклад файлу robots Приклад файлу robots.txt для сайту на WordPress

Перевірити коректність складання robots.txt можна в вебмайстрів Яндекса або в Google Search Console за допомогою вбудованих інструментів.

3. Налаштування человекопонятний URL (ЧПУ)

ЧПУ (в англійській інтерпретації - friendly URL) - це URL, що складаються з набору зрозумілих слів, а не відображають файлову структуру сайту.

ЧПУ дають кілька переваг:

  • за назвою URL користувач може припустити зміст сторінки, що зменшує показник відмов;
  • спрощується навігація по сайту;
  • якщо в URL є ключове слово, то в результатах пошуку воно підсвічується жирним, що підвищує кликабельность.

Для цілей SEO обов'язково варто налаштувати ЧПУ до запуску сайту. В іншому випадку, якщо сторінки проиндексируется, а потім ви вирішите налаштувати ЧПУ, то доведеться використовувати редіректи зі старих сторінок, щоб уникнути дублів.

4. Виключення дублювання сторінок

Якщо сторінки мають однаковий вміст, але різні URL, то для користувачів це однакові сторінки, а ось для пошукових систем - різні з дублюючим контентом. Для просування сайту це небажане явище, особливо якщо дублі накопичуються як сніжний ком. Тому ще на етапі розробки потрібно вжити заходів щодо недопущення їх появи.

Зазвичай дублі виникають через особливості роботи CMS або помилок в процесі веб-розробки. Поширені дублі:

  • головна сторінка з www і без www;
  • динамічний зміст сайту з ідентифікаторами?, index.php, & view;
  • URL зі слешем в кінці назви сторінки і без нього;
  • сторінки виведення на друк;
  • сторінки відповідей на коментарі і т. д.

Різні дублі вимагають різного підходу до усунення. Так, атрибут rel = «canonical» вказує на рекомендовану для індексації сторінку. Закрити окремі сторінки від індексації можна за допомогою метатега noindex. Також можна налаштувати 301 редирект для сторінок з однаковим вмістом.

Ще один метод - ручне видалення дубльованих сторінок або їх виключення з пошуку за допомогою інструментів для веб-майстрів від Яндекса і Google. Але він підходить, якщо сторінок не багато. А ось за допомогою robots.txt з дублями не варто боротися, адже його директиви мають рекомендаційний характер. Більш докладно про боротьбу з дублями можна прочитати в нашій інформаційної розсилці .

Сторінка помилки 404

Буває, що користувач потрапляє на неіснуючу сторінку, в результаті чого видається помилка 404 «Сторінку не знайдено». Помилка виникає з причини зазначення неправильного URL або видалення сторінки адміністрацією ресурсу. Якщо не створена сторінка помилки 404, користувач отримає приблизно такий результат:

Подібне повідомлення сигналізує непосвяченому користувачеві про те, що сайт не працює. Навряд чи хтось буде намагатися «достукатися» до вас - користувач просто піде до конкурента. Але якщо ви створите правильну сторінку помилки 404, то результат буде зовсім інший: людина потрапить на ваш сайт, де буде описано, з якої причини недоступна сторінка, запропоновані альтернативні шляхи.

Оформлення сторінки 404 сайта seopult Оформлення сторінки 404 сайта seopult.ru

При оформленні сторінки 404 використовуйте цікаву картинку або відео, що дозволяють на секунду затримати увагу. Поясніть, чому виникла помилка, розмістіть посилання на розділи, на головну, рядок пошуку, одним словом, удержите користувача.

6. Метатеги Title, Description і Alt

Метатеги передають інформацію пошуковим системам про зміст сторінок. У Title вказується назва сторінки, в Description - короткий опис, в Alt - опис зображення. Пошуковики по-різному використовують інформацію з метатегов. Наприклад, Google використовує інформацію з Title і Description для формування сниппета. А ось Яндекс може використовувати, а може і не використовувати.

Яндекс Яндекс.Вебмайстер вказує на відсутність метатегов

У будь-якому випадку текст метатегов враховують всі пошуковики при формуванні видачі, тому в них важливо включати основні ключові запити зі сторінки. Як правильно оформити метатег Title, читайте в цієї статті.

7. мікророзмітки

Мікророзмітки допомагає пошуковим системам швидко побачити потрібну річ сторінки. Її краще реалізувати на етапі розробки сайту. Незважаючи на те, що прямого впливу на ранжування вона не робить, вона допомагає поліпшити вигляд сниппета, що підвищує його кликабельность і поведінкові чинники.

Практична реалізація мікророзмітки можлива за допомогою словників schema.org, стандарту Open Graph, мікроформатів. Кожен пошуковик підтримує певний набір мікроданних і на його основі формує сниппет. Рекомендації по роботі з schema.org ви знайдете в даної публікації.

8. Мобільна адаптація

Адаптувати сайт для перегляду на мобільних пристроях важливо саме на етапі розробки. Дизайн спочатку повинен опрацьовуватися з урахуванням зручності перегляду на різних екранах. Такі сайти вище ранжуються в мобільній видачі, отримують більше трафіку, до них більш лояльні пошуковики і користувачі. реалізувати адаптивність можна двома способами: за допомогою створення мобільної версії або адаптивного дизайну. Для пошукачів різниці немає - вибирайте той варіант, який буде більш зручний вашої аудиторії.

Отже, тепер ви знаєте, які аспекти SEO треба враховувати на етапі розробки сайту. Правильна оптимізація дозволить уникнути зайвих витрат в майбутньому, накладення фільтрів з боку пошукових систем і дасть можливість використовувати весь потенціал сайту для отримання вигідних позицій.

Однак якщо етап розробки вже давно пройдений, а думка про можливі приховані помилки вас не покидає, обов'язково проведіть SEO-аудит сайту. У SeoPult дана послуга доступна за все від 3000 рублів. Щоб отримати її, потрібно просто пройти реєстрацію в Системі, створити проект і відправити заявку з розділу сайту "Персональний менеджер".

Успішного просування!