Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
< >
1 2 3 4 5

Без проб і помилок: чек-лист технічного аудиту

  1. Параметри для перевірки
  2. висновки

У кожного оптимізатора є свій власний чек-лист, де відображені ключові параметри, які він використовує при проведенні технічного аудиту сайту. Сьогодні хочу поділитися з вами своїм чек-листом, за допомогою якого я протестував не один ресурс. У ньому зібрані основні параметри, які надають пряме вплив на ранжирування сайту пошуковими системами. Їх оптимізація та налаштування, безумовно, допоможуть ресурсу досягти максимального результату в просуванні по запитам будь-якої тематики.

Параметри для перевірки


Даний список включає тільки технічні параметри сайту, які варто перевіряти на першому етапі робіт. Можливо, одні з вас відкриють для себе щось нове, а для інших це будуть цілком звичайні речі, з якими вони стикаються щодня.

1. Налаштування дзеркал.

Дзеркала - це повні або часткові копії одного сайту в мережі. Наприклад, site.ru і site1.ru - домени різні, але наповнення абсолютно однакове. ПС склеюють дзеркала, і тільки один з усіх ресурсів індексується і бере участь в пошуку.

Щоб перевірити, чи не є ваш сайт дзеркалом, необхідно додати його в форму на сторінці , І вона поверне вам відповідне повідомлення. Для того щоб вказати ПС головне дзеркало, потрібно додати директиву Host в службовий файл robots.txt.

У більшості випадків дзеркалами є домени з www і без: www.site.ru і site.ru. Для того щоб вказати головний з них, достатньо всього лише налаштувати 301 редирект на сторінках з www або без залежно від того, яких більше в індексі.

2. Налаштування 404 помилки. Одна з найпоширеніших помилок. Якщо сторінка не існує, то користувача перенаправляють на сторінку-заглушку, яка повертає статус-код 200 (ОК). В цьому випадку ПС бачить, що сторінка насправді є, і не видаляє її зі своєї бази. Це може привести до повільної індексації значущих розділів сайту. Перевірку можна провести за допомогою спеціального інструменту в Яндекс.Вебмастере . Потрібно набрати неіснуючий URL сторінки (site.ru/dahsdgaga), додати в форму і перевірити статус-код. При необхідності для сторінок подібного роду слід налаштувати коректний статус-код.

В ідеалі він повинен бути:

3. Наявність редиректів. Перевірити сайт на наявність редиректів можна за допомогою інструменту Xenu . Їх присутність може утруднити індексацію сайту. Редіректи можуть бути корисні, якщо URL сторінок змінюються з яких-небудь технічних причин і користувача потрібно перенаправити на актуальний нову адресу. У подібних випадках замість редіректнимі посилання потрібно прописати актуальну.

4. Наявність HTML- і XML-карт сайту. За допомогою sitemap.xml ви повідомляєте ПС про те, які сторінки вашого ресурсу необхідно проіндексувати і як часто вони оновлюються. Перевірити її наявність можна, набравши в рядку пошуку http://site.ru/sitemap.xml. Якщо карта сайту є, то її необхідно актуалізувати, якщо ж ні, то згенерувати (докладніше про правила створення sitemap.xml можна почитати тут . Для того щоб повідомити про наявність sitemap.xml ПС, потрібно в файлі robots.txt прописати директиву sitemap: http://site.ru/sitemap.xml або в сервісі Яндекс.Вебмастер, в розділі "Файли sitemap", вказати URL, по якому доступна карта sitemap.xml.

Зазвичай вона знаходиться за адресою http://site.ru/sitemap/, орієнтована на користувачів і містить в собі структуровані списки сторінок ресурсу. Посилання на цей тип карти сайту зазвичай розташована в шапці або футере ресурсу і легкодоступна для користувачів. Її наявність також допоможе ПС своєчасно проіндексувати нові розділи.

5. Навігація на JavaScript або flash. На деяких сайтах можна зустріти використання технології JavaScript або flash для організації навігації. Але роботи пошукових систем не переходять по таких посиланнях, внаслідок чого індексація ресурсу може бути утруднена. Перевірити, яким способом організовано меню на вашому сайті, можна за допомогою відключення в браузері JavaScript, також можна просто подивитися вихідний код сторінки і знайти в ньому пункти меню. При використанні JavaScript або flash як навігації необхідно продублювати меню звичайними текстовими посиланнями.

6. Наявність зовнішніх посилань. Слід перевірити наявність зовнішніх посилань з сайту. Якщо вони існують, то їх необхідно видалити або ж додати до них атрибут rel = "nofollow". Це можна зробити за допомогою інструменту Xenu . Репутація ресурсу в очах пошукових систем може неабияк постраждати, якщо на сайті встановлена ​​велика кількість спамних зовнішніх посилань.

7. Швидкість завантаження сторінок. Важливо, щоб швидкість завантаження сторінок вашого сайту була в межах допустимого, близько 500 мс. Перевірити ресурс на даний параметр можна за допомогою сервісу Яндекс.Вебмайстер . Яндекс намагається не ранжувати високо сайти з низькою швидкістю завантаження, так як для більшості користувачів це є визначальним фактором (докладніше про збільшення швидкості завантаження ).

8. Розмір сторінок сайту. Необхідно, щоб розмір сторінки не перевищував 100 Кб. Перевірити це можна за допомогою Яндекс.Вебмайстер або http://be1.ru/stat/. Великий розмір сторінки може зменшувати швидкість її завантаження і ускладнювати її індексацію ПС. Корисний інструмент для аналізу сторінок на сайті - http://developers.google.com/. Якщо розмір сторінки занадто великий, то варто її оптимізувати і залишити на ній тільки важливі елементи.

9.Бітие посилання. Якісний сайт не повинен мати битих посилань, інакше може бути утруднена індексація значущих розділів, адже пошукові системи будуть витрачати свій ресурс на перегляд неіснуючих сторінок. Також наявність або відсутність битих посилань дозволяє зробити висновок про те, наскільки за сайтом стежить веб-майстер, і оцінити корисність ресурсу для користувачів. Перевірити наявність битих посилань можна за допомогою інструменту Xenu або сервісу Яндекс.Вебмастер в розділі "Виключені сторінки". Всі биті посилання необхідно видалити або ж виправити на коректні URL.

10. Last Modified. Важливо проаналізувати зміст відповіді, який сервер віддає на запит «if-modified-since». Заголовок повинен мати актуальну дату останньої зміни сторінки, інакше робот ПС не зможе дізнатися про оновлення сторінки з моменту останньої індексації. Перевірити заголовок Last Modified можна за допомогою інструментів і http://be1.ru/stat/. При необхідності слід актуалізувати заголовки.

11. ЧПУ на сайті. ЧПУ - це человекопонятний URL, після прочитання якого відразу стає ясно зміст сторінки. Ось приклад хорошого структурованого ЧПУ . Ні для кого не секрет, що ПС в тій чи іншій мірі враховують наявність подібних URL при ранжируванні ресурсу, і тому даний тип рекомендується реалізовувати на сайті. Можливість зміни URL на ЧПУ безпосередньо залежить від CMS, яку використовує ваш ресурс. Варто вже на початковому етапі проектування сайту продумати даний момент.

12. Унікальність текстів і метатегов. Одним з важливих факторів, що впливають на ранжування сайту, є його унікальність. ПС намагаються не оцінювати високо ті сайти, на сторінках яких використовується неунікальний контент. Перевірити унікальність метатегов можна за допомогою сервісу Google для веб-майстрів в розділі "Оптимізація HTML", а унікальність контенту - на http://www.etxt.ru/antiplagiat/. Якщо ж на сайті є неунікальні тексти і метатеги, їх варто переписати або уникализировать.

13. Файл robots.txt. Robots.txt - це файл, створений для ПС, в ньому вказані параметри для індексації сайту. Необхідно, щоб файл robots.txt був складений правильно, перевірити це можна за допомогою сервісу (Докладніше про правилах використання robots.txt ). У цьому файлі необхідно закрити неінформативні сторінки і ті, які містять чисто технічні дані (наприклад, сторінки реєстрації на сайті або відновлення паролів). При складанні файлу robots.txt потрібно бути уважним і не закрити від індексації значущі розділи на сайті.


висновки


У даній статті зібрані 13 важливих, на мій погляд, параметрів сайту, які необхідно довести до досконалості. Рекомендую не обмежуватися цим чек-листом, так як тут перераховані тільки основні елементи, які надають пряме вплив на ранжування вашого ресурсу пошуковими системами. Повний технічний аудит сайту також можна провести автоматично за допомогою сервісу Rooletka , Який допоможе виявити не тільки основні помилки і недоробки на вашому ресурсі, а й дасть рекомендації по їх усуненню.

Перевіряйте значення зазначених параметрів з регулярність 1 раз в 2 місяці, це дозволить уникнути проблем з ранжируванням і індексацією ресурсу, а якщо у вас великий сайт і оновлення відбуваються щодня, то перевірки повинні проводитися частіше. Пам'ятайте, що процес оптимізації ресурсу завжди індивідуальний.

Бажаю удачі в просуванні!