Навигация по сайту

Популярные статьи

SEO-аудит сайту: як самостійно та безкоштовно провести On-page аналіз, Технічний аудит, Аналіз конкурентів і Семантичного ядра

  1. Аналіз попиту і конкурентів
  2. Технічний аудит сайту
  3. Посторінкова (On-page) оптимізація
  4. Рекомендації по оптимізації URL
  5. Рекомендації по зображеннях
  6. сніппет
  7. каннібалізація
  8. Ключові слова
  9. поведінкові чинники
  10. джерела трафіку
  11. комерційні фактори
  12. Аналіз зовнішніх посилань
  13. резюме

SEO-аудит сайту дозволяє швидко виявити проблеми і усунути їх, щоб не втратити позиції в пошуковій видачі. У цій статті ви дізнаєтеся про технічний аудит, посторінковою оптимізації, аналізі конкурентів, оцінці поведінкових факторів і семантичного ядра, інші особливості.

Відео по темі:

Фото дошки:

SEO-аудит сайту дозволяє швидко виявити проблеми і усунути їх, щоб не втратити позиції в пошуковій видачі

Аналіз попиту і конкурентів

На цьому етапі нам потрібно познайомитися з нашою аудиторією, проаналізувати пошуковий попит (збір семантичного ядра) і оцінити конкурентів. Портрет користувача ми складаємо на підставі систем аналітики (Метрика, Google Analytics та інші). Важливо оцінити географію, щоб зрозуміти, чи задовольняє сайт їхнім потребам. Збираємо та інші дані для аналізу:

  • Підлога
  • вік
  • пристрої входу

Підлога   вік   пристрої входу

Останній пункт корисний для адаптації сайту під конкретні платформи. Наприклад, ви дізналися, що з пошуку до вас часто переходять з мобільних пристроїв дозволом 360 * 640. Перевіряємо, як сайт виглядає на них, і виправляємо, якщо щось відображається некоректно.

Завжди ставте себе на місце користувача, намагаючись зрозуміти, чи відповідає ваш сайт його очікуванням. Для цього оцінюємо запити, за якими є переходи, а особливу увагу приділяємо тим з них, де спостерігається високий відсоток відмов.

Далі переходимо до семантичному ядру сайту. Використовуємо максимальну кількість джерел, щоб зібрати повне СЯ:

  • вордстат
  • пошукові підказки
  • Поточна семантика сайту
  • Google Search Console
  • Яндекс Вебмайстер
  • метрика
  • Google Analytics
  • інші сервіси

Збираємо частотність за запитами (наприклад, Кей Колектором), виробляємо чистку від непотрібних фраз, визначаємо релевантні сторінки. Отриману інформацію переносимо в таблицю і вибудовуємо ментальну карту (наприклад, в XMind). Ці дані допоможуть вам побачити точки зростання органічного трафіку.

Переходимо до аналізу конкурентів. Таку перевірку можна зробити вручну, а можна використовувати сервіси (наприклад, Serpstat).

Таку перевірку можна зробити вручну, а можна використовувати сервіси (наприклад, Serpstat)

Складаємо окрему таблицю, куди заносимо URL сайту і додаємо такі стовпці:

  • вік сайту
  • Сторінки в індексі
  • Зворотні посилання

Рекомендуємо співвіднести ці параметри з органічним трафіком, який отримує конкурент, щоб виявити лідерів і аутсайдерів. Чим гірше співвідношення трафіку на кількість посадочних сторінок, тим слабкіше досліджуваний сайт.

Виявивши лідерів, вивчаємо їх сайти, щоб зрозуміти, як вони розвиваються. Не забуваємо звертати увагу на цікаві функції, які можна використовувати для поліпшення власного інтернет-ресурсу.

Відео про те, як працювати з Серпстатом:

Технічний аудит сайту

Найчастіше саме ця частина називається SEO-аудитом. Для якісного аналізу нам знадобляться:

  • Доступ до панелей вебмайстрів (Яндекс, Гугл та інші)
  • Сканер сайту (наприклад, Screaming Frog SEO Spider або Xenu)
  • Сервіс перевірки індексації (наприклад, Rush Analytics)

При аналізі даних з Яндекс Вебмастера і Google Search Console (GSC) звертаємо увагу на помилки і виправляємо їх.

Більшу частину даних для технічного аудиту можна взяти з результатів сканування сайту програмою скрімінг Фрог.

Вивчаючи звіти, звертаємо увагу на:

  • Коди відповіді сервера
  • редіректи
  • зовнішні посилання

Важливо виявити і усунути биті посилання (код відповіді 4xx), вирішити технічні проблеми (код відповіді 5xx). Не забуваємо працювати з редирект. Якщо сторінка вашого сайту, з якої варто редирект, більше не індексується пошуковою системою, а нова вже в індексі - його можна прибрати.

Після цього міняємо все старі посилання (наприклад, в статтях) на нові, щоб не допустити битих. У Screaming Frog вибираємо URL з кодом відповіді 3xx, вибираємо вкладку Inlinks і вносимо правки на кожну сторінку.

У Screaming Frog вибираємо URL з кодом відповіді 3xx, вибираємо вкладку Inlinks і вносимо правки на кожну сторінку

Отримавши список всіх URL нашого сайту, відправляємо їх на перевірку індексації. Розглянемо на прикладі сервісу Раш Аналітікс, як це зробити.

Авторізуемся на сайті, переходимо на вкладку перевірка індексації та створюємо новий проект.

Далі вводимо назву проекту, вибираємо пошукові системи, в яких хочемо перевірити індексацію і вивантажуємо список URL (вручну, експортом або з карти сайту). Після чого натискаємо кнопку "Створити новий проект".

Отримавши результати, аналізуємо, чому наша сторінка не індексується пошуковою системою:

  • Була створена нещодавно і ще не встигла потрапити в індекс
  • Випала з пошуку, тому що не відповідала на запит користувача
  • Закрита від індексації
  • На сайт або сторінку накладено фільтр Яндекса або Гугла

Далі потрібно перевірити дублі і дзеркала. Для перевірки дзеркал пробуємо вводити наш сайт з www на початку, з index.php в кінці, з косою рисою (/) і без неї. Потрібно, щоб завжди відкривалася сторінка з одного й того ж адресою:

  • www.site.ru -> site.ru
  • site.ru/index.php -> site.ru
  • site.ru/ -> site.ru

Пошук дублів спрощується все тим же скрімінг фрог, так як ці сторінки часто мають однаковий Тайтл. Заходимо на відповідну вкладку і вибираємо потрібний пункт.

В GSC також можна знайти інформацію про дублях в пункті Оптимізація HTML з розділу Вид в пошуку.

Тепер слід приступити до перевірки файлу robots.txt. Звертаємо увагу на наступне:

  • Потрібні розділи не закриті від індексації
  • Непотрібні сторінка заблоковані в Роботс
  • Наявність посилання на карту сайту

Зручно перевіряти цей файл за допомогою валідаторів Яндекса і Гугла. Для цього заходимо в потрібну панель вебмастера. Тут можна перевірити доступність конкретних сторінок для індексації або їх блокування, якщо ввести URL в відповідні поля і натиснути кнопку перевірити.

Також не забуваємо, що директива host скасована Яндексом і тепер використовувати її в robots.txt не потрібно.

Ще одним етапом проведення технічного аудиту є аналіз файлу sitemap. Для цього також можна використовувати валідатори, але не забуваємо про ручній перевірці. Звертаємо увагу на:

  • Відсутність зайвих URL в карті сайту
  • Присутність всіх потрібних сторінок

Важливий фактор ранжування в пошукових системах - швидкість завантаження сторінок. Тому оцінюємо цей параметр для всіх типових сторінок за допомогою:

  • PageSpeed ​​Insights
  • Webpagetest.org
  • метрики

Оцінка технічного стану сторінок вашого сайту повинна проводитися і вручну. Оцінюємо верстку в різних браузерах при різних дозволах екрану, переконуємося, що всі елементи працюють коректно.

Кількість мобільного трафіку з пошукових систем зростає з кожним роком, тому важливо, щоб ваш сайт був адаптований для всіх типів пристроїв. Проводимо аналіз типових сторінок сайту за допомогою валідаторів Yandex і Google, використовуємо сервіс Quirktools, дивимося вручну з мобільних пристроїв.

Звертаємо увагу на всі помилки. Як видно на скріншоті, Гугл показав, що хоч сторінка і оптимізована, але у неї є проблеми. Тиснемо докладніше і вивчаємо їх.

Завдяки таким перевіркам ви знайдете масу можливостей для покращення вашого сайту.

Далі використовуємо валідатори в панелях вебмайстрів для перевірки мікророзмітки. Аналізуємо сторінки, на яких використовується певний її вид. У разі виявлення помилок - виправляємо.

Останній етап технічного аудиту пов'язаний з перевіркою безпеки сайту. Потрібно оцінити:

  • Відгуки про компанію (вбиваємо в пошук назву компанії і слово відгуки)
  • Сусідів по IP і відсутність в базах спаму (наприклад, за допомогою сервісу 2IP)
  • Афіллірованность (використовуємо в пошуку контактні дані)

Відео та стаття про те, як працювати з програмою Screaming Frog

Посторінкова (On-page) оптимізація

Головне правило при проведенні посторінковою оптимізації - не зламати те, що працює. Тому всі рекомендації, наведені в статті, краще використовувати на сторінках, які отримують мало трафіку і погано ранжуються.

На цьому етапі аудиту ми повинні проаналізувати:

  • URL
  • Title
  • Description
  • Заголовки H1-H6
  • тексти
  • зображення
  • перелинковку
  • сніппети
  • канібалізації
  • Ключові слова

Рекомендації по оптимізації URL

  • Використовуємо трансліт і робимо їх человекопонитнямі (ЧПУ)
  • В якості роздільників застосовуємо дефіс
  • Використовуємо ІНТЕНТ, але не спам (якщо в УРЛ вже зустрічається ключ, не використовуємо його вдруге)
  • Робимо адреси сторінок короткими

Рекомендації по оптимізації Title

  • Довжина до 140 символів і не більше 12 слів
  • Входження ключів за принципом трикутника (ВЧ запит на початку, менш частотні ІНТЕНТ далі)
  • Робимо привабливим для кліка (наприклад, використовуємо цифри, слова ТОП, Кращі і т.п.)

Рекомендації по оптимізації Description

  • Довжина до 300 символів
  • Короткі інформативні пропозиції
  • Використовуємо ІНТЕНТ для того, щоб вони підсвічували в сніпеті
  • Застосовуємо лід-абзац (дублюємо текст метатега на початку сторінки)
  • Робимо привабливим для кліка

Рекомендації по оптимізації заголовків H1-H6

  • H1 використовуємо тільки один раз
  • Він повинен містити ключ і бути схожим на Title
  • Дотримуємося ієрархію заголовків
  • Чи не комбінуємо з іншими тегами
  • Не спам ключами в заголовках, використовуємо розбавлене входження

аналіз тексту

Робимо вибіркову перевірку текстів на унікальність. Для цього можна скористатися програмою AntiPlagiarism від ETXT.

Особливу увагу приділяємо сторінок, які приносять найбільше трафіку. Тексти на сторінках, які погано ранжуються в пошукових системах, також варто перевірити на унікальність. У текстах не повинні використовуватися входження ключів в неприродній формі, також уникаємо виділення напівжирним.

Завжди вивчайте конкурентів по ключовому запиту для конкретної сторінки. Ви повинні зробити текст максимально повним, зрозумілим і таким, що відповідає на всі запити користувача.

Рекомендації по зображеннях

  • Зберігаємо на нашому хостингу
  • Заповнюємо атрибут alt
  • Назва картинки робимо на трансліті з використанням тих же принципів, що і для URL

перелінковка

Перелінковка може виконуватися декількома способами:

  • Посилання у тексті (анкорний) - як на Wikipedia
  • Блок схожі товари - як у більшості інтернет-магазинів
  • Блок схожі статті - як на багатьох інформаційних ресурсах

Крім правильного перерозподілу ваги по сторінках сайту, перелінковка повинна вирішувати завдання відвідувача: бути зручною у використанні і дійсно корисною.

сніппет

сніппет

Крім базових елементів сниппета (Тема, Опис, URL) існують і інші. Перевіряємо, щоб у сайту був favicon в хорошому дозволі, вивчаємо можливості розширених фрагментів для вашого типу сайту. Наприклад, у Гугла є зоряний рейтинг, який робить сниппет привабливіше для кліка.

Наприклад, у Гугла є зоряний рейтинг, який робить сниппет привабливіше для кліка

Рекомендуємо використовувати цю функцію на сторінках з товарами, рейтингами, оглядами та відгуками.

При проведенні аудиту спираємося на дані панелей вебмайстрів. Важливим показником є ​​CTR, який (в тому числі) залежить від сниппета за конкретним запитом. Порядок аналізу такої:

  1. Сортуємо запити по CTR від меншого до більшого
  2. Відсікаємо запити з мінімальною кількістю показів
  3. Забиваємо запит з низьким показником кликабельности в пошуковик і оцінюємо сниппет
  4. Порівнюємо з конкурентами і використовуємо цікаві рішення для своїх сторінок

Важливо робити скріншоти сніпетів, щоб правильно оцінити результати вашої оптимізації. Якщо у вас немає можливості проаналізувати всі запити - звертайте увагу на високочастотні. Приділіть час запитам, які показуються на позиціях з 11 по 50 - це потенційна точка зростання органічного трафіку.

каннібалізація

Якщо по одному і тому ж запиту показуються різні сторінки вашого сайту і це зроблено не спеціально, то потрібно позбутися від канібалізації. Для того, щоб відстежити подібні запити, потрібно увійти в Google Search Console і з розділу пошуковий трафік вибрати пункт Аналіз пошукових запитів.

Далі сортуємо запити по спадаючій кількості кліків, натискаємо на сам запит, перемикається на Сторінки і аналізуємо список УРЛ, представлений нижче.

Якщо сторінка отримують приблизно однакову кількість показів - це сигнал. Потрібно надати цільовій сторінці більше релевантності. Це можна зробити декількома способами:

  • Проставити анкорний посилання
  • Зібрати семантику, розбити її під цільові сторінки і переписати тексти

Ключові слова

Використовуючи системи аналітики (Метрика, Google Analytics) оцінюємо запити:

  • З високою і низькою конверсією
  • З великим і малим відсотком відмов
  • Приносять найбільшу і найменшу конверсію
  • просіли

Особливу увагу звертаємо на сторінки, які втратили трафік в зв'язці із запитом. Нам необхідно проаналізувати ці випадки і зрозуміти причини таких змін. Це може бути пов'язано з:

  • Появою серйозного конкурента у видачі
  • Погіршенням ранжирування сайту в цілому або сторінки (фільтри пошуковиків)
  • Неякісним відповіддю на запит користувача
  • Малою кількістю контенту

поведінкові чинники

Поведінкові фактори (ПФ) - найважливіший параметр для просування сайту. На підставі їх пошуковик розуміє, відповів чи ваш сайт на запит користувача і чи задоволений відвідувач отриманою інформацією.

Варто звернути увагу на сторінки, з яких користувачі залишають ваш сайт. Для комерційного спрямування це повинні бути сторінки завершення угоди. Якщо користувач почав оформлення замовлення і не закінчив його, закривши сайт, і таких відвідувачів багато - це сигнал.

Якщо користувач почав оформлення замовлення і не закінчив його, закривши сайт, і таких відвідувачів багато - це сигнал

Повертаємося до Метриці і вивчаємо такі поведінкові фактори:

  • Середня кількість переглянутих сторінок
  • Середнє проведений час
  • відмови

Використовуємо карти скролінгу, кліків і посилань, щоб знайти слабкі місця на сайті.

Ви, як власник сайту, знаєте, які блоки клікабельні, а які ні. Для користувачів це не завжди очевидно. Якщо вдалося виявити проблему, усуваємо її. Іноді кліки навпаки відбуваються на неклікабельних елементах. Може варто подумати, як зробити їх такими, щоб поліпшити досвід взаємодії користувачів з вашим сайтом?

Відмінний інструмент для аналізу поведінки відвідувачів вашого сайту - Вебвізор. Так, вам доведеться витратити багато часу на вивчення, але це окупить себе сповна. Особливу увагу звертаємо на запити з високим відсотком відмов.

джерела трафіку

В цьому розділі аудиту звертаємо увагу на динаміку, оцінюємо джерела переходів на наш сайт, досягнення цілей і інше. Якщо трафік зростає за всіма показниками - це хороший сигнал. Якщо немає - оцінюємо, що ми можемо для поліпшення. Наприклад, можна більше часу приділяти групі в соціальних мережах, розміщуючи там привабливу інформацію з посиланнями на ваш ресурс.

комерційні фактори

Зазвичай про комерційні факторах говорять тільки стосовно до сайтів послуг або інтернет-магазинах. Але ми радимо враховувати їх власникам всіх веб-ресурсів, оскільки розміщення тієї ж контактної інформації або сторінки «Про нас» дає більше довіри в очах користувачів і пошукових систем. Ось, що рекомендується розміщувати на сайті:

  • Контактна інформація (всі засоби зв'язку з вами: телефон, пошта, соціальні мережі)
  • Час роботи
  • Карта проїзду
  • Сторінка «Про нас» з описом діяльності та фото співробітників
  • Сторінки доставки, оплати, гарантії, служби підтримки, сервісу і повернення (для інтернет-магазину)

Також потрібно звернути увагу, щоб на картці товару ціна, слово «купити» або «в корзину» були виконані текстом, а не картинками. Використовуйте тільки якісні зображення, додайте блок з відгуками і рейтингом.

Аналіз зовнішніх посилань

Зовнішні посилання часто є причиною накладення санкцій на сайт, тому необхідно контролювати контрольний профіль і постійно працювати над його покращенням. Для його аналізу можна використовувати такі сервіси:

  • Ahrefs
  • SemRush
  • Serpstat
  • Megaindex

Звертаємо увагу на динаміку зростання: вона повинна бути позитивною, а кількість донорів збільшуватися, також посилання повинні бути з різних джерел (форуми, блоги, сторінки сайтів і інше, а не тільки один тип).

Аналізуємо анкор-лист: наявність брендових запитів, співвідношення анкорний і безанкорние посилань (рекомендується частіше використовувати безанкори).

Потрібно також оцінити спамность донорів. Для цього можна використовувати сервіс CheckTrust. Намагаємося позбутися посилань зі спамних ресурсів, так як вони негативно відбиваються на позиціях у видачі.

Далі аналізуємо акцепторів, тобто ті сторінки сайту, на які ми отримуємо посилання. Прагнемо до рівного розподілу посилальної маси по сторінках з деякою перевагою посилань на головну.

Заключним етапом є аналіз конкурентів. Це допоможе знайти нові джерела для розміщення посилань і розширення посилального профілю. Перед тим, як залишити посилання на ресурсі, перевірте його заспамленності.

резюме

Аудит сайту - можливість виявити слабкі місця і визначити точки для зростання органічного трафіку. Основні складові якісного SEO-аудиту:

  • Аналіз попиту і конкурентів
  • технічний аудит
  • посторінкова оптимізація
  • Аналіз поведінкових факторів
  • оцінка трафіку
  • Аналіз посилального профілю
  • Оцінка комерційних факторів

Якщо говорити про порядок застосування рекомендацій за результатами перевірки, рекомендується діяти в такій послідовності:

  1. Починаємо роботи з рекомендаціями, які дозволять вийти з-під санкцій пошуковиків
  2. Усуваємо проблеми технічного характеру
  3. Проводимо посторінкову оптимізацію з урахуванням поведінкових і комерційних факторів
  4. Працюємо з посилальною масою
  5. Впроваджуємо нову семантику і функціонал

Такий аудит рекомендується проводити хоча б 1 раз на місяць, щоб вирішувати проблеми відразу, а не накопичувати їх.

Читайте також:

Може варто подумати, як зробити їх такими, щоб поліпшити досвід взаємодії користувачів з вашим сайтом?