Навигация по сайту

Популярные статьи

Увлекательный поход по Крыму

Мы предлагаем вам увлекательный поход по живописным местам горного Крыма, полюбоваться красотами каньонов и горных водопадов, послушать журчание горных рек и пение птиц, насладиться экзотическими пейзажами

Отдых в Карпатах

Активный отдых - это очень важная часть жизни абсолютно любого человека, который способен обогащать и закалять человека как напрямую физически, улучшая форму, так и духовно, психологически, морально,

Ви оптимізували вашу грановану навігацію для SEO?

  1. Що таке гравітаційна навігація? Фасетний пошук або навігація - це шлях до вдосконалення широкої категорії...
  2. Як фасетний пошук викликає дублювання вмісту
  3. Як зробити SEO дружні фільтри?

Що таке гравітаційна навігація?

Фасетний пошук або навігація - це шлях до вдосконалення широкої категорії продуктів на вимоги користувача. Фасетна навігація, на відміну від традиційної навігації, надає користувачам можливість вибирати елементи на основі більш ніж одного виміру.

Наприклад, якщо користувач, який потрапив на ваш сайт, шукає мініатюрну футболку Nike Red в межах цінового діапазону $ 25- $ 50, то гранітна навігація може допомогти йому знайти бажану групу продуктів у межах 2-3 кліків. Фасетну навігацію часто називають гранітним пошуком або в деяких випадках просто називають фільтрами. Фасетний пошук дає користувачам список аспектів / аспектів для швидшого уточнення або звуження пошуку до найбажанішого продукту.

SEO питання з фацетованої навігації

Хоча гранітна навігація допомагає користувачам звузити свій пошук швидко пошукових роботів, як Google, Bing або Yahoo читати вміст дуже по-різному. Це може привести до декількох основних питань SEO.

  1. Дублікати / Близькі повторювані сторінки - для пошукового сканера нова URL-адреса розглядається як нова сторінка. І коли вона зустрічається з двома URL-адресами з однаковим вмістом, вона вважає одну сторінку дублікатом іншої. Якщо на сайті є велика кількість сторінок з повторюваними або близькими сторінками, то загальний рейтинг сайту в пошуковій системі може починатися. У несприятливих випадках він може навіть викликати покарання.
  2. Виймає бюджет для сканування. Кожному сайту призначається бюджет сканування Google. Бот Google сканує веб-сайти лише протягом цього періоду часу, а якщо бюджет призначеного сканування перевищує, то бот Google залишає веб-сайт. Це може призвести до того, що мало хто з ваших найважливіших сторінок буде залишено. При виборі фасета створюється нова URL-адреса / сторінка. Фасетована навігація створює численні сторінки для кожного фасета, а також для декількох комбінацій фасета. Часто деякі з цих сторінок розглядаються як дублікати або поблизу дублікатів пошуковими системами, хоча вони відрізняються від користувача. Якщо пошуковий павук не поінформований заздалегідь, щоб не індексувати дублікати сторінок, то багато часу витрачається на повне сканування дублікатів сторінок. А завдяки обмеженим обходам бюджету пошукові системи часто пропускають інші важливі сторінки.

Як фасетний пошук викликає дублювання вмісту

Розглянемо сайт електронної комерції з тоннами сорочок з великою кількістю стилів (марки, розміри, ціни, колір і матеріал).

У першому випадку я фільтрував навігацію, вибираючи в першу чергу футболку маленького розміру, а потім бренд Adidas. Вийшла URL-адреса сторінки

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ adidas / small- s .html? affint = ClothFlyMenu & source = fm & lc = Розмір

У другому випадку я відфільтрував навігацію, вибравши Adidas як мій бренд, за яким слідував маленький розмір футболки. У такому випадку з'являється URL

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ small- s / adidas .html? affint = ClothFlyMenu & source = fm & lc = Бренди

Всі, хоча обидві URL-адреси здаються однаковими, якщо уважно поглянути на першу URL-адресу
має Adidas / small, у той час як другий URL має малий s / Adidas. Якщо ви відвідаєте обидва URL, ви побачите, що обидві сторінки однакові. Це лише один такий випадок. Підвищена кількість граней буде число дублікатів сторінок. Ситуація погіршується, оскільки ми рідко можемо дізнатися дублікати створених URL-адрес, оскільки посилання є в основному динамічними.

Як зробити SEO дружні фільтри?

Щоб зробити URL-адреси фільтрів SEO дружніми спочатку, ви повинні з'ясувати "фільтруючі сторінки", які ви хочете, щоб пошукові системи індексували, а потім блокували доступ до пошукових систем до інших URL-адрес. Це можна зробити, виконавши наведені нижче дії

Крок 1: Складіть список аспектів, які, на вашу думку, мають багато пошукових запитів. Наприклад, якщо ваш сайт продає діамантові підвіски і один з ваших аспектів - "овальний розріз", то зробіть швидкий пошук за ключовими словами і дізнайтеся про кількість людей, які шукають "овальний алмазний кулон". Якщо ви бачите велику кількість людей, які шукають продукт через пошукові системи, ви повинні вирішити, щоб ця сторінка була проіндексована. Складіть список всіх таких граней, які мають хороший пошуковий попит. Приклади: «Овальний розріз», «Кулон», «Червоний» і «Футболка поло».

Крок 2. Створіть статичні сторінки для всіх цих сторінок пошуку, які мають високий попит і перенаправляють відповідні оброблені сторінки пошуку (дублікати) на статичну сторінку. Як тільки у нас є статичні сторінки для всіх таких сторінок з високим пошуковим запитом, ми можемо мати чистіші URL-адреси з найчастіше шуканими ключовими словами. Ці сторінки будуть точно відображати фасетовані сторінки з вибраними гранями.

Крок 3: Тепер ми перешкоджатимемо пошуковим системам повністю індексації гранованих сторінок. Для цього ми напишемо загальне правило сайту, яке зазначає, що при застосуванні фільтра в тезі <head> сторінки має бути застосований тег Noindex Meta Robots.

<meta name = ”robots” content = ”noindex” />

Докладніше про теги роботів noindex

Крок 4. Тепер, коли ми заборонили пошуковим системам індексувати сторінку, настав час зберегти бюджет на сканування сайту, повністю блокуючи доступ до цих сторінок.

Варіант 1

Для цього можна використовувати файл robots.txt. Myntra, використовуйте нижче просту директиву в її robots.txt, щоб заблокувати всі його сторінки фільтрації з доступу до пошукової системи.

Дізнайтеся, як блокувати недійсні сторінки та папки з пошукових систем

Варіант 2

Запобігти скануванню сторінок Google, вказавши параметр у Інструментах Google для веб-майстрів. Цей метод не настільки ефективний, як файл robots.txt. Але це більш технічно можливо, тому що вам не потрібно торкатися будь-якої частини коду. Зауважимо, що це лише директива, і в кінцевому підсумку Google вирішує, чи йти за цими правилами чи ні.

Крок 5. Переконайтеся, що кожна з гранованих сторінок має інший заголовок мета. Наприклад, назва для вашої сторінки категорії футболок може бути "Магазин футболки онлайн в Австралії", але гранований заголовок сторінки пошуку повинен бути "Магазин червоних футболок онлайн в Австралії". Зміна назви мета є найбільш забутим аспектом фільтрів. Хоча з точки зору пошукової системи ці сторінки не існують, тому що ми заблокували сканування, а заголовки індексації служать керівництвом для користувача. Це допомагає їм зрозуміти, на якій конкретній гратированной сторінці вони знаходяться.

Що таке гравітаційна навігація?
Що таке гравітаційна навігація?
Html?
Html?
Як зробити SEO дружні фільтри?