Навигация по сайту

Популярные статьи

Увлекательный поход по Крыму

Мы предлагаем вам увлекательный поход по живописным местам горного Крыма, полюбоваться красотами каньонов и горных водопадов, послушать журчание горных рек и пение птиц, насладиться экзотическими пейзажами

Отдых в Карпатах

Активный отдых - это очень важная часть жизни абсолютно любого человека, который способен обогащать и закалять человека как напрямую физически, улучшая форму, так и духовно, психологически, морально,

Вы аптымізавалі сваю гранічную навігацыю для SEO?

  1. Што такое аспектная навігацыя? Гранічны пошук або навігацыя - гэта спосаб удакладнення шырокай катэгорыі...
  2. Як гранічны пошук выклікае дубляваны змест
  3. Як зрабіць SEO дружалюбных фільтраў?

Што такое аспектная навігацыя?

Гранічны пошук або навігацыя - гэта спосаб удакладнення шырокай катэгорыі прадуктаў у тым, што патрабуе карыстальнік. Разнастайная навігацыя, у адрозненне ад традыцыйнай навігацыі, дазваляе карыстальнікам выбіраць элементы, заснаваныя на больш чым адным вымярэнні.

Напрыклад, калі карыстальнік, які прызямліўся на вашым сайце, шукае майку малога памеру Nike Red каляровага дыяпазону ў межах кошту ад 25 да 50 долараў, то перакрытая навігацыя можа дапамагчы яму знайсці патрэбную групу прадуктаў у межах ад 2 да 3 клікаў. Рухавая навігацыя часта называюць "гранічнымі пошукамі", а ў некалькіх выпадках проста называецца "фільтрамі". Грануляваны пошук дазваляе карыстальнікам спіс аспектаў / аспектаў для хуткага ўдасканалення або звужэння іх пошуку да патрэбнага прадукту.

SEO праблемы з гранічнай навігацыі

Хоць гранічная навігацыя дапамагае карыстальнікам хутка звузіць пошукавыя пошукавыя робаты, такія як Google, Bing або Yahoo, па-рознаму чытаць змест. Гэта можа прывесці да пары асноўных праблем SEO.

  1. Дублікат / бліжэйшыя дублікаты старонак - Для сканэра пошуку новы URL лічыцца новай старонкай. І калі ён сустракаецца з двума URL-адрасамі з аднолькавым зместам, то лічыць, што адна старонка з'яўляецца копіяй другой. Калі сайт мае вялікую колькасць старонак з дубліраванымі або амаль паўтаранымі старонкамі, то агульны рэйтынг сайта ў пошукавай сістэме можа пачацца. У неспрыяльных выпадках гэта можа прывесці да штрафу.
  2. Змяшчае ваш бюджэт сканавання - кожнаму сайту прызначаны бюджэт сканавання Google. Бот Google скануе сайты толькі на працягу гэтага перыяду часу, і калі прызначаны бюджэт сканавання скончыўся, робат Google пакідае сайт. Гэта можа прывесці да таго, што некаторыя з вашых самых важных старонак будуць сканаваныя. Кожны раз, калі абраны аспект ствараецца новы URL / старонка. Грануляваная навігацыя стварае мноства старонак для кожнага аспекта, а таксама для некалькіх камбінацый грані. Часта некаторыя з гэтых старонак лічацца дублікатамі або амаль дублікатамі пошукавымі сістэмамі, хоць яны адрозніваюцца ад карыстальніка. Калі пошукавіку не паведамляюць загадзя, каб не праіндэксаваць дублікаты старонак, то шмат часу марнуецца на сканаванне паўтаральных старонак. І з-за абмежаванага сканавання бюджэту пошукавыя сістэмы часта выпускаюць іншыя важныя старонкі.

Як гранічны пошук выклікае дубляваны змест

Разгледзім сайт электроннай камерцыі з мноствам стыляў (маркі, памеры, цэны, колер і матэрыял).

У першым выпадку я адфільтравала навігацыю, выбраўшы футболку малога памеру, а затым марку Adidas. Атрыманы URL старонкі

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ adidas / small- s .html? affint = ClothFlyMenu & source = fm & lc = Памер

У другім выпадку я адфільтравала навігацыю, выбраўшы Adidas у якасці свайго брэнда, а потым - мой памер майкі. У такім выпадку з'явіўся URL

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ small- s / adidas .html? affint = ClothFlyMenu & source = fm & lc = Brands

Хаця абодва URL-адрасы аказваюцца аднолькавымі, калі вы ўважліва паглядзіце першы URL-адрас
мае Adidas / small, а другі адрас мае small-s / Adidas. Калі вы наведваеце абодва URL-адраса, вы ўбачыце, што абедзве старонкі сапраўды аднолькавыя. Гэта толькі адзін з такіх выпадкаў. Чым вышэй лік аспектаў, тым больш дублікатаў старонак. Сітуацыя пагаршаецца, бо мы рэдка можам даведацца пра паўтараныя URL-адрасы, паколькі спасылкі ў асноўным дынамічныя.

Як зрабіць SEO дружалюбных фільтраў?

Каб зрабіць URL-адрасы фільтраў зручнымі для SEO, спачатку трэба высветліць “фільтравальныя старонкі”, якія вы хочаце, каб пошукавыя сістэмы праіндэксавацца, а затым заблакаваць доступ пошукавых сістэм да пакінутых адрасоў. Вы можаце зрабіць гэта, выконваючы наступныя дзеянні

Крок 1: Складзіце спіс аспектаў, якія, як вы лічыце, маюць вялікі попыт на пошук. Напрыклад, калі ваш сайт прадае брыльянтавыя кулоны, а адзін з вашых аспектаў - "авальны разрэз", паспрабуйце хуткі пошук па ключавых словах і даведайся пра шэрагу людзей, якія шукаюць алмазны кулон "Авальны зрэз". Калі вы бачыце вялікую колькасць людзей, якія шукаюць гэты прадукт праз пошукавыя сістэмы, то вы павінны прыняць гэтую старонку. Складзіце спіс усіх такіх аспектаў, якія маюць добры попыт на пошук. Прыклады: «Авальны зрэз», «Кулон», «Чырвоны» і «Футболка пола».

Крок 2 : Зрабіце статычныя старонкі для ўсіх гэтых пошукавых старонак, якія карыстаюцца вялікім попытам, і перанакіраваць адпаведныя гранічныя старонкі пошуку (дублікаты) на статычную старонку. Пасля таго, як у нас ёсць статычныя старонкі для ўсіх такіх старонак з высокім попытам на пошук, мы можам мець больш чыстыя URL-адрасы з асноўным ключавымі словамі, якія шукаюць. Гэтыя старонкі будуць дакладна адлюстроўвацца на гранях, якія вылучаюцца.

Крок 3: Цяпер мы не дапусцім, каб пошукавыя сістэмы праіндэксавалі ўсеагульныя старонкі. Для гэтага мы будзем пісаць правілы ўсяго сайта, якое кажа, калі ўжываецца фільтр, тэг Meta-Robots Noindex павінен быць ужыты ў раздзеле <head> старонкі.

<meta name = "robots" content = "noindex" />

Больш падрабязна пра робатаў Noindex

Крок 4: Цяпер, калі мы не дазволілі пошукавым сістэмам праіндэксаваць старонку, настаў час, каб зэканоміць бюджэт сканавання сайта, цалкам заблакаваўшы доступ гусенічнага доступу да гэтых старонак.

Варыянт 1

Для гэтага вы можаце выкарыстоўваць файл robots.txt. Myntra, выкарыстоўвайце ніжэй простую дырэктыву ў robots.txt, каб заблакаваць усе старонкі фільтра з доступу да пошукавых сістэм.

Даведайцеся, як заблакаваць несапраўдныя старонкі і тэчкі з пошукавых сістэм

Варыянт 2

Забараняеце Google сканаваць старонкі, згадваючы параметр у Інструментах Google Webmaster. Гэты метад не так эфектыўны, як файл robots.txt. Але гэта больш тэхнічна магчыма, бо вам не трэба дакранацца любой часткі кода. Звярніце ўвагу, што гэта проста дырэктыва, і, у канчатковым рахунку, Google вырашае, ці трэба выконваць гэтыя правілы.

Крок 5: Пераканайцеся, што кожная з граненных старонак мае розны мета-загаловак. Напрыклад, загаловак для вашай катэгорыі футболак можа быць "Крама футболак у Інтэрнэце ў Аўстраліі", але загаловак пошуку - гэта "Крама красных футболак у Інтэрнэце ў Аўстраліі". Змена мета-загалоўка - самы забыты аспект фільтраў. Хоць з пункту гледжання пошукавай сістэмы гэтыя старонкі не існуюць, таму што мы заблакавалі сканаванне і загалоўкі індэксацыі выступаюць у якасці кіраўніцтва для карыстальніка. Гэта дапамагае ім зразумець, на якой канкрэтнай граненай старонцы.

Што такое аспектная навігацыя?
Што такое аспектная навігацыя?
Html?
Html?
Як зрабіць SEO дружалюбных фільтраў?