Навигация по сайту

Популярные статьи

Увлекательный поход по Крыму

Мы предлагаем вам увлекательный поход по живописным местам горного Крыма, полюбоваться красотами каньонов и горных водопадов, послушать журчание горных рек и пение птиц, насладиться экзотическими пейзажами

Отдых в Карпатах

Активный отдых - это очень важная часть жизни абсолютно любого человека, который способен обогащать и закалять человека как напрямую физически, улучшая форму, так и духовно, психологически, морально,

Zoptymalizowałeś nawigację fasetowaną?

  1. Czym jest fasetowana nawigacja? Wyszukiwanie fasetowe lub nawigacja to sposób na dopracowanie szerokiej...
  2. Jak wyszukiwanie fasetowane powoduje powielanie treści
  3. Jak zrobić filtry przyjazne dla SEO?

Czym jest fasetowana nawigacja?

Wyszukiwanie fasetowe lub nawigacja to sposób na dopracowanie szerokiej kategorii produktów do wymagań użytkownika. Nawigacja fasetowana, w przeciwieństwie do tradycyjnej nawigacji, daje użytkownikom możliwość odkrywania przedmiotów na podstawie więcej niż jednego wymiaru.

Na przykład, jeśli użytkownik, który wylądował w Twojej witrynie, poszukuje małego rozmiaru koszulki Nike Red w przedziale cenowym 25–50 USD, nawigacja fasetowa może pomóc mu znaleźć żądaną grupę produktów w ciągu 2–3 kliknięć. Nawigacja fasetowana jest często nazywana wyszukiwaniem fasetowym lub w kilku przypadkach nazywana po prostu filtrami. Wyszukiwanie fasetowane daje użytkownikom listę aspektów / aspektów umożliwiających szybkie zawężenie lub zawężenie wyszukiwania do najbardziej pożądanego produktu.

Zagadnienia SEO z nawigacją fasetową

Choć nawigacja fasetowa pomaga użytkownikom zawęzić zakres wyszukiwania, boty wyszukiwarek, takie jak Google, Bing czy Yahoo, szybko odczytują treść w zupełnie inny sposób. Może to prowadzić do kilku poważnych problemów z SEO.

  1. Powielone / bliskie duplikaty stron - w przypadku przeszukiwacza wyszukiwania nowy adres URL jest traktowany jako nowa strona. A gdy napotka dwa adresy URL o tej samej treści, uważa, że ​​jedna strona jest duplikatem drugiej. Jeśli witryna ma dużą liczbę stron z powielonymi lub prawie zduplikowanymi stronami, ogólny ranking witryny w wyszukiwarce może zacząć spadać. W niekorzystnych przypadkach może nawet spowodować karę.
  2. Zużywa budżet indeksowania - do każdej witryny przypisywany jest budżet indeksowania Google. Bot Google indeksuje witryny tylko przez ten czas, a jeśli przypisany budżet indeksowania jest za długi, bot opuszcza witrynę. Może to spowodować, że kilka najważniejszych stron zostanie przeszukiwanych. Po wybraniu aspektu tworzony jest nowy adres URL / strona. Nawigacja fasetowana tworzy wiele stron dla każdego pojedynczego aspektu, a także dla wielu kombinacji aspektu. Często niektóre z tych stron są traktowane przez wyszukiwarki jak duplikaty lub bliskie duplikaty, chociaż wyglądają inaczej dla użytkownika. Jeśli pająk wyszukiwania nie zostanie wcześniej poinformowany, aby nie indeksować duplikatów stron, wiele czasu marnuje się na indeksowanie duplikatów stron. Ze względu na ograniczony budżet wyszukiwarki często nie trafiają na inne ważne strony.

Jak wyszukiwanie fasetowane powoduje powielanie treści

Zastanów się nad stroną e-commerce z mnóstwem koszulek z wieloma stylami (marki, rozmiary, ceny, kolor i materiał).

W pierwszym przypadku filtrowałem nawigację, wybierając najpierw mały t-shirt, a następnie markę Adidas. Wynikowy adres URL strony był

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ adidas / small- s .html? affint = ClothFlyMenu & source = fm & lc = Size

W drugim przypadku filtrowałem nawigację, wybierając Adidasa, ponieważ moja marka podążyła za małym rozmiarem koszulki. W takim przypadku pojawia się adres URL

http://www.yebhi.com/online-shopping/men/apparels/t-Shirts/ small- s / adidas .html? affint = ClothFlyMenu & source = fm & lc = Brands

Wszystkie, choć oba adresy URL, wydają się być takie same, jeśli uważnie przyjrzysz się pierwszemu adresowi URL
ma Adidas / small, podczas gdy drugi URL ma small-s / Adidas. Jeśli odwiedzisz oba adresy URL, zobaczysz, że obie strony są dokładnie takie same. To tylko jeden taki przypadek. Wyższa liczba aspektów będzie większa niż liczba duplikatów stron. Sytuacja pogarsza się, ponieważ rzadko możemy znaleźć wygenerowane duplikaty adresów URL, ponieważ linki są w większości dynamiczne.

Jak zrobić filtry przyjazne dla SEO?

Aby adresy URL filtrów były najpierw przyjazne dla SEO, musisz znaleźć „filtrowanie stron”, które chcesz, aby wyszukiwarki indeksowały, a następnie zablokować dostęp do pozostałych adresów URL. Możesz to zrobić, wykonując poniższe kroki

Krok 1: Zrób listę aspektów, które według Ciebie mają duże zapotrzebowanie na wyszukiwanie. Na przykład, jeśli witryna sprzedaje wisiorki diamentowe, a jeden z twoich aspektów jest „owalny”, wykonaj szybkie wyszukiwanie słów kluczowych i znajdź kilka osób poszukujących „diamentowego wisiorka z owalnym cięciem”. Jeśli widzisz dużą liczbę osób poszukujących produktu za pośrednictwem wyszukiwarek, powinieneś zdecydować się na zindeksowanie tej strony. Zrób listę wszystkich takich aspektów, które mają dobre zapotrzebowanie na wyszukiwanie. Przykłady: „Oval Cut”, „Pendant”, „Red” i „Polo Tshirt”.

Krok 2 : Stwórz strony statyczne dla wszystkich tych stron wyszukiwania, które mają duże zapotrzebowanie, i przekieruj odpowiednie strony wyszukiwania fasetowego (duplikaty) na stronę statyczną. Gdy już mamy statyczne strony dla wszystkich takich stron z wysokim popytem na wyszukiwanie, możemy mieć czystsze adresy URL zawierające przeważnie wyszukiwane słowa kluczowe. Strony te będą dokładnie reprezentować fasetowane strony z wybranymi aspektami.

Krok 3: Teraz zapobiegniemy całkowitemu indeksowaniu stron wyszukiwarek przez wyszukiwarki. W tym celu napiszemy regułę obejmującą całą witrynę, która mówi, że za każdym razem, gdy stosowany jest filtr, znacznik Meta Robots Noindex musi być stosowany w sekcji <head> strony.

<meta name = ”roboty” content = ”noindex” />

Więcej o robotach noindex tag

Krok 4: Teraz, gdy uniemożliwiliśmy indeksowanie strony przez wyszukiwarki, nadszedł czas, aby zaoszczędzić nasz budżet indeksowania witryny, całkowicie blokując dostęp robotów do tych stron.

opcja 1

W tym celu możesz użyć pliku robots.txt. Myntra, użyj poniższej prostej dyrektywy w pliku robots.txt, aby zablokować wszystkie strony filtrów z dostępu do wyszukiwarki.

Dowiedz się, jak blokować nieprawidłowe strony i foldery w wyszukiwarkach

Opcja 2

Zapobiegaj indeksowaniu stron przez Google, podając parametr w Narzędziach Google dla webmasterów. Ta metoda nie jest tak skuteczna jak plik robots.txt. Ale jest to bardziej technicznie wykonalne, ponieważ nie musisz dotykać żadnej części kodu. Zauważ, że jest to tylko dyrektywa i ostatecznie Google decyduje, czy zastosować te zasady, czy nie.

Krok 5: Upewnij się, że każda ze stron ma inny tytuł meta. Na przykład tytuł strony z kategorią koszulek mógłby brzmieć „Shop Tshirts Online w Australii”, ale tytuł strony z wyszukiwarek powinien być „Shop Red Tshirts Online w Australii”. Zmiana tytułu Meta jest najbardziej zapomnianym aspektem filtrów. Chociaż z punktu widzenia wyszukiwarki, strony te nie istnieją, ponieważ zablokowaliśmy indeksowanie i indeksowanie tytułów działają jako przewodnik dla użytkownika. Pomaga im zrozumieć, na jakiej konkretnej stronie znajduje się strona.

Czym jest fasetowana nawigacja?
Czym jest fasetowana nawigacja?
Html?
Html?
Jak zrobić filtry przyjazne dla SEO?