Навигация по сайту

Популярные статьи

Увлекательный поход по Крыму

Мы предлагаем вам увлекательный поход по живописным местам горного Крыма, полюбоваться красотами каньонов и горных водопадов, послушать журчание горных рек и пение птиц, насладиться экзотическими пейзажами

Отдых в Карпатах

Активный отдых - это очень важная часть жизни абсолютно любого человека, который способен обогащать и закалять человека как напрямую физически, улучшая форму, так и духовно, психологически, морально,

Что я должен высматривать с seo карты сайта?

  1. Предложение не то же самое, что индексирование
  2. Быть последовательным
  3. Одна ласточка не делает SEO весной
  4. Неверно проиндексированные страницы
  5. В чем разница между мета-роботами и файлом robots.txt?
  6. Принять во внимание бюджет сканирования
  7. Создайте несколько XML-файлов Sitemap
  8. Динамическая карта сайта

Карта сайта сайта поможет Google сканировать ваш сайт

Карта сайта сайта поможет Google сканировать ваш сайт. В этом сообщении мы с радостью поможем вам оптимизировать карту вашего сайта.

Предложение не то же самое, что индексирование

Прежде всего, XML-карта сайта не будет автоматически обеспечивать индексацию ваших страниц. Карта сайта - это инструмент для ботов Google, которые сканируют ваш сайт. Они будут эффективно индексировать страницы на ваших сайтах только в том случае, если они считают, что они имеют достаточное качество для этого.

Поэтому, когда вы добавляете XML-карту сайта в консоль поиска Google, вы делаете не меньше, а просто предложение Google о страницах, которые, по вашему мнению, заслуживают индексирования.

Быть последовательным

Предоставьте ясное и прежде всего понятное сообщение роботам, которые сканируют Интернет. Когда вы включаете определенную страницу в файл robots.txt чтобы предотвратить его индексацию и, с другой стороны, включив его в карту сайта XML, вы создаете путаницу. То же самое, когда вы устанавливаете мета-роботов с «noindex, следуйте» для определенных страниц, чтобы Google не индексировал эти страницы после сканирования, но впоследствии включал те же самые страницы в карту сайта.

Другими словами, если вы хотите, чтобы определенные страницы на вашем сайте стали теми страницами, на которые кто-то попадает из поисковой выдачи, никогда не делайте следующее. Не блокируйте это в файле robots.txt, и добавление мета-робота также неуместно.

Одна ласточка не делает SEO весной

Знайте, что Google просматривает качество всего вашего сайта, чтобы оценить его.

Предположим, на вашем сайте есть несколько хороших страниц, на которые люди попадают из результатов поиска. Но что если они перейдут на другие страницы вашего сайта, которые вообще не предназначены для целевой страницы? Например, страницы входа в систему, страницы для ответов на комментарии, восстановления пароля, ... Страницы, которые действительно имеют свою полезность, но не считаются «очками Google» эквивалентными страницам с контентом.

При создании XML-карты сайта лучше не указывать эти страницы. Предоставьте в карте сайта те страницы, которые, по вашему мнению, содержат хороший контент. Таким образом вы отделяете всю пшеницу от мякины и даете понять роботу Google, что вы знаете, какие страницы имеют достаточно хорошего контента для входа в карту сайта XML, а какие нет. Основываясь на страницах, которые бот находит в вашей карте сайта XML, он будет проверять и оценивать ваш сайт.

Неверно проиндексированные страницы

С помощью папки сайта XML вы можете предложить Google то, что вы считаете ценными страницами, но это не мешает ботам сканировать и индексировать другие страницы на вашем сайте (если они не находятся в ваш файл robots-txt или вы добавили мета-роботов для него).

Другими словами, все еще существует вероятность того, что страницы будут сканироваться и индексироваться, чего вы бы предпочли не иметь.

Чтобы найти эти неправильно проиндексированные страницы, вы можете выполнить поиск в Google на сайте: за ним следует URL вашего сайта. Страницы, которые, по вашему мнению, не относятся к этому обзору, вы можете дать мета-роботам «noindex, follow» или добавить их в свой файл robots.txt. Обычно вы найдете самые слабые ссылки на последней странице этих результатов поиска.

В чем разница между мета-роботами и файлом robots.txt?

Когда вы включаете страницу в файл robots.txt, вы, в отличие от мета-роботов, также не позволяете указывать значение ссылки для страниц, на которые она ссылается.

Возьмите страницу контактов со ссылкой в ​​нижнем колонтитуле и, следовательно, появляется на каждой странице вашего сайта. Там разумнее работать с мета-роботами, так что значение ссылки все же может быть передано на другие страницы вашего сайта.

Принять во внимание бюджет сканирования

Если у вас много страниц, которые не предназначены в качестве целевых страниц, вы можете назначить им мета-роботов «noindex, follow». Тогда знайте, что вы рискуете использовать большой бюджет сканирования для сканирования этих страниц, и боты Google просто больше не имеют доступа к тем страницам, для которых важно, чтобы вы были проиндексированы. В связи с этим более интересным является использование файла robots.txt, в который вы включаете все страницы, не основанные на контенте.

Предположим, у вас есть интернет-магазин со страницами, содержание которых регулярно меняется (страницы блога или категории товаров). Кроме того, у вас, естественно, также есть много страниц с товарами, которые вы хотите, чтобы Google проиндексировал. Хотя и не по той цене, что бот не из-за регулярного сканирования и индексации страниц вашей категории товаров. Поэтому добавьте последний в вашу карту сайта. Таким образом, Google знает, что они важнее для вас, чем отдельные страницы продукта, которые, хотя они и проиндексированы, не отображаются в XML-карте сайта.

Создайте несколько XML-файлов Sitemap

Тем временем вы знаете, как создать карту сайта XML, и у вас есть четкое представление о том, какие страницы принадлежат ему, а какие нет. Полный гордости, через некоторое время в Google Search Console вы проверите созданную вами карту сайта. Вы получите обзор количества проиндексированных страниц. Только вы не получите четкого представления о том, на каких именно страницах это происходит.

Мы снова вернемся к нашему примеру интернет-магазина. Более 200 000 товаров, от сотен до тысяч страниц категорий товаров и множество страниц подкатегорий.

Вы добавляете все в одну карту сайта и затем видите в консоли поиска Google, что проиндексировано около 80 000 страниц, но какие страницы?

Вы также хотите знать в то же время:

  • сколько из них являются страницами категорий товаров,
  • сколько страниц подкатегорий,
  • сколько отдельных страниц товара?

Следовательно, в этом случае было бы более интересно создать как минимум три отдельных файла Sitemap.

Например, если вы видите, например, карту сайта страниц подкатегории, что не все страницы были проиндексированы, вы можете начать более конкретно работать с определенными типами страниц.

Перейдите и разделите страницы, которые вы хотели бы проиндексировать, на различные папки сайта с учетом ряда теорий:

  • 1. Страницы, на которых нет фотографии товара, не будут проиндексированы,
  • 2. Нет страниц с мета-описанием менее 200 слов,
  • 3. Ни одна страница без отзывов

Теперь создайте карты сайта с достаточным количеством страниц, которые относятся к одной из вышеуказанных категорий.

Затем вы можете начать просматривать процент страниц из проиндексированной карты сайта. Таким образом, вы сможете быстрее увидеть, какие факторы вызывают, проиндексирована страница или нет.

Как только вы узнаете, где зажимает обувь, вы можете либо изменить содержимое, либо добавить индекс без индекса, если он не стоит угля. Для страниц с мета-описанием менее 50 слов в любом случае вероятность того, что они будут проиндексированы, весьма мала. При использовании noindex не забудьте удалить их из карты сайта

Динамическая карта сайта

Этот ручной метод, с помощью которого вы координируете карты сайта и мета-роботов, очевидно, не работает для тех, у кого есть интернет-магазин с сотнями тысяч страниц.

Знайте, что он также может быть другим, и вы также можете создавать более динамические карты сайта.

Вы можете установить так называемые «правила», чтобы указать, будет ли страница включена в карту сайта XML или нет. Вы также можете расширить эту логику при определении мета-роботов для каждой страницы.

Например, страница продукта, которая внезапно получает мета-описание из более чем 50 слов, внезапно будет включена в карту сайта и получит мета-роботов "index, folow".

Вы можете найти больше информации здесь

Мы надеемся, что благодаря этим советам вы будете на шаг ближе к тому, чтобы разъяснить роботам Google, какие страницы на вашем сайте действительно важны для вас.

Txt?
Но что если они перейдут на другие страницы вашего сайта, которые вообще не предназначены для целевой страницы?
Txt?
Вы добавляете все в одну карту сайта и затем видите в консоли поиска Google, что проиндексировано около 80 000 страниц, но какие страницы?