Навигация по сайту

Популярные статьи

JavaScript, SEO и Google - вот как это становится успешным - вот почему

  1. JavaScript, SEO и Google на протяжении многих лет
  2. Ранее: JavaScript не доступен сканерам поисковых систем
  3. В настоящее время: JavaScript полностью сканируется ...
  4. Google о лучших методах JavaScript и SEO
  5. Поисковые боты нуждаются в уникальных URL
  6. Канонический URL предотвращает дублирование контента, предотвращает зацикливание!
  7. URL Hashbang, сканирование Ajax и фрагменты Escape
  8. Тег заголовка, мета описание и другие метатеги
  9. sitemap.xml
  10. Рендеринг робота Google и предварительно обработанный контент
  11. Оптимизируйте свой сайт
  12. Как вы проверяете, является ли ваш JavaScript-сайт оптимизированным для SEO?
  13. Тест на сумму

У Javascript и SEO были интересные отношения друг с другом в течение многих лет. От поисковой системы нет, до превосходной способности к поиску. По последним обновлениям от Google в любом случае. Давайте проверим это в ближайшем будущем! JavaScript SEO, это все еще проблематично? Что может обрабатывать Google, а что нет, а как быть с другими поисковыми системами? Бот Bing, DuckDuckGo, Facebook, вы называете это. Как боты справляются с такими фреймворками, как Angular и React? Мы все проверим это и поделимся здесь опытом. Теперь сначала фоны и лучшие практики для успеха SEO JavaScript!

JavaScript, SEO и Google на протяжении многих лет

До недавнего времени Google не мог отображать JavaScript-сайты. Это сделало практически невозможным для Google определить, какой контент находится на сайте, и вы могли забыть о хорошем рейтинге. JavaScript и SEO долгое время не были хорошей комбинацией. Но это, к счастью, дело прошлого. Краткая история JavaScript и SEO:

Ранее: JavaScript не доступен сканерам поисковых систем

Примерно в 2010 году и ранее, JavaScript был в значительной степени обойден поисковой системой. Это также имело свои преимущества. Например, JavaScript иногда использовался для того, чтобы части навигации были недоступны для поисковых роботов. В результате, например, вы можете довольно легко решить проблему с фильтрами товаров. Ценовой фильтр в интернет-магазине может привести к появлению большого количества дублирующегося контента, и в прошлом, задолго до появления канонического URL , это иногда решалось путем размещения разделов меню в JavaScript. Вне зоны действия проблема решена.

В 2009 году стало angularjs запущен. Фреймворк с открытым исходным кодом JavaScript, который был сделан большим Google. Идеально подходит для динамических сайтов. Таким образом, содержание может быть представлено еще более гибко. Возможно, слишком гибкий, потому что Google и другие поисковые системы не могут справиться с этим. К счастью, были решения. А именно, делая статические версии (снимки HTML) каждой страницы доступными. Затем они были доступны в URL как _escaped_fragment_. Метатег « фрагмент » информировал поисковик о его доступности. Подробнее об этом в руководство для этого на сайте Года Му. BuiltVisible также имеет совсем недавно хорошая публикация подготовлен на этом. Сам Google проповедовал следующее как руководство для веб-мастеров ,

В настоящее время: JavaScript полностью сканируется ...

между тем сообщите Google что Javascript может хорошо сканировать, если он соответствует ряду лучших практик. Он рекомендует использовать прогрессивное улучшение. Добавление функциональности там, где это позволяет браузер пользователя. Или поддержание доступности и доступности вашего сайта, где используются некомпетентные браузеры (или роботы поисковых систем). Google предложил новые рекомендации для JavaScript SEO. Прогрессивное улучшение безусловно, хорошее решение! Конечно, так как Google не единственная поисковая система. Bing, DuckDuck go, но также на социальных сайтах, таких как Facebook, есть боты, для которых вы хотите, чтобы ваш сайт был доступен.

Теперь мы прибыли в настоящем времени. Google говорит, что может сканировать JavaScript, отображать его и, следовательно, индексировать. Джон Мюллер, начальник Google Webmaster Office Hours Hangouts Недавно, 27 сентября 2016 года, было дано объяснение конференции разработчиков Angular Connect. Приложено видео этого и наиболее важных моментов:

Google о лучших методах JavaScript и SEO

Суть этой речи: Google (и другим поисковым системам) нужны уникальные просматриваемые URL-адреса ... и просматриваемые ссылки! При этом он может просматривать ваш контент (посещения, рендеринг) и индексации. Краткий обзор лучших практик для сайтов JavaScript и хорошего технического SEO:

Поисковые боты нуждаются в уникальных URL

Убедитесь, что уникальный контент в вашем приложении JavaScript доступен через уникальный URL ( 2:55 ). Как выглядит хороший URL? вид эти советы от Моза , Убедитесь, что каждая страница / состояние имеет свой собственный URL. То же самое относится к каждому языку, на котором отображается страница. Каждый из них имеет уникальный URL. Для Angular вы можете активировать режим HTML5 для этого .

В стандартном режиме Angular использует URL-адреса hashbang. URL-адреса, в которые включен символ #, например: www.daarom.com/#/blog1. Хеш (#) используется в HTML для обозначения ссылок на странице ( закладки ). Поскольку многие современные сайты представляют собой одностраничное приложение (SPA), все «ссылки» на самом деле являются внутренними ссылками / закладками. Это правильно теоретически, это проблема для SEO, поисковые системы рассматривают весь сайт как 1 страницу. В то время как вы хотите, чтобы ваш контент, страницы, состояния были индивидуально доступны и, следовательно, были лучше в индивидуальном порядке по соответствующим запросам!

Канонический URL предотвращает дублирование контента, предотвращает зацикливание!

Следующий пункт цитируется Джоном Мюллером ( 6:11 ) является Канонический URL , При этом вы даете уникальный адрес своему контенту, странице, состоянию. Если контент доступен по нескольким URL-адресам, вы можете использовать канонический URL-адрес, чтобы указать, какой URL-адрес является ведущим. Также прочитайте это обновление от Google , Убедитесь, что вы правильно идентифицируете правильные URL-адреса как канонические. Будьте осторожны при использовании 301 и канонические , Здесь есть опасность петель, от 301 до канонических и обратно.

URL Hashbang, сканирование Ajax и фрагменты Escape

Экранированные фрагменты больше не рекомендуются Google ( 7:26 Как будто вы могли прочитать это здесь раньше. Создание снимков и управление ими очень трудоемки и поэтому подвержены ошибкам. Прогрессивное улучшение - лучшее решение! Джон Мюллер указывает, что Google умеет #! Рендеринг URL только с несколькими из них ( 8:45 ) То, что мы скоро будем тестировать сами.

Использование обычного элемента <a href> против JavaScipt 'onclick' является ценным советом для всех сайтов / ссылок JavaScript.

Если Google не удается «визуализировать» страницу, она будет использовать HTML, из которого создана страница. Это означает, что есть большая вероятность того, что страницы, свободные от контента, будут рассматриваться как дубликаты. ( 11:00 утра )

(   11:00 утра   )

Googlebot рендеринг JavaScript - Джон Мюллер

Тег заголовка, мета описание и другие метатеги

Между тем стандартные объявления для успеха SEO: тег заголовка, мета-описание, теги href lang и другие определяющие метатеги. Убедитесь, что они присутствуют и уникальны для каждой страницы. Убедитесь, что они добавлены в заголовок каждой страницы, и убедитесь, что заголовок объявлен правильно. ( 11:49 )

Скрытые текстовые и выпадающие поля с большим количеством текста, текст, который становится видимым после ввода данных пользователем, просто не подходил для SEO. Джон также указывает, что здесь ( 13:07 ). [Обновление] С первым мобильным индексом в поле зрения позиция за это время изменилась. Текст во вкладках, за переводом ссылок, скрытый текст, снова становится сегодня рассматривается как полный , Гарри Иллиес сказал в начале ноября. Убедитесь, что контент доступен правильно.

sitemap.xml

Убедитесь, что ваш sitemap.xml настроен правильно. Здесь все (канонические) URL-адреса, которые вы хотите проиндексировать с датой обновления. ( 20:32 )

Рендеринг робота Google и предварительно обработанный контент

В качестве наилучшей практики Джон Мюллер советует предварительно визуализированный контент. Предпочтительно через Изоморфный JavaScript , ( 15:33 ) AirBnB там написал в то время хороший блог об этом. Угловой универсальный испек это в. Также просто тестирование в ближайшее время!

Оптимизируйте свой сайт

Пока что лучшие практики. Вы начинаете сейчас делать улучшения, убирать свои URL? Обратите внимание на следующие моменты: настройте URL-адреса, убедитесь, что вы переносите их аккуратно! Убедитесь, что ваш sitemap.xml правильный и убедитесь, что Canonicals соответствует ( 16:36 );

xml правильный и убедитесь, что Canonicals соответствует (   16:36   );

URL перенаправления

Как вы проверяете, является ли ваш JavaScript-сайт оптимизированным для SEO?

Есть несколько тестов, которые вы можете сделать, чтобы определить, может ли Google сканировать, отображать и индексировать ваш сайт. Обратите внимание; Есть и другие поисковые системы и боты, но давайте начнем с Google. Прежде всего: Google Search Console ( 18:20 ): вы можете запросить страницы здесь через опцию "Получить как Google". Это дает графическое представление того, что видит Google Bot. Если дела здесь идут плохо, у вас уже есть указание на то, что есть работа, которую нужно сделать. Если изображение выглядит хорошо, это то, что вы получаете. К сожалению, вы не видите основной HTML / DOM. Поэтому проверка метаданных и другой разметки / содержимого невозможна. Также проверьте количество проиндексированных страниц в консоли поиска и просмотрите различные варианты, чтобы увидеть, есть ли какие-либо проблемы.

Собственный: простой тест - проверить, проиндексирован ли контент ваших страниц, введя фрагмент текста в кавычки в поисковой системе. Если этот текст найден, это также свидетельствует о том, что он идет хорошо. Затем проверьте на сайте: www.jouwangularapp.com, какие страницы были проиндексированы. SEO инструмент, кричащая лягушка, теперь также рендеринг JavaScript , Это позволяет выполнять обычное сканирование SF.

Более сложным вариантом является мониторинг журналов сервера. Различные боты, которые посещают ваш сайт, показывают, какие страницы посещены, а какие нет. Распознавание шаблонов в этом помогает решить проблемы сканирования. Для экспертов SEO журнал сервера является богатым источником информации для оптимизации бюджета сканирования и, безусловно, имеет значение при определении доступности сайтов с интенсивным использованием JavaScript.

Тест на сумму

Все очень хорошо, как хорошо Google теперь может обрабатывать JavaScript. Если бы не то, что говорит Google, не всегда получается так на практике. Настало время протестировать некоторые фреймворки JavaScript. На повестке дня и в ближайшее время в этом театре: Angular, Angular 2, React и Progressive Web App, где мы узнаем, насколько хорошо Google справляется с этим, а также другие поисковые системы, такие как Bing (& Yahoo), DuckDuckGo и социальные боты, такие как Facebook и Twitter. Помимо возможности поиска, вы также хотите сделать хороший рендер в социальных сетях. Оставайтесь с нами!

JavaScript SEO, это все еще проблематично?
Что может обрабатывать Google, а что нет, а как быть с другими поисковыми системами?
Как боты справляются с такими фреймворками, как Angular и React?
Как выглядит хороший URL?
Вы начинаете сейчас делать улучшения, убирать свои URL?