Главным инструментом любой поисковой системы является поисковый робот. Последний автоматически «пересматривает» старицы каждого сайта, и вносит в индекс всю полезную информацию о них. В свою очередь полнота и качество выдаваемой ими информации о сайте зависит также от того, какие технологии поддерживает сам поисковик. Как следствие, веб-разработчикам приходится учитывать все эти нюансы при создании сайтов и внедрять новинки после того, как поисковые роботы смогут их поддерживать.
St-Max.ru - купить мобильные стенды в Москве.
Возьмем, к примеру, новую версию сетевого протокола HTTP/2. Использование данного протокола позволит снизить нагрузку на сервер, уменьшить трафик и т.д. Все современные браузеры поддерживают данный протокол.
Но есть «но». Робот поисковика Google не умеет индексировать страницы сайта, передаваемые только через HTTP/2 протокол. Джон Мюллер сообщил, что им известно о данной проблеме и пообещал решить эту проблему.
А на днях он же сообщил что теперь поисковику не достаточно одного HTML. Google Search Console показывает имеет ли робот доступ к контенту (в том числе скрипты, графика, CSS), на что это влияет, а также помогает решить проблемы.
Тоже самое касается и русской поисковой системы, именуемой Яндекс. Последний также имеет данную проблему и старается ее решить. Сообщалось о том, что их поисковик начал учитывать при сканировании страниц сайта каскадные таблицы стилей (css) и java-скрипты. Теперь робот сможет видеть страницу в том же виде что и пользователи в браузерах.
Есть большая вероятность, что появление нового контента в индексе повлияет на ранжирование сайта. При этом поисковый гигант рунета советует открыть JavaScripts и CSS файлы для индексации через файл robots.txt.