Google вводит новый стандарт оценки качества сайтов
Поскольку поисковая система является главным продуктом корпорации Google, компания считает самой важной стратегической задачей оценивать качество поисковой выдачи. Несмотря на наличие различных служб и инструментов в арсенале компании, веб-поиск всегда стоит на первом месте во внушительном списке интернет-служб Google.
Core Web Vitals (основные web-показатели)
В этой связи, в мае текущего года Google планирует применять новый стандарт ранжирования сайтов Core Web Vitals, что в дословном переводе означает «основные веб-показатели». Данный стандарт будет состоять из нескольких параметров, с помощью которых Google будет оценивать качество интернет-ресурсов. Речь идет о трех показателях:
- Время загрузки основного контента (LCP). Google обозначил максимальное значение – 2,5 секунды.
- Время ожидания пользователя до первого взаимодействия с контентом (FID). Максимум, который отводит на это Google – 100 миллисекунд.
- Стабильность контента с визуальной точки зрения (CLS). Показатель оценивает то, насколько ухудшается опыт пользователя в результате сдвига макета страницы из-за подгрузки рекламы.
Главная цель, которую преследует Google LLC, вводя новый инструмент, – это увеличить долю ресурсов, соответствующих ожиданиям пользователей и соответственно уменьшить негативный опыт. Заметим, что данный набор сигналов не является окончательным, со временем перечень могут дополнить новыми параметрами ранжирования.
Как Google оценивает эти показатели?
Смотрите картинку:
Ведущий аналитик компании Google, Джон Мюллер, обсуждал тему ранжирования с SEO-специалистами по видеосвязи на предмет влиянии трафика на конечный результат. Дело в том, что Search Console не допускает к расчету показателей те страницы, которые не достигли определенных минимальных значений трафика.
Как сообщает в своем блоге 39saitov.ru, отвечая на вопрос вэбмастеров и оптимизаторов, Мюллер отметил, что если сайт загружается быстрее других, это еще не означает, что он обойдет всех конкурентов в поиске.
Число посетителей не является значимым для CWV, главное достигнуть пороговых значений трафика, чтобы необходимые расчеты были произведены.
Будет ли фильтр?
Будет ли позднее создан соотвествующий фильтр за накруту или имитацию этого показателя пока нет информации. У каждой поисковой системы в частности у Гугла есть различные фильтры, которые не позволяет сайтам, накручивающим показатели искусственным методом. Для того чтобы выявлять подобные сайты нарушители поисковики используют алгоритмы. Благодаря таким алгоритмам поисковик может выявить сайт-нарушитель и пессимизирует его, т.е. занижает его позиции в выдаче или вовсе удаляет из поиска.
Полезные материалы по SEO
- Что такое сниппет, как сделать красивый сниппет?
- JetOctopus: обзор сервиса
- Что такое SEO оптимизация сайта, и как она выполняется?
- Эмодзи в сниппетах в поисковых выдачах Google и Яндекс + кейс