Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google ускоряет загрузку страниц и индексацию, пропуская выполнение JavaScript, который не влияет на контент

    OPTIMIZED BROWSER RENDER PROCESS (Оптимизированный процесс рендеринга в браузере)
    • US10713330B2
    • Google LLC
    • 2020-07-14
    • 2014-06-26
    2014 Google Shopping SERP Индексация Патенты Google

    Google использует систему для определения веб-страниц, где выполнение скриптов (например, JavaScript) не меняет основной контент, ссылки или структуру. Такие страницы помечаются как «контентно-нейтральные». Это позволяет браузерам (и системам индексации Google) пропускать выполнение скриптов на этих страницах, значительно ускоряя рендеринг и экономя ресурсы.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему низкой эффективности и высокой ресурсоемкости рендеринга веб-страниц, насыщенных скриптами (например, JavaScript). Выполнение скриптов замедляет загрузку, потребляет ресурсы CPU, сетевой трафик и заряд батареи, что особенно критично для мобильных устройств. Цель изобретения — оптимизировать процесс рендеринга путем отказа от выполнения скриптов, если это не приводит к существенному изменению контента, повышая эффективность как для пользователей, так и для систем индексации (Googlebot).

    Что запатентовано

    Запатентована система для идентификации content neutral веб-страниц — страниц, чей контент существенно не меняется при отключении выполнения скриптов. Система включает офлайн-механизм для анализа страниц и создания базы данных шаблонов (Content Neutral URL Patterns). Также описан механизм, позволяющий браузеру (или системе индексации) использовать эту базу для принятия решения о рендеринге страницы с отключенным скриптингом (scripting turned off), игнорируя стандартные настройки.

    Как это работает

    Система работает в двух режимах: офлайн-анализ и онлайн-оптимизация.

    • Офлайн-анализ (Идентификация): Batch Rendering System анализирует URL из логов сканирования. Страница рендерится дважды: с включенными скриптами и с выключенными.
    • Сравнение: Результаты рендеринга сравниваются по ключевым параметрам: текст (Tokens), исходящие ссылки (Outlinks) и структура макета (Layout).
    • Генерация паттернов: Если результаты схожи (content neutral), система выявляет общие шаблоны URL и сохраняет их в базу данных.
    • Онлайн-оптимизация (Применение): Когда браузер (например, Chrome или Googlebot) загружает страницу, он проверяет, соответствует ли URL шаблону в базе. Если да, браузер принудительно рендерит страницу с отключенными скриптами, ускоряя процесс.

    Актуальность для SEO

    Высокая. Производительность загрузки (Core Web Vitals) и эффективность использования ресурсов являются ключевыми приоритетами Google. Этот механизм напрямую направлен на ускорение рендеринга и экономию ресурсов как в пользовательских браузерах (особенно мобильных), так и в инфраструктуре Google (оптимизация работы Googlebot и расходования краулингового бюджета).

    Важность для SEO

    Влияние на SEO значимое (65/100), хотя и преимущественно косвенное. Патент описывает инфраструктурный механизм оптимизации производительности. Для SEO это важно по двум причинам: 1) Core Web Vitals: Если браузер пользователя использует этот механизм, страница загружается быстрее, что может улучшить реальные пользовательские метрики (RUM) и положительно повлиять на ранжирование. 2) Эффективность индексации (JavaScript SEO): Понимание этого механизма критично для сайтов, полагающихся на JS. Он показывает, как Google может оптимизировать свои ресурсы, и подчеркивает важность эффективной доступности контента и ссылок.

    Детальный разбор

    Термины и определения

    Batch Rendering System (Система пакетного рендеринга)
    Серверная система для массового рендеринга веб-страниц в офлайн-режиме, например, для целей индексации или анализа (аналог Google WRS).
    Content Neutral URL (Контентно-нейтральный URL)
    URL веб-страницы, чей рендеринг с включенными скриптами дает результат, схожий (similar) с рендерингом при отключенных скриптах. Скрипты на такой странице не влияют на основной контент, ссылки и структуру.
    DOM Tree (DOM-дерево)
    Структурированное представление HTML-кода отрендеренной страницы. Используется для извлечения токенов и исходящих ссылок.
    Fetch Records (Записи о сканировании)
    Логи, содержащие информацию о запрошенных и полученных веб-страницах. Используются как источник URL для анализа.
    Layout (Макет/Структура страницы)
    Геометрическая информация об элементах отрендеренной страницы. Включает блоки (boxes) с указанием координат и размеров. Позволяет понять визуальную структуру.
    Major Components (Основные компоненты)
    Элементы макета с наибольшими размерами блоков (largest boxes). Используются для оценки визуального сходства страниц.
    Outlinks (Исходящие ссылки)
    Ссылки на другие страницы или документы, извлеченные из отрендеренной страницы (например, из тегов <a>).
    Rendering Result (Результат рендеринга)
    Набор данных, полученный после рендеринга страницы. Включает Image, DOM Tree, Layout, список ошибок и загруженных ресурсов.
    Similarity Score (Оценка сходства)
    Метрика для количественной оценки визуального сходства Major Components двух результатов рендеринга. Рассчитывается на основе площади перекрытия (overlapping area).
    Tokens (Токены)
    Текстовое содержимое документа (видимые слова), извлеченное из DOM Tree.

    Ключевые утверждения (Анализ Claims)

    Патент содержит два основных независимых пункта, описывающих применение оптимизации (Claim 1) и работу сервиса, предоставляющего данные для оптимизации (Claim 11).

    Claim 1 (Независимый пункт): Описывает систему (например, браузер), выполняющую оптимизированный рендеринг.

    1. Система получает запрос на рендеринг веб-страницы (URL).
    2. До начала рендеринга система определяет, идентифицирован ли этот URL как content neutral в специальном хранилище данных (data store). (Content neutral означает, что контент схож при рендеринге с включенным и выключенным скриптингом).
    3. Если URL определен как content neutral, система рендерит страницу с принудительно отключенным скриптингом (scripting turned off), независимо от настроек браузера (regardless of browser settings for scripting).

    Ключевой аспект — превентивное отключение скриптов на основе внешних, заранее рассчитанных данных о том, что эти скрипты не влияют на контент.

    Claim 11 (Независимый пункт): Описывает метод работы сервиса, обслуживающего запросы браузеров или других клиентов (requestor).

    1. Сервис получает URL от клиента.
    2. Сервис определяет, находится ли URL в хранилище данных content neutral URL.
    3. Сервис предоставляет ответ: «content neutral» или «not content neutral».
    4. Клиент использует этот ответ для рендеринга страницы с отключенным скриптингом, если получен ответ «content neutral», независимо от настроек.

    Зависимые пункты (Claims 2-10, 12-20): Уточняют детали реализации:

    • Идентификация может использовать шаблоны URL (URL patterns) (Claims 2, 14).
    • Система учитывает тип браузера (browser types), например, различая мобильный и десктопный (Claims 4-6, 15, 16).
    • Критерии схожести (similarity) основываются на макете страницы (page layout), токенах (tokens), исходящих ссылках (outlinks) и основных компонентах (major components) (Claims 7-9, 17-20).

    Где и как применяется

    Изобретение затрагивает инфраструктуру рендеринга и применяется как на стороне поисковой системы (для анализа и индексации), так и на стороне клиента (для оптимизации загрузки).

    CRAWLING – Сканирование и Сбор данных

    • Fetch Records, генерируемые на этом этапе, служат источником URL для офлайн-анализа.
    • Если краулер (Googlebot) использует этот механизм, он может оптимизировать собственный процесс рендеринга, экономя ресурсы (Crawl Budget) и время.

    INDEXING – Индексирование и извлечение признаков

    • На этом этапе происходит офлайн-анализ. Batch Rendering System и Content Neutral URL Identification Engine анализируют страницы, сравнивают результаты рендеринга и генерируют базу данных Content Neutral URL Patterns.

    Клиентский браузер (User Experience)

    • Браузер пользователя (например, Chrome) использует механизм для ускорения загрузки страниц, обращаясь к сервису или локальной базе данных. Это напрямую влияет на Page Experience и Core Web Vitals.

    Входные данные (Офлайн): Fetch Records, содержимое веб-страниц (HTML, JS, CSS).

    Выходные данные (Офлайн): База данных Content Neutral URL Patterns.

    Входные данные (Онлайн): URL, тип браузера, база данных паттернов.

    Выходные данные (Онлайн): Отрендеренная веб-страница (потенциально быстрее).

    На что влияет

    • Типы контента: Влияет на страницы, содержащие JavaScript. Сайты, использующие JS для второстепенных целей (аналитика, трекинг, виджеты), скорее будут классифицированы как content neutral. Сайты, зависящие от JS для основного контента (например, SPA без SSR), будут классифицированы как non-content neutral.
    • Устройства и браузеры: Наибольшее влияние на мобильные устройства из-за экономии ресурсов. Патент явно указывает на раздельный анализ для мобильных и десктопных браузеров.
    • Скорость и Метрики: Напрямую влияет на скорость загрузки и может улучшать показатели Core Web Vitals (LCP, TBT) у реальных пользователей.

    Когда применяется

    • Офлайн-анализ: Выполняется периодически (например, ежедневно/еженедельно) для обновления базы паттернов на основе свежих Fetch Records и для валидации существующих паттернов.
    • Онлайн-оптимизация: Применяется при каждой загрузке страницы в браузере, поддерживающем эту функцию. Проверка происходит до начала основного рендеринга.
    • Триггер активации оптимизации: Соответствие URL шаблону в базе Content Neutral для данного типа браузера.

    Пошаговый алгоритм

    Процесс А: Офлайн-идентификация Content Neutral шаблонов

    1. Сбор данных: Получение URL из Fetch Record.
    2. Рендеринг 1 (Baseline): Генерация результата рендеринга с включенным скриптингом (Scripting ON).
    3. Рендеринг 2 (Optimized): Генерация результата рендеринга с отключенным скриптингом (Scripting OFF).
    4. Сравнение результатов (Content Neutrality Test):
      1. Сравнение токенов: Извлечение текста (Tokens). Проверка, превышает ли количество добавленных уникальных токенов порог (Token Threshold, например, 5). Если превышает — НЕ схожи.
      2. Сравнение исходящих ссылок: Извлечение Outlinks. Если наборы ссылок отличаются — НЕ схожи.
      3. Анализ макета: Определение основных компонентов (Major Components). Расчет Similarity Score (например, по площади перекрытия). Если оценка ниже порога (Similarity Threshold, например, 80%) — НЕ схожи.
    5. Классификация: Если схожи по всем критериям, URL добавляется в список content neutral. Иначе — в список non-content neutral.
    6. Определение шаблонов: Агрегация списков для выявления закономерностей (по хосту, директории).
    7. Валидация шаблонов: Проверка точности шаблона. Шаблон принимается, если процент ошибок (non-content neutral URL, подходящих под шаблон) минимален (например, менее 1%).
    8. Сохранение: Сохранение валидированных паттернов в базу данных с указанием типа браузера.

    Процесс Б: Онлайн-оптимизация в браузере

    1. Запрос URL: Браузер начинает загрузку URL.
    2. Проверка нейтральности: Браузер проверяет (через сервис или локальную базу), соответствует ли URL паттерну Content Neutral.
    3. Принятие решения и Рендеринг:
      • Если ДА: Браузер рендерит страницу с принудительно отключенным скриптингом.
      • Если НЕТ: Браузер рендерит страницу в стандартном режиме (обычно скриптинг включен).

    Какие данные и как использует

    Данные на входе

    Система использует данные, генерируемые в процессе рендеринга (Rendering Result).

    • Контентные факторы: Текст страницы (Tokens), извлекаемый из DOM Tree.
    • Ссылочные факторы: Исходящие ссылки (Outlinks), извлекаемые из DOM Tree.
    • Структурные и Визуальные факторы: DOM Tree (структура документа) и Layout (геометрическое расположение элементов, координаты и размеры блоков).
    • Технические факторы: URL страницы, логи сканирования (Fetch Records).
    • Пользовательские факторы (Контекст): Тип браузера (мобильный или десктопный).

    Какие метрики используются и как они считаются

    • Token Threshold (Порог токенов): Максимально допустимое количество уникальных токенов, которые могут отличаться. В патенте упоминается примерное значение 5.
    • Outlink Difference (Различие исходящих ссылок): Любое различие в наборе исходящих ссылок может считаться значительным.
    • Major Components (Основные компоненты): Определяются как самые большие блоки в макете. Может использоваться техника поиска доминирующего блока в рендер-дереве (например, поиск самого большого дочернего блока, занимающего более половины родительского).
    • Similarity Score (Оценка сходства макета): Рассчитывается для Major Components. В патенте приводится формула расчета гармонического среднего площади перекрытия (oa) по отношению к общим площадям компонентов (a1, a2): 2 / ((a1/oa) + (a2/oa)).
    • Similarity Threshold (Порог сходства): Минимальное значение Similarity Score для признания макетов схожими. В патенте упоминается примерное значение 80% или выше.
    • Pattern Accuracy (Точность/Надежность шаблона): Процент ошибок (False Positive Rate) для паттерна. Порог для валидации может составлять менее 1%.

    Выводы

    1. Google агрессивно оптимизирует рендеринг: Патент демонстрирует конкретный механизм экономии ресурсов (CPU, сеть, время) путем отказа от выполнения JavaScript, если он не влияет на контент. Это применяется как для браузеров пользователей, так и для Googlebot.
    2. Строгие критерии оценки влияния JavaScript: Чтобы определить нейтральность, Google сравнивает конечный результат рендеринга по трем ключевым параметрам: Текст (Tokens), Ссылки (Outlinks) и Визуальная структура (Layout). Отсутствие существенных изменений во всех трех областях является обязательным условием.
    3. Критичность исходящих ссылок: Изменение набора исходящих ссылок при выполнении JS является строгим сигналом того, что страница НЕ нейтральна. Это подчеркивает важность доступности навигации и перелинковки.
    4. Визуальная стабильность и основные компоненты: Система фокусируется на Major Components и требует высокого порога визуального сходства (например, 80%). Это коррелирует с важностью метрик Core Web Vitals (например, CLS).
    5. Адаптация под устройства: Анализ проводится отдельно для мобильных и десктопных браузеров, признавая различия в версиях сайтов.
    6. Система основана на паттернах: Оптимизация полагается на заранее рассчитанные паттерны URL, а не на анализ в реальном времени, что обеспечивает быстродействие механизма.

    Практика

    Best practices (это мы делаем)

    • Приоритет HTML/SSR для основного контента и ссылок: Убедитесь, что основной текст и все важные ссылки (навигация, перелинковка) присутствуют в исходном HTML или рендерятся на сервере (SSR/SSG). Это повышает вероятность классификации как content neutral и гарантирует эффективную индексацию.
    • Применение Progressive Enhancement: Используйте JavaScript для улучшения интерактивности и UX, а не как единственный способ доставки контента. Базовая версия сайта должна быть функциональной и содержать весь контент без JS.
    • Оптимизация доставки JavaScript: Используйте атрибуты defer и async для некритичных скриптов (аналитика, трекеры, виджеты). Это улучшает скорость рендеринга и Core Web Vitals.
    • Тестирование рендеринга без JavaScript: Регулярно проверяйте ключевые шаблоны страниц с отключенным JS (например, через DevTools). Если контент и ссылки на месте, это идеальный сценарий с точки зрения данного патента и эффективности индексации.
    • Мониторинг визуальной стабильности (CLS): Избегайте внедрения элементов через JS, которые значительно смещают основной контент. Стабильность Layout и Major Components важна для классификации нейтральности.

    Worst practices (это делать не надо)

    • Загрузка основного контента через Client-Side Rendering (CSR): Использование чистого CSR для основного текста или товаров гарантирует, что страница будет классифицирована как non-content neutral. Это приводит к более медленному рендерингу и повышенной нагрузке на системы индексации Google.
    • Генерация критичных ссылок только через JS: Если навигационные или важные внутренние ссылки появляются в DOM только после выполнения скрипта, это гарантирует выполнение JS (так как меняются Outlinks), но увеличивает время до обнаружения этих ссылок краулером и создает риски при сбоях рендеринга.
    • Использование тяжелых скриптов, не влияющих на контент: Загрузка объемных библиотек для незначительных эффектов ухудшает производительность. Этот патент направлен на то, чтобы дать браузерам возможность игнорировать такие скрипты, если они не влияют на контент.

    Стратегическое значение

    Патент подтверждает стратегический фокус Google на производительности и эффективности использования ресурсов. Он подчеркивает важность технического SEO и надежной архитектуры. JavaScript SEO — это не только вопрос о том, «может ли Google выполнить JS», но и о том, «насколько это ресурсозатратно». Стратегически выигрывают сайты, которые позволяют Google легко и быстро извлекать контент (т.е. являются Content Neutral или используют SSR/SSG).

    Практические примеры

    Сценарий 1: Оптимизация индексации для SPA (Single Page Application)

    Ситуация: Интернет-магазин разработан как SPA на React с чистым CSR. Контент и ссылки загружаются через API на клиенте.

    1. Анализ Google (Офлайн): Рендеринг без JS дает пустой экран. Рендеринг с JS показывает контент. Различия максимальны.
    2. Результат: Сайт классифицируется как Non-Content Neutral. Индексация медленная, Googlebot должен выполнять весь JS.
    3. Действие (Внедрение SSR): Теперь сервер возвращает полностью сформированный HTML.
    4. Повторный анализ Google: Рендеринг без JS и с JS показывает одинаковый контент. Различия минимальны.
    5. Результат: Сайт классифицируется как Content Neutral. Googlebot может быстро индексировать контент без выполнения клиентского JS, экономя краулинговый бюджет.

    Сценарий 2: Новостной сайт (Content Neutral)

    Ситуация: Новостной сайт. Текст статьи и навигация в HTML. JS используется для аналитики, рекламы и виджетов.

    1. Анализ Google: При сравнении рендеринга с JS и без JS, Tokens, Outlinks основного контента совпадают. Layout основного компонента (статьи) стабилен (Similarity Score > 80%).
    2. Результат: Сайт помечается как content neutral. Браузеры пользователей могут пропускать выполнение JS, значительно ускоряя загрузку статьи и улучшая CWV.

    Вопросы и ответы

    Что такое «Content Neutral URL» в контексте этого патента?

    Это URL страницы, для которой выполнение JavaScript не приводит к существенным изменениям в контенте, ссылках или структуре по сравнению с версией без JavaScript. По сути, это означает, что скрипты на странице не являются критичными для отображения основного содержимого, и их можно безопасно отключить для ускорения загрузки.

    Как именно система определяет, что результаты рендеринга схожи?

    Используется трехэтапная проверка. Сравниваются: 1) Tokens (текст) – допускается минимальное различие (например, до 5 уникальных слов). 2) Outlinks (исходящие ссылки) – любые различия могут считаться значительными. 3) Layout (макет) – рассчитывается оценка сходства (Similarity Score) для основных визуальных компонентов (Major Components), которая должна быть высокой (например, выше 80%).

    Означает ли этот патент, что Google может индексировать контент без выполнения JavaScript?

    Да, если страница соответствует критериям content neutral. Если система определила, что JavaScript не влияет на основной текст и ссылки, Googlebot может выбрать более эффективный путь и проиндексировать контент, пропустив ресурсоемкий этап выполнения скриптов, экономя тем самым краулинговый бюджет.

    Как этот патент влияет на сайты, использующие Client-Side Rendering (CSR) на React/Angular/Vue?

    Сайты с чистым CSR, где контент загружается через JavaScript, будут классифицированы как non-content neutral, так как без JS контента нет. Это означает, что Googlebot и браузер всегда будут выполнять JavaScript на таких сайтах. Патент не пессимизирует их, но подчеркивает преимущества использования SSR (Server-Side Rendering) или SSG (Static Site Generation).

    Влияет ли этот патент на ранжирование напрямую?

    Напрямую нет. Это механизм оптимизации производительности. Однако он влияет косвенно через улучшение пользовательского опыта и метрик Core Web Vitals (RUM-данные). Если страница загружается быстрее у реальных пользователей благодаря этой оптимизации (пропуску JS), это положительный сигнал для ранжирования.

    Как система учитывает мобильные и десктопные версии сайтов?

    Анализ content neutrality проводится отдельно для разных типов браузеров. Патент явно указывает, что страница может быть признана content neutral для мобильного браузера, но non-content neutral для десктопного. База данных шаблонов хранит эту информацию раздельно.

    Влияют ли скрипты аналитики (Google Analytics) или рекламы на определение Content Neutrality?

    Если страница признана content neutral (то есть эти скрипты не меняют основной контент, ссылки или структуру), браузер может пропустить их выполнение. Это компромисс: система жертвует выполнением второстепенных скриптов (включая аналитику и рекламу) ради значительного ускорения загрузки основного контента.

    Что такое «Major Components» и почему они важны?

    Major Components — это самые большие визуальные элементы на странице (например, блок основной статьи). Система фокусируется на них при сравнении макетов. Если их расположение и размер сильно меняются из-за JS (низкий Similarity Score), страница не считается нейтральной, так как это указывает на значительные визуальные изменения (и потенциально высокий CLS).

    Как проверить, классифицирована ли моя страница как Content Neutral?

    Патент не описывает публичного инструмента. Однако можно провести ручной тест: сравнить внешний вид, DOM и наличие ключевых ссылок при включенном и отключенном JavaScript в браузере (через DevTools). Если разница минимальна, страница является кандидатом на content neutral.

    Что произойдет, если система ошибочно классифицирует страницу как Content Neutral?

    В этом случае браузер или Googlebot пропустит выполнение JavaScript, и критически важный контент не будет загружен или проиндексирован. Патент предусматривает механизмы для минимизации таких ошибок, используя строгие пороги схожести и валидацию шаблонов (допуская, например, менее 1% ошибок) и периодическую перепроверку.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.