
Анализ патента, лежащего в основе функций Google Search Console. Он описывает механизмы верификации прав собственности, выбора канонического (предпочитаемого) домена для консолидации сигналов и управления скоростью сканирования. Ключевой момент: система увеличивает скорость сканирования только тогда, когда текущий лимит является реальным ограничивающим фактором для краулера.
Патент решает три ключевые проблемы взаимодействия между поисковой системой и владельцами сайтов:
PageRank), когда сайт доступен по нескольким эквивалентным доменам (например, www и без www).Запатентована система управления индексированием (прообраз Google Search Console), предоставляющая верифицированным владельцам сайтов контроль над взаимодействием с веб-краулером. Система включает механизмы подтверждения прав (Site Owner Verification), выбора канонического домена (Preferred Domain Name) и управления лимитом скорости сканирования (Crawl Rate Limit). Ключевая инновация заключается в том, что система увеличивает лимит скорости только тогда, когда он является фактическим ограничивающим фактором для краулера.
Система функционирует через три основных механизма:
Verification Tag или Verification File. Описан также процесс повторной верификации для отзыва прав.Crawl Rate Limit) с максимальной скоростью использования в прошлом (Past Utilization Value). Запрос на увеличение удовлетворяется, только если текущий лимит действительно сдерживает краулер. В противном случае владельцу сообщается, что лимит не является фактором.Высокая. Описанные в патенте механизмы являются фундаментальными компонентами современных инструментов для вебмастеров, таких как Google Search Console. Верификация сайтов, управление каноническими доменами и возможность влиять на скорость сканирования (Crawl Budget Management) остаются критически важными аспектами технического SEO.
Патент имеет значительное влияние на техническое SEO (7/10). Он не описывает алгоритмы ранжирования, но определяет инфраструктуру, через которую SEO-специалисты управляют индексацией. Понимание логики управления скоростью сканирования помогает оптимизировать Crawl Budget и диагностировать проблемы на крупных сайтах. Механизмы выбора предпочитаемого домена напрямую влияют на каноникализацию и консолидацию ссылочного веса.
Number of Pages Accessed), затраченное время на доступ (Time Expended on Access) и количество загруженных байтов (Bytes Downloaded).Crawl Rate Limit сдерживает фактическую скорость сканирования. Определяется, когда фактическая скорость близка к лимиту.maximum crawl rate), зафиксированная за определенный период времени (например, за последние 5-10 сеансов сканирования).Патент содержит 36 пунктов формулы изобретения. Ключевые независимые пункты описывают механизм управления скоростью сканирования.
Claim 1 (Независимый пункт): Описывает метод индексирования с управлением скоростью сканирования.
Crawl Rate Limit.Crawl Data.Crawl Data и позволяя выбрать новый лимит.Past Utilization Value) с текущим Crawl Rate Limit.limiting factor).Crawl Rate Limit только тогда, когда текущий лимит является ограничивающим фактором.Ядро изобретения заключается в условном увеличении скорости. Система проверяет, действительно ли установленный лимит мешает краулеру сканировать быстрее. Если краулер не достигает лимита (например, из-за медленного сервера), лимит не увеличивается.
Claim 5 (Зависимый от 1): Детализирует определение ограничивающего фактора.
Лимит считается ограничивающим фактором, только если разница между текущим Crawl Rate Limit и максимальной скоростью использования (Past Utilization Value) меньше предопределенной величины (например, 10% от лимита).
Claims 3 и 4 (Зависимые от 1): Детализируют обратную связь.
Если лимит не является ограничивающим фактором, система информирует владельца, что запрос на более высокую скорость может не изменить фактическую скорость сканирования, или может запретить выбор более высокой скорости.
Изобретение затрагивает этапы сканирования и индексирования и реализуется через интерфейс для вебмастеров (например, GSC).
CRAWLING – Сканирование и Сбор данных
Основной этап применения Crawl Rate Control. Crawl Rate Control Module управляет данными в Per-Site Info DB (База данных информации о сайте), где хранится Crawl Rate Limit. Роботы (Googlebot) или Планировщик (URL Server) используют этот лимит для контроля частоты запросов к сайту. Также на этом этапе собираются Crawl Data и рассчитывается Past Utilization Value.
INDEXING – Индексирование и извлечение признаков
На этом этапе применяется механизм Preferred Domain Name. Когда система обнаруживает ссылки на сайт, использующие непредпочитаемые домены, она перезаписывает URL-адреса на предпочитаемый домен перед индексацией и генерацией метаданных (например, PageRank). Это обеспечивает каноникализацию на уровне домена.
Входные данные:
Crawl Rate Limit и Past Utilization Value.Verification Tag/File на сайте.Выходные данные:
Crawl Rate Limit.Preferred Domain Name в Domain Name Database.Crawl Budget и нагрузкой на сервер критично. Также важно для сайтов со сложной историей доменов, требующих консолидации сигналов.Патент описывает несколько взаимосвязанных процессов.
Процесс А: Управление скоростью сканирования (Crawl Rate Control)
Crawl Rate Limit, собирает Crawl Data и рассчитывает Past Utilization Value.Crawl Rate Limit ограничивающим фактором. Crawl Rate Limit.Crawl Rate Limit.Crawl Rate Limit безусловно.Процесс Б: Выбор предпочитаемого домена (Preferred Domain Name Selection)
Domain Name Database.Процесс В: Повторная верификация владельца (Site Owner Re-Verification)
Verification Tag/File, существующих для сайта.Number of Pages Accessed: Количество документов, к которым обращались краулеры.Time Expended on Access: Время, затраченное на доступ (включая время ответа сервера).Bytes Downloaded: Объем загруженных данных.Verification File на сервере.Verification Tag (мета-тег) в коде страницы.Crawl Rate Limit и Past Utilization Value. Условие срабатывания: ИСТИНА, если фактическая скорость близка к лимиту (разница меньше порога).Crawl Data (среднее, мин, макс значения по страницам, байтам и времени загрузки).Crawl Rate Limit, но сохраняет за собой финальное решение об увеличении скорости. Запрос на увеличение удовлетворяется только тогда, когда текущий лимит действительно является узким местом.PageRank) на одном домене.Crawl Data) в GSC. Это позволяет понять фактическое использование ресурсов (Past Utilization Value) и выявить проблемы с производительностью сервера (высокое время ответа).Crawl Rate Limit не будет являться ограничивающим фактором, и запрос будет неэффективен.Crawl Rate Limit, если Googlebot создает чрезмерную нагрузку в пиковые часы или во время технических работ. Патент подтверждает, что запросы на снижение скорости обрабатываются.Preferred Domain Name (в дополнение к 301 редиректам) для консолидации всех сигналов ранжирования на одном каноническом хосте (например, версия с www или без).Патент раскрывает механику управления бюджетом сканирования (Crawl Budget). Он подтверждает, что бюджет состоит из Crawl Rate Limit (ограничение по скорости/мощности сервера) и Crawl Demand (интерес Google к сайту). Патент описывает управление только первой частью. Стратегически важно понимать, что для большинства сайтов ограничивающим фактором является именно Crawl Demand. Работа над качеством и авторитетностью сайта для повышения Crawl Demand важнее, чем манипуляции с настройками скорости.
Сценарий 1: Диагностика медленной индексации (Запрос отклонен)
Past Utilization Value (например, 2 запроса/сек) и текущий Crawl Rate Limit (например, 10 запросов/сек). Лимит не является фактором.Сценарий 2: Успешное увеличение скорости после апгрейда сервера
Crawl Rate Limit составляет 5 запросов/сек, и Past Utilization Value также близок к 5 запросам/сек. Лимит является фактором.Crawl Rate Limit и показывает уведомление (как на FIG. 25), рекомендующее выбрать опцию "Faster". Сканирование ускоряется.Гарантирует ли запрос на увеличение скорости сканирования в GSC, что Googlebot будет сканировать сайт быстрее?
Нет, не гарантирует. Согласно патенту, система увеличит Crawl Rate Limit только в том случае, если текущий лимит является ограничивающим фактором (limiting factor). Если сайт сканируется медленно по другим причинам (например, медленный ответ сервера или низкий интерес Google к сайту – низкий Crawl Demand), лимит не будет увеличен, и фактическая скорость не изменится.
Как система определяет, что текущий лимит скорости является "ограничивающим фактором"?
Система сравнивает текущий Crawl Rate Limit с Past Utilization Value (максимальной фактической скоростью сканирования за последнее время). Если фактическая скорость близка к лимиту (например, разница менее 10%), то лимит считается ограничивающим фактором. Это означает, что краулер мог бы сканировать быстрее, если бы не установленное ограничение.
Что делать, если я запросил увеличение скорости, но Google сообщает, что лимит не является фактором?
Это сигнал о том, что медленное сканирование вызвано не лимитом Google. Необходимо сосредоточиться на двух направлениях: 1) Улучшение производительности сервера (уменьшение времени ответа, TTFB), чтобы краулер мог физически загружать страницы быстрее. 2) Повышение Crawl Demand (спроса на сканирование) путем улучшения качества контента, авторитетности и ссылочного профиля.
Насколько важна настройка предпочитаемого домена (Preferred Domain Name), если уже настроены 301 редиректы?
Она остается важным дополнительным сигналом. Патент описывает, что выбор Preferred Domain Name используется системой для перезаписи URL-адресов и консолидации метаданных (таких как PageRank) еще на этапе индексации. Это гарантирует корректную консолидацию сигналов на уровне хоста, даже если внешние ссылки ведут на неканонические версии.
Как работает механизм повторной верификации владельцев сайта?
Он позволяет текущему верифицированному владельцу увидеть список всех верификационных токенов (файлов или мета-тегов), используемых для подтверждения прав на сайт. Владелец может удалить неактуальные токены (например, бывших сотрудников) с сервера. При запуске повторной верификации система аннулирует доступ пользователей, чьи токены были удалены.
Могу ли я всегда уменьшить скорость сканирования?
Да. Согласно патенту (Claim 6), запросы на уменьшение скорости сканирования (опция "Slower") обрабатываются. Это надежный способ снизить нагрузку на сервер, если активность Googlebot вызывает проблемы с производительностью.
Влияет ли настройка Crawl Rate Limit на ранжирование сайта?
Напрямую нет. Однако она влияет на управление Crawl Budget. Если лимит слишком низкий для большого и часто обновляемого сайта, это может привести к задержкам в индексации контента, что косвенно повлияет на видимость сайта в поиске. Слишком высокий лимит может перегрузить сервер, ухудшив пользовательский опыт.
Что такое "Past Utilization Value" и как он используется?
Past Utilization Value — это метрика, отражающая максимальную фактическую скорость, с которой краулер сканировал сайт за недавний период (например, за последние 5-10 сеансов). Она используется как эталон текущей производительности взаимодействия сайта с краулером для принятия решения о возможности увеличения Crawl Rate Limit.
Может ли владелец поддомена управлять скоростью сканирования всего домена?
В патенте указано, что в некоторых реализациях контроль скорости сканирования может быть ограничен только верифицированными владельцами корневого домена. Это сделано для того, чтобы владельцы поддоменов или виртуальных хостов не могли влиять на распределение пропускной способности всего веб-сайта.
Как быстро применяются изменения Crawl Rate Limit?
Согласно патенту, изменение скорости сканирования (как увеличение, так и уменьшение), указанное владельцем сайта, может быть применено немедленно, даже в середине сеанса сканирования. В других реализациях изменение применяется во время следующего сеанса сканирования.

Индексация
Краулинг
Техническое SEO

Индексация
Краулинг
Техническое SEO

Индексация
Краулинг
Техническое SEO

Краулинг
Индексация
Свежесть контента

Краулинг
Свежесть контента
Индексация

Ссылки
EEAT и качество
Антиспам

Антиспам
SERP
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы

Поведенческие сигналы
SERP

Семантика и интент
Поведенческие сигналы
SERP

Ссылки
SERP
Семантика и интент

Поведенческие сигналы

Антиспам
Ссылки
Техническое SEO

Поведенческие сигналы
SERP
Семантика и интент

Семантика и интент
Ссылки
