SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google управляет доступом к настройкам сайта (GSC), позволяет выбирать канонический домен и регулировать скорость сканирования

SYSTEM AND METHOD FOR VERIFYING AND REVOKING OWNERSHIP RIGHTS WITH RESPECT TO A WEBSITE IN A WEBSITE INDEXING SYSTEM (Система и метод верификации и отзыва прав владения в отношении веб-сайта в системе индексирования веб-сайтов)
  • US8533226B1
  • Google LLC
  • 2006-12-27
  • 2013-09-10
  • Индексация
  • Краулинг
  • Техническое SEO
  • Структура сайта
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Патент описывает инфраструктуру Google Search Console для подтверждения владения сайтом. Верифицированные владельцы получают возможность отзывать доступ у других пользователей, указывать предпочитаемый домен (Preferred Domain Name) для консолидации сигналов ранжирования и регулировать предельную скорость сканирования (Crawl Rate Limit) с учетом фактической нагрузки.

Описание

Какую проблему решает

Патент решает три ключевые задачи взаимодействия между поисковой системой и владельцами сайтов:

  • Управление доступом и безопасностью: Как предоставить контроль над настройками индексации только легитимным владельцам и как управлять ситуациями, когда у сайта несколько владельцев или когда права меняются (например, смена подрядчика или увольнение сотрудника).
  • Каноникализация домена: Как решить проблему эквивалентных доменных имен (например, www.domain.com и domain.com), которые ведут на один и тот же контент, что приводит к дублированию в индексе и размытию сигналов ранжирования (например, PageRank).
  • Управление нагрузкой при сканировании: Как позволить владельцам сайтов влиять на скорость сканирования (Crawl Rate) для оптимизации нагрузки на сервер, не полагаясь только на автоматические алгоритмы поисковой системы.

Что запатентовано

Запатентована система управления индексацией (подобная Google Search Console), которая устанавливает доверительные отношения с владельцами сайтов через процесс верификации (используя уникальные Verification File или Meta Tag). Верифицированные владельцы получают доступ к критически важным настройкам: выбору предпочитаемого домена (Preferred Domain Name) для каноникализации и установке лимита скорости сканирования (Crawl Rate Limit). Ключевым элементом является механизм повторной верификации (Re-verification), позволяющий текущим владельцам отзывать права доступа у бывших владельцев.

Как это работает

Система работает по трем основным направлениям:

  • Верификация и отзыв прав: Владельцы подтверждают права, размещая на сайте уникальный, специфичный для владельца (owner-specific) токен. Текущий верифицированный владелец может видеть все активные токены и инициировать повторную верификацию. Если токен не найден (удален с сайта), соответствующие права отзываются.
  • Предпочитаемый домен: Верифицированный владелец выбирает один канонический домен из списка эквивалентных. Поисковая система использует этот выбор для перезаписи URL-адресов (URL rewriting) во время индексации, консолидируя все сигналы на этом домене.
  • Контроль скорости сканирования: Владелец может запросить изменение скорости сканирования. Система удовлетворит запрос на повышение скорости, только если текущий лимит является ограничивающим фактором (crawl rate limit is a factor), основываясь на анализе прошлой статистики сканирования (Past Utilization Value).

Актуальность для SEO

Высокая. Описанные механизмы являются фундаментальной частью Google Search Console и Bing Webmaster Tools. Управление доступом, выбор канонического домена и управление скоростью сканирования остаются критически важными задачами технического SEO в 2025 году.

Важность для SEO

Патент имеет высокое значение для технического SEO (8.5/10). Он описывает официальные механизмы, с помощью которых Google позволяет владельцам сайтов влиять на два фундаментальных процесса: каноникализацию (консолидацию сигналов) и сканирование (управление краулинговым бюджетом и нагрузкой на сервер). Корректное использование этих инструментов напрямую влияет на эффективность индексации и ранжирования сайта.

Детальный разбор

Термины и определения

Crawl Rate Limit (Лимит скорости сканирования)
Максимальная скорость, с которой поисковый робот может сканировать сайт. Может быть установлен системой автоматически или скорректирован верифицированным владельцем.
Currently Verified Owner (Текущий верифицированный владелец)
Пользователь, который успешно подтвердил свои права владения сайтом и чей статус верификации остается активным.
Owners-information (Информация о владельцах)
Данные, хранящиеся в системе о верифицированных владельцах сайта, включая их идентификаторы и используемые ими токены верификации (файлы/теги).
Past Utilization Value (Значение прошлого использования)
Метрика, отражающая максимальную фактическую скорость сканирования сайта за определенный период (например, за последние несколько сессий сканирования). Используется для определения того, является ли текущий Crawl Rate Limit ограничивающим фактором.
Preferred Domain Name (Предпочитаемое доменное имя)
Каноническая версия домена (например, с www или без), выбранная верифицированным владельцем сайта для использования в индексе поисковой системы.
Re-verification (Повторная верификация)
Процесс, инициируемый текущим владельцем сайта (или автоматически системой), для проверки актуальности прав всех ранее верифицированных владельцев и отзыва неактуальных прав.
Site Owner Verification Database (База данных верификации владельцев сайтов)
Хранилище, содержащее записи о верифицированных пользователях, сайтах, которыми они владеют, метках времени и методах верификации (токенах).
Verification File / Verification Meta Tag (Верификационный файл / Мета-тег)
Уникальный токен (файл с определенным именем или мета-тег на странице), предоставляемый поисковой системой владельцу сайта для подтверждения прав доступа. Они являются специфичными для владельца (owner-specific).

Ключевые утверждения (Анализ Claims)

Патент фокусируется на процессе управления правами доступа.

Claim 1 (Независимый пункт): Описывает основной процесс управления правами собственности и индексацией.

  1. Система хранит информацию (owners-information), связанную с несколькими текущими верифицированными владельцами сайта.
  2. Система индексирует документы сайта, используя информацию (indexing information), полученную от этих верифицированных владельцев (создавая инвертированный индекс).
  3. Система предоставляет часть owners-information одному из текущих владельцев.
  4. В ответ на запрос от этого владельца система выполняет повторную верификацию (re-verifying) всех текущих владельцев.

Ядро изобретения — возможность для одного владельца инициировать проверку прав всех остальных.

Claim 2 (Зависимый от 1): Уточняет механизм повторной верификации.

Повторная верификация включает попытку доступа к верификационным данным (verification data), связанным с каждым из владельцев, на веб-сайте.

Claim 4 (Зависимый от 2): Уточняет тип верификационных данных.

Верификационные данные являются специфичными для каждого владельца (owner-specific verification file или owner-specific meta-tag).

Claim 5 (Зависимый от 2): Описывает результат повторной верификации.

Процесс включает аннулирование (invalidating) учетных записей владельцев, для которых верификационные данные отсутствуют на сайте.

Claim 9 (Зависимый от 1): Уточняет действия владельца перед повторной верификацией.

Система позволяет текущему владельцу удалить устаревшие верификационные данные (remove outdated verification data) из предоставленной ему информации о владельцах (что на практике означает удаление токенов с сайта или из списка перед проверкой).

Claim 11 и 12 (Зависимые от 1): Связывают верификацию с настройками индексации.

Информация об индексации (indexing information), которую предоставляют верифицированные владельцы, включает предпочитаемое доменное имя (preferred domain name) (Claim 11) и лимит скорости сканирования (crawl rate limit) (Claim 12).

Где и как применяется

Изобретение описывает инфраструктуру (Google Search Console), которая обеспечивает интерфейс для владельцев сайтов и влияет на основные поисковые процессы.

CRAWLING – Сканирование и Сбор данных

  • Управление скоростью: Система использует Crawl Rate Limit, установленный верифицированным владельцем (или автоматически), для регулирования интенсивности запросов роботов к сайту. Эта информация используется планировщиком сканирования.
  • Верификация: Роботы используются для проверки наличия Verification File или Meta Tag на сайте во время первичной и повторной верификации.

INDEXING – Индексирование и извлечение признаков

  • Каноникализация (URL Rewriting): На этом этапе система применяет Preferred Domain Name, указанный владельцем. Если ссылка обнаружена с неканоническим доменом (например, без www), система перезаписывает URL перед индексацией и расчетом метаданных (таких как PageRank). Это обеспечивает консолидацию сигналов на одном домене.

Входные данные:

  • Данные с сайта: наличие/отсутствие Verification Files/Tags.
  • Запросы владельца сайта: запрос на верификацию/ре-верификацию, выбор Preferred Domain Name, установка Crawl Rate Limit.
  • Данные краулера: Статистика сканирования (Crawl Data), Past Utilization Value.

Выходные данные:

  • Статус верификации владельцев (Verified/Invalidated).
  • Сохраненные настройки сайта (Preferred Domain Name, Crawl Rate Limit), используемые системами сканирования и индексирования.
  • Перезаписанные (каноникализированные) URL в индексе.

На что влияет

  • Конкретные типы контента: Влияет на все типы сайтов и контента, так как касается фундаментальных настроек сканирования и индексации.
  • Специфические запросы: Не влияет на конкретные типы запросов, но влияет на то, какая версия домена будет показана в выдаче по любым запросам.
  • Особое значение: Критически важно для сайтов с несколькими администраторами/подрядчиками (управление доступом), сайтов, доступных по нескольким доменам (например, www/без www, разные TLD), и крупных сайтов, чувствительных к нагрузке на сервер (управление Crawl Rate).

Когда применяется

  • Триггеры активации (Верификация): При регистрации сайта в системе, при добавлении нового владельца или по запросу текущего владельца на повторную верификацию. Также упоминается возможность периодической автоматической проверки (Claim 6).
  • Триггеры активации (Настройки): Когда верифицированный владелец изменяет Preferred Domain Name или Crawl Rate Limit.
  • Применение настроек: Preferred Domain Name применяется постоянно во время индексации. Crawl Rate Limit применяется постоянно во время сканирования.

Пошаговый алгоритм

Процесс А: Верификация и отзыв прав собственности

  1. Хранение данных: Система хранит список текущих верифицированных владельцев и связанных с ними уникальных токенов (Verification File/Tag) в Site Owner Verification Database.
  2. Запрос на управление: Один из верифицированных владельцев (Ре-верификатор) запрашивает доступ к управлению собственностью.
  3. Отображение информации: Система предоставляет Ре-верификатору список всех активных токенов для данного сайта, а также напоминает ему о его собственном токене (чтобы избежать случайного удаления).
  4. Подготовка к отзыву (Действия на сайте/в списке): Ре-верификатор идентифицирует устаревшие токены. Он должен удалить их физически с сервера сайта. В некоторых вариантах реализации он также может отредактировать список токенов в интерфейсе.
  5. Запрос на повторную верификацию: Ре-верификатор отправляет запрос на проверку токенов.
  6. Проверка токенов: Система пытается получить доступ к каждому токену (файлу или мета-тегу) на веб-сайте.
  7. Отзыв прав: Если токен не найден на сайте, система аннулирует права соответствующего владельца (статус меняется на Unverified).
  8. Подтверждение прав: Если токен найден, права владельца подтверждаются.
  9. Уведомление: Система информирует Ре-верификатора о результатах проверки.

Процесс Б: Выбор предпочитаемого домена

  1. Предоставление списка: Система предоставляет верифицированному владельцу список известных эквивалентных доменных имен для сайта.
  2. Выбор владельца: Владелец выбирает один домен в качестве Preferred Domain Name.
  3. Валидация выбора: Система проверяет, что выбранный домен есть в списке верифицированных или что пользователь действительно владеет этим доменом.
  4. Сохранение настройки: Выбор сохраняется в Domain Name Database.
  5. Применение при индексации: Во время обработки документов и ссылок система перезаписывает неканонические URL-адресов на новые, используя Preferred Domain Name.
  6. Генерация метаданных: Метаданные (например, PageRank) рассчитываются для перезаписанного (канонического) URL.
  7. Индексирование: Документ индексируется с использованием перезаписанного URL.

Процесс В: Контроль скорости сканирования

  1. Сбор данных: Система сканирует сайт в соответствии с текущим Crawl Rate Limit и собирает статистику (количество страниц, время доступа, байты). Рассчитывается Past Utilization Value.
  2. Отображение интерфейса: Верифицированному владельцу предоставляется интерфейс управления скоростью и статистика сканирования.
  3. Проверка условия: Система определяет, является ли текущий Crawl Rate Limit ограничивающим фактором (например, сравнивая лимит с Past Utilization Value).
  4. Уведомление владельца:
    • Если лимит НЕ является фактором: Система сообщает владельцу, что увеличение лимита не приведет к ускорению сканирования. Запрос на ускорение может быть отклонен или проигнорирован.
    • Если лимит является фактором: Система сообщает владельцу, что скорость ограничена, и предлагает выбрать более высокую скорость.
  5. Выбор владельца: Владелец выбирает новую скорость (Медленнее, Нормально, Быстрее).
  6. Применение лимита: Если условия позволяют (например, выбран более медленный темп или более быстрый и лимит был фактором), система обновляет Crawl Rate Limit для сайта.

Какие данные и как использует

Данные на входе

  • Технические факторы:
    • Наличие и содержание Verification Meta Tag на странице.
    • Наличие Verification File на сервере сайта.
    • Структура URL и доменные имена (используются для определения эквивалентных доменов и применения Preferred Domain Name).
  • Системные данные (Статистика сканирования):
    • Количество страниц, посещенных за сессию сканирования (Number of Pages Accessed).
    • Время, затраченное на доступ (Time Expended on Access).
    • Количество загруженных байтов (Bytes Downloaded).
  • Пользовательские факторы:
    • Идентификаторы пользователей (User ID), связанные с сайтами в Site Owner Verification Database.

Какие метрики используются и как они считаются

  • Verification Status (Статус верификации): Статус владельца (Verified/Unverified). Определяется наличием соответствующего токена на сайте во время проверки.
  • Crawl Rate Limit (Лимит скорости сканирования): Заданное значение максимальной интенсивности сканирования.
  • Past Utilization Value (Значение прошлого использования): Максимальная фактическая скорость сканирования, зафиксированная за предыдущий период.
  • Is crawl rate limit a factor? (Является ли лимит фактором?): Логическое значение. Определяется путем сравнения Crawl Rate Limit и Past Utilization Value. Если фактическая скорость близка к лимиту (например, разница менее определенного процента, упомянуто 10%), считается, что лимит является фактором, и его увеличение может ускорить сканирование. Если фактическая скорость значительно ниже лимита, лимит не является фактором.

Выводы

  1. Верификация — основа доверия и контроля: Патент подчеркивает, что Google предоставляет контроль над критическими настройками индексации (каноникализация, скорость сканирования) только верифицированным владельцам. Верификация является необходимым условием для использования этих инструментов.
  2. Механизм отзыва прав (Re-verification): Система предусматривает четкий механизм управления доступом в средах с несколькими владельцами. Отзыв прав требует активных действий: удаления токена с сайта и последующего запуска повторной верификации.
  3. Консолидация сигналов через Preferred Domain: Google признает проблему размытия сигналов ранжирования из-за эквивалентных доменов и предлагает решение: позволить владельцу указать каноническую версию. Система активно использует эту настройку для перезаписи URL (URL Rewriting) на этапе индексации.
  4. Условный контроль скорости сканирования: Владельцы могут влиять на Crawl Rate Limit, но Google оставляет за собой право финального решения. Запрос на увеличение скорости будет удовлетворен, только если система определит, что текущий лимит действительно сдерживает сканирование (limit is a factor), основываясь на Past Utilization Value.
  5. Инфраструктура GSC: Патент детально описывает базовую архитектуру и логику работы ключевых функций Google Search Console.

Практика

Best practices (это мы делаем)

  • Обеспечение и поддержание верификации: Необходимо верифицировать право собственности на сайт в Google Search Console (GSC), используя надежный метод (например, DNS-запись). Это открывает доступ ко всем настройкам, описанным в патенте.
  • Регулярный аудит доступов и токенов: Регулярно проверяйте список верифицированных владельцев в GSC и список активных токенов верификации (файлов/тегов) на сайте. При смене команды или подрядчиков немедленно отзывайте доступ и удаляйте их токены с сервера.
  • Использование уникальных токенов: Убедитесь, что каждый владелец использует свой собственный уникальный метод верификации (owner-specific), чтобы можно было отозвать доступ индивидуально.
  • Обеспечение каноникализации домена: Убедитесь, что сайт использует единый предпочитаемый домен. Хотя патент описывает настройку Preferred Domain Name в интерфейсе, на практике это надежнее всего реализуется через 301 редиректы. Это обеспечивает корректную консолидацию сигналов.
  • Мониторинг статистики сканирования: Анализируйте данные в отчете «Статистика сканирования» GSC (аналог Crawl Data в патенте). Это позволяет понять фактическую нагрузку и скорость сканирования.
  • Обоснованное управление Crawl Rate: Если сервер перегружен, используйте настройку Crawl Rate Limit для снижения скорости. Запрашивайте увеличение скорости только тогда, когда это действительно необходимо для ускорения индексации и вы уверены, что сервер справится с нагрузкой.

Worst practices (это делать не надо)

  • Игнорирование управления доступом: Предоставление доступа к GSC без контроля и аудита. Это создает риск того, что бывшие сотрудники или подрядчики сохранят контроль над настройками индексации.
  • Оставлять устаревшие токены на сервере: Хранение HTML-файлов или мета-тегов верификации от бывших владельцев позволяет им сохранять или восстанавливать доступ к GSC.
  • Допущение канонической неопределенности: Не указывать предпочитаемую версию домена (через редиректы). Это приводит к размытию сигналов ранжирования между эквивалентными доменами.
  • Бездумное увеличение Crawl Rate: Попытка установить максимальную скорость сканирования без учета возможностей сервера может привести к его перегрузке. Также бесполезно запрашивать ускорение, если Google и так сканирует сайт медленно из-за его низкой авторитетности (limit is not a factor).

Стратегическое значение

Патент подтверждает стратегическую важность Google Search Console как официального центра управления сканированием и индексированием. Он демонстрирует, что Google стремится получать явные сигналы от верифицированных источников для решения фундаментальных технических проблем. Для SEO-стратегии это означает, что мониторинг, настройка и обеспечение безопасности GSC являются не опциональными, а обязательными элементами технической гигиены и управления сайтом.

Практические примеры

Сценарий 1: Смена SEO-агентства и отзыв прав

  1. Ситуация: Компания прекращает работу с Агентством А и нанимает Агентство Б. Сотрудники Агентства А имели доступ к GSC, подтвержденный через HTML-файл agencyA_verify.html.
  2. Действия (по патенту):
    • Агентство Б получает доступ, загрузив свой файл agencyB_verify.html.
    • Сотрудник Агентства Б (теперь верифицированный владелец) заходит в раздел управления пользователями GSC (интерфейс Site Owner Verification).
    • Он видит список всех активных токенов, включая agencyA_verify.html.
    • Он удаляет файл agencyA_verify.html с сервера сайта.
    • Он инициирует повторную проверку (нажимает "Отменить подтверждение" для Агентства А в GSC).
  3. Результат: Система Google выполняет Re-verification, не находит файл agencyA_verify.html и отзывает права Агентства А.

Сценарий 2: Оптимизация скорости сканирования крупного портала

  1. Ситуация: Владелец портала хочет ускорить индексацию новостей и запрашивает максимальную скорость сканирования в GSC.
  2. Действия системы (по патенту):
    • Система анализирует Past Utilization Value и сравнивает его с текущим Crawl Rate Limit.
    • Система определяет, что фактическая скорость сканирования составляет только 40% от текущего лимита (например, из-за медленных ответов сервера или низкой авторитетности).
    • Система определяет, что Crawl Rate Limit не является фактором.
  3. Результат: Система сообщает владельцу, что скорость сканирования не увеличится, даже если он выберет опцию "Быстрее", так как проблема не в лимите, а в других факторах.

Вопросы и ответы

Как именно происходит отзыв прав у бывшего владельца сайта согласно патенту?

Отзыв прав требует двух шагов. Сначала необходимо физически удалить уникальный токен верификации (HTML-файл или мета-тег) бывшего владельца с веб-сайта. Затем текущий верифицированный владелец должен инициировать процесс повторной верификации (Re-verification) в интерфейсе управления. Система проверит наличие токена, и если он не будет найден, доступ будет аннулирован.

Что произойдет, если я удалю пользователя в GSC, но не удалю его файл верификации с сервера?

Если пользователь имел статус Владельца (Owner), он сможет легко восстановить свой доступ, так как его метод верификации все еще активен на сайте. Патент подчеркивает, что аннулирование происходит только тогда, когда verification data отсутствует на сайте во время повторной проверки.

Может ли один верифицированный владелец увидеть, как именно верифицировались другие владельцы?

Да. Патент явно указывает, что система предоставляет верифицированному владельцу список verification files и meta tags, которые существуют для сайта. Это необходимо для того, чтобы текущий владелец мог идентифицировать и управлять устаревшими методами верификации.

Что такое «Предпочитаемый домен» (Preferred Domain Name) и как он влияет на SEO?

Это механизм для указания канонической версии домена (например, с www или без). Когда предпочтение указано, система перезаписывает все URL-адреса сайта, используя этот домен, перед индексацией и расчетом метаданных (например, PageRank). Это критически важно для консолидации сигналов ранжирования и избежания проблем с дублированным контентом.

Если я установлю максимальную скорость сканирования (Crawl Rate Limit), Google всегда будет ее использовать?

Нет. Запрос на увеличение скорости будет удовлетворен, только если система определит, что текущий лимит является ограничивающим фактором («crawl rate limit is a factor»). Если фактическая скорость сканирования (Past Utilization Value) намного ниже лимита (например, из-за медленного сервера или низкой авторитетности сайта), то увеличение лимита не приведет к ускорению сканирования.

Что означает, что «лимит скорости сканирования является фактором»?

Это означает, что поисковый робот готов сканировать сайт быстрее, но искусственно сдерживается текущим установленным лимитом (Crawl Rate Limit), чтобы не перегрузить сервер. В этом случае система позволит владельцу увеличить лимит, чтобы робот мог сканировать интенсивнее.

Может ли Google автоматически проверять актуальность прав владельцев?

Да, помимо ручного запуска повторной верификации, патент (Claim 6) упоминает возможность периодической проверки (periodically checking) наличия данных верификации системой автоматически.

Стоит ли использовать один и тот же файл верификации для нескольких сотрудников?

Это плохая практика. Патент подчеркивает использование owner-specific (специфичных для владельца) токенов. Если несколько человек используют один токен, невозможно отозвать доступ у одного из них индивидуально, так как для этого потребуется удалить общий токен с сайта, что приведет к потере доступа всеми.

Какова связь этого патента с Google Search Console?

Этот патент описывает архитектуру и ключевые функции Google Search Console (ранее Google Webmaster Tools). Изобретатели, включая Vanessa Fox, работали над этими инструментами. Патент дает глубокое понимание того, как устроены верификация, управление доступом и базовые настройки взаимодействия с Googlebot.

Влияет ли этот патент на ранжирование сайта?

Прямого влияния на алгоритмы ранжирования патент не оказывает. Однако он описывает инфраструктуру для управления инструментами, которые косвенно влияют на SEO: корректная настройка Preferred Domain Name обеспечивает консолидацию сигналов ранжирования, а управление Crawl Rate влияет на скорость и полноту индексации сайта.

Похожие патенты

Как Google позволяет верифицированным владельцам сайтов управлять скоростью сканирования (Crawl Rate) и выбирать предпочитаемый домен
Анализ патента, лежащего в основе функций Google Search Console. Он описывает механизмы верификации прав собственности, выбора канонического (предпочитаемого) домена для консолидации сигналов и управления скоростью сканирования. Ключевой момент: система увеличивает скорость сканирования только тогда, когда текущий лимит является реальным ограничивающим фактором для краулера.
  • US7599920B1
  • 2009-10-06
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google позволяет владельцам сайтов выбирать предпочтительный (канонический) домен для индексации и управлять скоростью сканирования
Патент описывает механизмы Google для решения проблемы дублирования контента, возникающей из-за нескольких эквивалентных доменных имен (например, с WWW и без). Верифицированные владельцы могут указать предпочтительный домен, который Google будет использовать для перезаписи URL-адресов перед индексацией, консолидируя сигналы ранжирования. Патент также описывает интерфейсы для управления верификацией владельцев и контроля скорости сканирования (Crawl Rate).
  • US7930400B1
  • 2011-04-19
  • Индексация

  • Краулинг

  • Техническое SEO

Как Google прогнозирует частоту обновления новых страниц для оптимизации краулингового бюджета
Google использует статистический метод для оценки того, как часто будет обновляться новый документ. Система анализирует исторические данные о частоте изменений похожих документов (например, страниц с аналогичной структурой URL или на том же домене), чтобы определить оптимальную частоту сканирования новой страницы. Это позволяет поддерживать свежесть индекса и эффективно расходовать краулинговый бюджет.
  • US20130212100A1
  • 2013-08-15
  • Краулинг

  • Индексация

  • Свежесть контента

Как Google обнаруживает и консолидирует зеркальные сайты и разделы, используя взвешенные инфраструктурные, структурные и контентные сигналы
Google использует многофакторную систему для идентификации хостов (Hostnames) или разделов сайтов (Subtrees), которые являются зеркалами друг друга. Система анализирует взвешенные сигналы, включая IP-адреса, редиректы, структуру ссылок, данные WHOIS и степень дублирования контента. Это позволяет Google оптимизировать краулинговый бюджет, избегать индексации дубликатов и консолидировать сигналы ранжирования на канонической версии.
  • US8055626B1
  • 2011-11-08
  • Индексация

  • Краулинг

  • Техническое SEO

Как Google динамически управляет очередью сканирования и отклоняет низкоприоритетные URL при ограниченной пропускной способности сервера
Google использует адаптивную систему управления краулинговым бюджетом. Система прогнозирует вероятность успешного сканирования URL на основе скорости ответов сервера и приоритета запроса. Если пропускная способность ограничена, низкоприоритетные URL немедленно отклоняются (Early Rejection), не дожидаясь таймаута, чтобы обеспечить быстрое сканирование важного контента.
  • US8676783B1
  • 2014-03-18
  • Краулинг

Популярные патенты

Как Google автоматически распознает сущности в тексте и связывает их в Knowledge Graph с помощью динамических поисковых ссылок
Google использует автоматизированную систему для поддержания связей между сущностями (объектами) в своем хранилище фактов (Knowledge Graph). Система сканирует текст, статистически определяет значимые фразы и сверяет их со списком известных объектов. При совпадении создается динамическая «поисковая ссылка» вместо фиксированного URL. Это позволяет Google постоянно обновлять связи по мере добавления новых знаний.
  • US8260785B2
  • 2012-09-04
  • Knowledge Graph

  • Семантика и интент

  • Ссылки

Как Google снижает ценность ссылок между аффилированными сайтами для борьбы с линк-схемами
Google использует модификацию алгоритмов расчета качества (типа PageRank), которая учитывает аффилированность между ссылающимися документами. Если система определяет, что сайты связаны (например, принадлежат одному владельцу, находятся в одной сети или имеют схожие паттерны трафика), ценность ссылок между ними агрессивно снижается. Вместо суммирования веса всех ссылок система учитывает только максимальный вклад от аффилированной группы, нейтрализуя эффект линк-ферм и PBN.
  • US7783639B1
  • 2010-08-24
  • Ссылки

  • Антиспам

  • EEAT и качество

Как Google определяет скрытый локальный интент в запросах для повышения релевантности местных результатов
Google использует механизм для определения того, подразумевает ли запрос (например, «ресторан») поиск локальной информации, даже если местоположение не указано. Система анализирует агрегированное поведение пользователей для расчета «степени неявной локальной релевантности» запроса. Если этот показатель высок, Google повышает в ранжировании результаты, соответствующие местоположению пользователя.
  • US8200694B1
  • 2012-06-12
  • Local SEO

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует данные о кликах и пропусках для валидации и удаления неэффективных синонимов в поиске
Google постоянно тестирует правила подстановки (синонимы) для расширения запросов. Этот патент описывает механизм оценки эффективности этих правил с помощью анализа поведения пользователей (клики и пропуски результатов). Если пользователи часто пропускают результаты, содержащие подставленный термин, система автоматически удаляет это правило, очищая понимание запросов от нерелевантных синонимов.
  • US8965875B1
  • 2015-02-24
  • Поведенческие сигналы

  • Семантика и интент

  • EEAT и качество

Как Google использует клики пользователей в поиске по картинкам для понимания содержания изображений и улучшения таргетинга
Google анализирует поведение пользователей в поиске по картинкам для идентификации содержания изображений. Если пользователи ищут определенный запрос (идею) и массово кликают на конкретное изображение в результатах, система связывает это изображение с данным запросом (концепцией). Эти данные используются для улучшения ранжирования в поиске картинок и для предложения релевантных ключевых слов рекламодателям, загружающим схожие изображения.
  • US11409812B1
  • 2022-08-09
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует исторические данные о поведении пользователей для сохранения эффективных синонимов
Google постоянно обновляет модели, определяющие синонимы для расширения запросов. Этот патент описывает защитный механизм: если новая модель отключает синоним, который исторически давал хорошие результаты (пользователи были довольны выдачей), система автоматически вернет этот синоним в работу, опираясь на накопленные данные о поведении пользователей.
  • US8762363B1
  • 2014-06-24
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google масштабирует расчет кратчайших путей в графе ссылок от авторитетных сайтов («Seed Nodes»)
Патент описывает инфраструктуру Google для распределенного вычисления кратчайших путей в огромных графах, таких как веб-граф. Система позволяет эффективно и отказоустойчиво рассчитывать расстояние от любого узла до ближайших авторитетных «Seed Nodes». Это foundational технология, которая делает возможным применение алгоритмов ранжирования, основанных на анализе ссылочного графа и распространении авторитетности (например, типа TrustRank) в масштабах всего интернета.
  • US8825646B1
  • 2014-09-02
  • Ссылки

Как Google рассчитывает «сигнал конкурентоспособности» (Competition Signal) страниц на основе анализа кликов, показов и времени взаимодействия
Google оценивает качество страниц, анализируя их «победы» и «поражения» в поисковой выдаче. Система сравнивает, как часто пользователи выбирают данный URL вместо других и как долго они взаимодействуют с контентом по сравнению с конкурентами (Dwell Time). На основе этих данных рассчитывается корректирующий фактор, который повышает или понижает позиции страницы, отражая её относительную конкурентоспособность и удовлетворенность пользователей.
  • US9020927B1
  • 2015-04-28
  • Поведенческие сигналы

  • SERP

  • EEAT и качество

Как Google использует связанные запросы и временный «бустинг» для обнаружения и тестирования релевантных документов, которые ранжируются низко
Патент описывает механизм улучшения поиска путем перемещения документов на более высокие позиции. Google идентифицирует документы, которые высоко ранжируются по связанным запросам (например, с синонимами, уточнениями или исправленными ошибками), но низко по исходному запросу, и повышает их. Цель — протестировать истинную релевантность этих документов и собрать пользовательский отклик (клики) для улучшения будущего ранжирования.
  • US8521725B1
  • 2013-08-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google выявляет ссылочный спам (Link Farms и Web Rings), анализируя чувствительность PageRank к изменениям в структуре ссылок
Google использует математический метод для обнаружения искусственного завышения PageRank. Система анализирует, насколько резко меняется ранг страницы при изменении «коэффициента связи» (coupling factor/damping factor). Если ранг страницы слишком чувствителен к этим изменениям (имеет высокую производную), это сигнализирует о наличии манипулятивных структур, таких как ссылочные фермы или веб-кольца.
  • US7509344B1
  • 2009-03-24
  • Антиспам

  • Ссылки

  • Техническое SEO

seohardcore