Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует централизованную базу Cookies для сканирования контента, требующего аутентификации или сессий

    SEARCH ENGINE WITH MULTIPLE CRAWLERS SHARING COOKIES (Поисковая система с несколькими краулерами, совместно использующими Cookies)
    • US7546370B1
    • Google LLC
    • 2009-06-09
    • 2004-08-18
    2004 Краулинг Патенты Google

    Google использует инфраструктуру для распределенного сканирования контента, требующего Cookies. Система поддерживает централизованную базу данных, где хранятся Cookies, полученные любым краулером. Это позволяет всем краулерам совместно использовать эти Cookies для доступа к закрытым или персонализированным разделам сайтов, обеспечивая более полное индексирование.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему распределенных систем сканирования (web-crawler system), состоящих из множества параллельных краулеров (network crawlers). В таких системах URL-адреса часто назначаются краулерам случайным образом. Если Краулер А получает Cookie от Хоста X (например, начиная сессию), то следующий запрос к Хосту X, скорее всего, будет выполнять Краулер Б, у которого нет этого Cookie. Это приводит к потере состояния сессии и не позволяет системе сканировать контент на сайтах, которые используют Cookies для аутентификации, управления сессиями или персонализации, тем самым уменьшая полноту индекса.

    Что запатентовано

    Запатентована система и метод совместного использования Cookies множеством сетевых краулеров. Ядром изобретения является централизованная база данных (Cookie Information Database), которая обеспечивает стабильное хранение Cookies, полученных любым из краулеров. Система позволяет любому краулеру получить доступ к необходимым Cookies перед запросом к хост-серверу. Также описаны механизмы автоматического обновления просроченных Cookies с использованием предопределенных URL для их получения (Acquisition URL) и обнаружения ошибок доступа (cookie errors).

    Как это работает

    Система функционирует как слой управления состоянием для распределенных краулеров:

    • Централизация: Все краулеры подключены к общей Cookie Information Database.
    • Lookup (Поиск): Перед загрузкой URL краулер проверяет базу данных на наличие Cookies, соответствующих шаблону этого URL (URL Pattern).
    • Usage (Использование): Если валидный Cookie найден, краулер использует его в запросе.
    • Refresh (Обновление): Если Cookie просрочен (Cookie time out) или запрос вернул ошибку, связанную с Cookie (обнаруженную по Cookie Error Patterns), краулер использует предопределенный Acquisition URL для автоматического получения нового Cookie.
    • Storage (Хранение): Новые или обновленные Cookies, полученные любым краулером, сохраняются в центральной базе данных для совместного использования.

    Актуальность для SEO

    Высокая (Инфраструктурная). Патент описывает базовую инфраструктуру, необходимую для крупномасштабного сканирования современного интернета. Хотя конкретные реализации Google, вероятно, значительно эволюционировали с момента подачи заявки в 2004 году, фундаментальная проблема управления состоянием (Cookies) в распределенной системе сканирования остается критически актуальной. Описанные принципы централизации и совместного использования состояния краулеров необходимы для работы Googlebot.

    Важность для SEO

    Влияние на SEO низкое (3/10) и носит инфраструктурный характер. Патент не вводит новых факторов ранжирования и не описывает механизмы оценки контента. Он относится исключительно к этапу CRAWLING и описывает, как Google преодолевает технические барьеры при сканировании. Для SEO-специалистов важно понимать, что Google обладает механизмами для сканирования контента, требующего Cookies, но состояние этих Cookies является общим для всех краулеров и управляется автоматизировано.

    Детальный разбор

    Термины и определения

    Acquisition URL (URL для получения Cookie)
    Предопределенный URL, который используется краулером для автоматического получения нового или обновления просроченного Cookie. Может включать CGI-скрипт или другую информацию, необходимую для получения валидного Cookie (например, параметры входа).
    Cookie Error Patterns (Шаблоны ошибок Cookie)
    Набор предопределенных шаблонов (например, тексты сообщений об ошибках, страницы запроса логина), с которыми сравнивается загруженный документ. Совпадение указывает на проблему с Cookie (отсутствие, истечение срока действия, невалидность).
    Cookie Information Database (База данных информации о Cookie)
    Централизованное хранилище, совместно используемое всеми сетевыми краулерами. Хранит сами Cookies, а также метаданные: URL Pattern, Acquisition URL и Time Out Information.
    History Log (Журнал истории)
    Хранилище данных, записывающее результаты попыток загрузки URL. Включает статус сканирования и информацию об ошибках, в том числе специфические ошибки, связанные с Cookies.
    Network Crawler / Web Crawler (Сетевой краулер)
    Программа или сервер в составе распределенной системы (например, Googlebot), предназначенная для автоматической загрузки документов из сети.
    Time Out Information (Информация о времени истечения)
    Данные, указывающие время истечения срока действия Cookie. Используется для определения необходимости обновления Cookie.
    URL Pattern (Шаблон URL)
    Идентификатор, определяющий набор или диапазон URL-адресов, к которым применяется конкретный Cookie (например, префикс домена или пути).

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основную архитектуру системы сканирования.

    1. Система состоит из множества сетевых краулеров и общей базы данных Cookies (cookie database).
    2. Каждый краулер настроен на извлечение Cookies из этой базы для доступа к документам на хостах.
    3. Каждый краулер содержит инструкции для обнаружения предопределенных ошибок Cookie путем сравнения загруженного документа с набором predefined cookie error patterns.
    4. База данных содержит информацию для получения Cookies (cookie acquisition information) для множества записей.
    5. Эта информация позволяет краулеру получить Cookie с Acquisition URL, который отличается от целевого URL (target URL), доступ к которому осуществляется с помощью этого Cookie.

    Ядро изобретения — это комбинация совместного использования Cookies в распределенной системе, автоматизированного механизма их получения через отдельный URL и системы обнаружения ошибок на основе анализа контента ответа.

    Claim 6 (Зависимый от 1): Детализирует механизм обновления Cookies.

    Краулеры включают инструкции для:

    1. Обнаружения истечения срока действия Cookie в базе данных.
    2. Получения замещающего Cookie (replacement cookie), используя Acquisition URL, соответствующий просроченному Cookie.

    Это подтверждает наличие автоматизированного механизма поддержания актуальности базы Cookies.

    Claim 7 (Независимый пункт): Описывает метод сканирования.

    1. Предоставление множества краулеров.
    2. На каждом краулере: извлечение соответствующего Cookie для хоста из общей базы данных.
    3. Метод включает: Получение краулером Cookie с указанного Acquisition URL (хранящегося в базе данных), а затем доступ к целевому target URL на хосте с использованием полученного Cookie.
    4. На каждом краулере: Обнаружение ошибок Cookie путем сравнения загруженного документа с predefined cookie error patterns.

    Где и как применяется

    Изобретение полностью относится к этапу CRAWLING – Сканирование и Сбор данных.

    Оно описывает инфраструктуру, которая позволяет Googlebot эффективно сканировать контент, требующий наличия Cookies, в условиях распределенной архитектуры сканирования.

    Взаимодействие компонентов:

    • Network Crawlers выполняют загрузку. Они постоянно взаимодействуют с Cookie Information Database для получения, проверки и обновления Cookies.
    • Cookie Information Database служит центральным репозиторием состояния для всех краулеров.
    • History Log используется краулерами для записи результатов сканирования и обнаруженных ошибок (cookie error).

    Входные данные:

    • Список запланированных URL (Scheduled URLs).
    • Центральная Cookie Information Database (содержащая URL Patterns, Acquisition URLs, Time Out Information и сами Cookies).
    • Набор Cookie Error Patterns (хранится в модуле управления Cookies краулера).

    Выходные данные:

    • Загруженные документы (передаются на этап INDEXING).
    • Обновленные данные в Cookie Information Database (новые или замещенные Cookies).
    • Записи в History Log (статус сканирования, коды ошибок).

    На что влияет

    • Конкретные типы контента: Наибольшее влияние оказывается на контент, доступ к которому регулируется с помощью Cookies:
      • Контент, требующий аутентификации (Gated Content, Paywalls).
      • Персонализированный контент (например, на основе предпочтений пользователя, сохраненных в Cookie).
      • Локализованный контент, если локализация определяется исключительно через Cookie (например, выбор магазина или региона).
      • Многошаговые процессы, использующие сессионные Cookies.
    • Конкретные ниши или тематики: Актуально для E-commerce (сессии, корзины), социальных сетей, форумов и любых сайтов с личными кабинетами.

    Когда применяется

    Алгоритм применяется постоянно в процессе сканирования:

    • При обработке URL: Краулер всегда проверяет Cookie Information Database перед запросом.
    • При получении ответа от сервера: Краулер всегда анализирует ответ на наличие Cookie Error Patterns и проверяет, не прислал ли сервер новые Cookies.
    • Триггеры активации (для обновления Cookie):
      • Истечение срока действия Cookie согласно Time Out Information.
      • Обнаружение Cookie Error Pattern в ответе сервера.
    • Исключения: Если попытка получения нового cookie через Acquisition URL терпит неудачу несколько раз подряд (Repeated Error), система прекращает попытки и логирует ошибку.

    Пошаговый алгоритм

    Процесс выполняется каждым сетевым краулером параллельно и независимо.

    1. Получение URL: Краулер выбирает следующий URL из списка запланированных.
    2. Поиск Cookies: Краулер выполняет поиск в Cookie Information Database для нахождения всех записей, чьи URL Pattern соответствуют данному URL. Извлекаются соответствующие Cookies.
    3. Проверка таймаута: Если Cookies найдены, проверяется их Time Out Information.
      • Если Cookie просрочен: Инициируется Протокол Обновления (см. шаг 4).
      • Если Cookie валиден или не найден: Переход к шагу 5.
    4. Протокол Обновления (Cookie Error Routine):
      1. Проверяется, известен ли Acquisition URL для данного Cookie.
        • Если НЕТ: Зарегистрировать ошибку в History Log. Прекратить обработку URL. Перейти к шагу 1.
      2. Проверяется, не повторяется ли ошибка обновления для этого URL/Cookie (Repeated Error).
        • Если ДА: Зарегистрировать ошибку. Прекратить обработку URL. Перейти к шагу 1.
      3. Выполняется запрос к Acquisition URL для получения нового Cookie.
      4. Cookie Information Database обновляется новым Cookie и его таймаутом.
      5. Возврат к шагу 2 (повторный поиск и проверка теперь уже обновленного Cookie).
    5. Загрузка URL: Краулер выполняет запрос к целевому URL, включая в запрос валидные Cookies (если они были найдены или обновлены).
    6. Проверка на ошибки: Полученный документ анализируется на наличие совпадений с Cookie Error Patterns.
      • Если ошибка обнаружена: Инициируется Протокол Обновления (шаг 4). Это может произойти, если Cookie был инвалидирован сервером до истечения таймаута.
      • Если ошибки нет: Переход к шагу 7.
    7. Обновление базы данных: Проверяется, вернул ли сервер новые или обновленные Cookies в ответе на запрос. Если да, Cookie Information Database обновляется.
    8. Обработка документа: Загруженный документ обрабатывается (передается на индексацию). Результат попытки сканирования регистрируется в History Log. Переход к шагу 1.

    Какие данные и как использует

    Данные на входе

    Патент фокусируется исключительно на инфраструктуре сканирования и не упоминает контентные, ссылочные или поведенческие факторы ранжирования.

    • Технические факторы:
      • URL: Целевой адрес для сканирования и Acquisition URL.
      • URL Pattern: Шаблоны для определения применимости Cookie.
      • Содержимое ответа сервера (анализируется для поиска Cookie Error Patterns).
    • Временные факторы:
      • Time Out Information: Метаданные о сроке действия Cookie.

    Какие метрики используются и как они считаются

    • Cookie Validity (Валидность Cookie): Определяется путем сравнения Time Out Information с текущим временем.
    • Cookie Error Detection (Обнаружение ошибок Cookie): Выполняется путем сравнения содержимого загруженного документа с набором predefined cookie error patterns. Используется сопоставление с шаблоном (pattern matching).
    • Repeated Error Condition (Условие повторяющейся ошибки): Определяется по достижению предопределенного порога последовательных ошибок при попытке обновить Cookie (например, 2, 3 или 4 раза, как указано в патенте).

    Выводы

    Это чисто инфраструктурный патент, описывающий внутренние процессы Google без прямых рекомендаций для SEO. Он дает понимание технических возможностей системы сканирования.

    1. Централизованное управление состоянием краулеров: Ключевой вывод — Google использует общую, централизованную базу данных Cookies для всего флота своих распределенных краулеров. Это означает, что Cookie, полученный одним экземпляром Googlebot, может быть использован другим.
    2. Отсутствие индивидуальных сессий: Краулеры не поддерживают индивидуальные постоянные сессии, как обычные браузеры. Они используют общее состояние, сохраненное в Cookie Information Database.
    3. Автоматизированное управление жизненным циклом Cookies: Система не просто хранит Cookies, но и активно обновляет просроченные, используя предопределенные Acquisition URLs (например, выполняя автоматический вход).
    4. Отказоустойчивость и диагностика: Система способна диагностировать проблемы с Cookies путем анализа контента ответа на наличие Cookie Error Patterns (например, если сайт вернул страницу логина вместо контента) и пытается их исправить.
    5. Инфраструктурный фокус: Патент направлен исключительно на повышение полноты сканирования (Crawl Coverage) за счет доступа к контенту, закрытому Cookies.

    Практика

    Best practices (это мы делаем)

    • Понимание механизма сканирования персонализированного контента: При использовании Cookies для персонализации (например, локализация, предпочтения) необходимо понимать, что Googlebot будет использовать Cookie, сохраненный в его центральной базе данных. Контент, который увидит Googlebot, зависит от состояния этого общего Cookie, что делает индексацию непредсказуемой.
    • Обеспечение доступности контента независимо от Cookies: Для критически важного контента следует полагаться на явные сигналы, такие как структура URL или атрибуты hreflang, а не только на Cookies. Это гарантирует, что Google сможет обнаружить и проиндексировать все версии.
    • Упрощение механизмов получения Cookies: Если доступ к контенту зависит от Cookies, механизм их установки должен быть простым и стабильным. Сложные многошаговые процессы могут помешать системе автоматически получить Cookie через Acquisition URL.
    • Четкое разграничение публичного и приватного контента: Используйте стандартные методы (robots.txt, noindex) для блокировки приватного контента. Не полагайтесь на cookie как на механизм защиты от индексации.

    Worst practices (это делать не надо)

    • Предположение, что контент защищен от индексации с помощью Cookies: Нельзя полагать, что если контент требует наличия Cookie, Googlebot не сможет его просканировать. Система специально разработана для преодоления этого барьера.
    • Использование Cookies для Cloaking: Попытки показывать разный контент в зависимости от наличия или значения Cookie рискованны. Поскольку состояние Cookies у Googlebot является общим и управляется автоматизировано, невозможно надежно контролировать, какой Cookie будет использован при конкретном запросе.
    • Нестабильные сессии и частая инвалидация Cookies: Системы, которые часто инвалидируют сессии, увеличивают вероятность того, что краулеры будут сталкиваться с Cookie Errors и тратить ресурсы (Crawl Budget) на восстановление сессии через Acquisition URL.

    Стратегическое значение

    Патент подчеркивает техническую сложность сканирования современного интернета и демонстрирует инфраструктурные решения Google для управления состоянием сессий. Стратегически это подтверждает необходимость следования принципам Progressive Enhancement и обеспечения доступности контента через уникальные URL-адреса. Для SEO-стратегии это означает минимизацию зависимости от Cookies для отображения основного контента и фокус на стандартных методах маршрутизации и локализации.

    Практические примеры

    Сценарий 1: Сканирование локализованного контента E-commerce сайта

    Сайт определяет регион пользователя и сохраняет его в Cookie. Если Cookie нет, пользователя перенаправляют на страницу выбора региона.

    1. Процесс: Краулер А заходит на сайт. Его перенаправляют. Система определяет это как Cookie Error Pattern. Если Acquisition URL настроен (например, «/set-region?region=USA»), краулер получает Cookie для США и сохраняет его в общей базе.
    2. Результат: Все последующие краулеры (Б, В, Г) используют этот общий Cookie и видят только версию для США. Другие региональные версии могут быть не проиндексированы.
    3. SEO-рекомендация: Использовать структуру URL (e.g., /us/, /de/) и hreflang, а не полагаться только на Cookies.

    Сценарий 2: A/B тестирование на основе Cookies

    1. Процесс: Краулер А заходит на сайт, получает Cookie, закрепляющий за ним Вариант А, и сохраняет его в общей базе.
    2. Результат: Все последующие краулеры используют этот Cookie и видят только Вариант А. Вариант Б может быть не проиндексирован.
    3. SEO-рекомендация: Следовать рекомендациям Google по A/B тестированию, используя 302 редиректы или контролируя индексацию вариантов, чтобы избежать проблем с дублированием или клоакингом.

    Вопросы и ответы

    Означает ли этот патент, что Googlebot поддерживает постоянную сессию браузера, как пользователь?

    Нет. Патент ясно показывает, что Google использует распределенную систему сканирования с множеством независимых краулеров. Вместо поддержания индивидуальных постоянных сессий они используют централизованную общую базу данных (Cookie Information Database). Краулеры берут Cookies из этой базы по мере необходимости. Это общее состояние, а не индивидуальная сессия.

    Как этот механизм влияет на индексацию персонализированного контента?

    Если контент меняется в зависимости от Cookies, Google проиндексирует ту версию контента, которая соответствует Cookie, хранящемуся в их общей базе данных на момент сканирования. Это может быть не версия по умолчанию (для анонимных пользователей), а версия, соответствующая состоянию, полученному во время предыдущего взаимодействия. Это делает индексацию персонализированного контента непредсказуемой.

    Как Google получает Cookies изначально, если контент закрыт логином?

    Система использует Acquisition URL — специальный адрес, предназначенный для получения Cookie. Это может быть скрипт логина с предопределенными учетными данными или страница установки параметров. Эта информация должна быть предварительно сконфигурирована в Cookie Information Database. Патент не уточняет, как именно определяется этот URL изначально (автоматически или вручную).

    Как этот патент влияет на A/B тестирование, основанное на Cookies?

    Это может серьезно исказить индексацию. Когда первый краулер получает Cookie, закрепляющий за ним вариант А, этот Cookie сохраняется в общей базе. Все последующие краулеры, скорее всего, будут использовать этот же Cookie и видеть только вариант А. Вариант Б может быть не проиндексирован или проиндексирован значительно хуже.

    Что произойдет, если мой сайт использует сложные многошаговые формы или CAPTCHA для установки Cookies?

    Скорее всего, система не сможет получить необходимый Cookie. Описанный механизм автоматического обновления полагается на Acquisition URL, что подразумевает возможность получения Cookie за один простой запрос. Сложные, многошаговые процессы или системы защиты (CAPTCHA, 2FA) выходят за рамки описанной системы, и контент останется недоступным.

    Как Google определяет, что произошла ошибка Cookie?

    Система не полагается только на коды ответа HTTP. Она анализирует содержимое полученного документа и сравнивает его с набором предопределенных шаблонов (Cookie Error Patterns). Если краулер ожидал увидеть контент, а получил страницу с текстом «Пожалуйста, войдите в систему» или «Ваша сессия истекла», это будет идентифицировано как ошибка Cookie.

    Влияет ли этот механизм на сканирование локализованных сайтов?

    Да, очень сильно. Если локализация (язык или регион) определяется исключительно через Cookie, Googlebot будет использовать общий сохраненный Cookie. Это может привести к тому, что будет проиндексирована только одна версия сайта, так как все краулеры будут представляться как пользователи из одного региона. Критически важно использовать структуру URL и hreflang.

    Может ли Googlebot обойти Paywall с помощью этого механизма?

    Теоретически, да, если в Cookie Information Database сохранен валидный Cookie, предоставляющий доступ к платному контенту, и настроен соответствующий Acquisition URL для его обновления. Это соответствует практике, когда издатели предоставляют Google доступ для индексации платного контента (например, через программы типа Flexible Sampling).

    Является ли использование Cookies надежным способом запретить индексацию контента?

    Нет. Этот патент демонстрирует, что Google активно разрабатывает механизмы для сканирования контента, требующего Cookies. Для надежного запрета индексации необходимо использовать файл robots.txt или метатег noindex, а для контроля доступа — полноценные механизмы аутентификации на уровне сервера.

    Актуален ли этот патент для современных технологий хранения состояния, таких как Local Storage?

    Патент описывает исключительно механизм управления HTTP Cookies, которые передаются в заголовках запросов. Он не затрагивает современные браузерные API для хранения данных на стороне клиента (Local Storage, IndexedDB). Управление этими хранилищами происходит на этапе рендеринга (WRS), а не на уровне базового сетевого краулера, описанного здесь.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.