Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google автоматически обнаруживает и удаляет идентификаторы сессий из URL для оптимизации сканирования и предотвращения дублирования

    CONTENT RETRIEVAL FROM SITES THAT USE SESSION IDENTIFIERS (Получение контента с сайтов, использующих идентификаторы сессий)
    • US7886032B1
    • Google LLC
    • 2011-02-08
    • 2003-12-23
    2003 Индексация Краулинг Патенты Google Ссылки

    Google использует механизм для автоматического обнаружения идентификаторов сессий в URL-адресах во время сканирования. Система анализирует подстроки, которые выглядят случайными и повторяются в нескольких URL с одного сайта. Эти идентификаторы удаляются для создания «чистых» версий URL. Это позволяет поисковой системе распознавать дублирующийся контент и избегать повторного сканирования одних и тех же страниц, оптимизируя краулинговый бюджет.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему неэффективного сканирования (crawling) и загрязнения индекса, вызванную использованием идентификаторов сессий (Session Identifiers) в URL. Когда веб-сайты встраивают уникальные ID в URL для отслеживания пользователей, краулер (spider) воспринимает одну и ту же страницу как множество разных URL. Это приводит к многократному сканированию идентичного контента (Duplicate Content), нерациональному расходованию краулингового бюджета и созданию массовых дублей в индексе.

    Что запатентовано

    Запатентована система автоматического обнаружения и нормализации URL, содержащих идентификаторы сессий. Система анализирует набор URL, полученных с одного хоста, для выявления подстрок, которые соответствуют характеристикам сессионных ID (например, случайность символов) и повторяются в разных URL. Эти идентификаторы затем удаляются для создания «чистых» (канонических) версий URL (Clean URLs).

    Как это работает

    Система интегрирована в процесс сканирования (Spider component):

    • Сканирование и Извлечение: Краулер (Fetch Bot) загружает документы, а Content Manager извлекает из них URL.
    • Анализ и Классификация: Система ищет подстроки в URL, которые выглядят случайными (высокая measure of randomness), имеют достаточную длину и повторяются в нескольких разных URL с того же сайта.
    • Нормализация: Обнаруженные Session Identifiers удаляются для создания Clean URL.
    • Дедупликация: URL Manager использует Clean URL (или его Fingerprint/хэш), чтобы проверить, сканировалась ли эта страница ранее, предотвращая повторную загрузку.
    • Адаптивное сканирование: Для последующего доступа система может использовать исходный URL с ID или генерировать новый ID, если сайт требует его наличия для отдачи контента.

    Актуальность для SEO

    Средняя. Хотя современные веб-платформы предпочитают использовать cookies для управления сессиями, многие устаревшие системы, крупные e-commerce платформы и форумы все еще генерируют URL с идентификаторами сессий. Более того, принципы автоматического обнаружения и нормализации параметров, не влияющих на контент, остаются фундаментальными для Google при обработке любых динамических URL (например, параметров отслеживания) и управлении краулинговым бюджетом.

    Важность для SEO

    (6/10). Патент имеет важное значение для технического SEO. Он описывает инфраструктурный механизм, с помощью которого Google справляется с распространенной причиной дублирования контента и проблем с краулинговым бюджетом. Хотя он не влияет напрямую на ранжирование, он подтверждает критическую необходимость обеспечения чистой, стабильной структуры URL для оптимальной индексации и эффективного сканирования.

    Детальный разбор

    Термины и определения

    Clean URL (Чистый URL)
    Нормализованная версия URL, из которой удален идентификатор сессии. Используется системой для дедупликации и каноникализации контента.
    Content Manager (Менеджер контента)
    Компонент системы сканирования, который обрабатывает загруженный контент, извлекает из него URL и анализирует их на наличие идентификаторов сессий.
    Fetch Bot / Spider (Робот-загрузчик / Паук)
    Программа (краулер), которая загружает веб-документы по заданным URL.
    Fingerprint (Отпечаток)
    Уникальный идентификатор (например, результат хэш-функции), рассчитанный на основе Clean URL. Используется для быстрого и эффективного сравнения URL и дедупликации.
    Measure of Randomness (Мера случайности)
    Эвристическая метрика, используемая для оценки того, насколько подстрока похожа на случайно сгенерированный идентификатор, а не на часть контента или структуры сайта.
    Session Identifier (Идентификатор сессии)
    Строка символов, встроенная в URL, используемая веб-сайтом для отслеживания сессии пользователя. Эта строка не влияет на основной контент, возвращаемый по URL.
    URL Manager (Менеджер URL)
    Компонент, который управляет очередью сканирования, отслеживает обработанные URL и генерирует Fingerprints.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод обработки URL во время сканирования.

    1. Извлечение набора URL из одного или нескольких документов, загруженных с веб-сайта.
    2. Идентификация подстроки в наборе URL как Session Identifier. Эта идентификация основана на: (а) применении набора правил И (б) множественных вхождениях (multiple occurrences) этой подстроки в разных URL набора.
    3. Генерация набора Clean URLs путем удаления идентифицированного Session Identifier.
    4. Определение того, были ли другие URL уже сканированы, путем сравнения их чистых версий с уже сгенерированными Clean URLs.

    Claims 7, 11, 17, 20 (Зависимые): Детализируют правила идентификации (упомянутые в Claim 1). Ключевым фактором является то, что подстрока должна демонстрировать по крайней мере определенную «меру случайности» (measure of randomness).

    Claim 6 (Зависимый от 1): Описывает стратегию хранения и доступа (Adaptive Crawling).

    Система хранит информацию на основе Clean URLs для целей дедупликации. Одновременно она сохраняет исходный набор URL (включая встроенные идентификаторы сессий) для использования при последующем доступе к этим URL, если ID необходим для корректной работы сайта.

    Claim 2 (Зависимый от 1): Уточняет метод сравнения.

    Сравнение чистых URL основано на вычислении и сравнении Fingerprint значений, полученных из этих чистых URL.

    Где и как применяется

    Изобретение является частью инфраструктуры сканирования и индексирования Google.

    CRAWLING – Сканирование и Сбор данных
    Это основной этап применения. Fetch Bots загружают контент. Content Manager извлекает URL. Система анализа URL (часть Content Manager и URL Manager) анализирует извлеченные URL на лету для обнаружения Session Identifiers. URL Manager использует Clean URL для дедупликации и планирования очереди сканирования.

    INDEXING – Индексирование и извлечение признаков
    На этапе индексирования происходит процесс каноникализации. Система использует Clean URL, сгенерированный во время сканирования, как предпочтительный (канонический) адрес для индексируемого контента. Это предотвращает попадание множества дубликатов одной и той же страницы в индекс.

    Входные данные:

    • Набор URL-адресов, извлеченных из сканируемых документов (обычно группируемых по хосту/веб-сайту).

    Выходные данные:

    • Clean URLs для каждого обработанного адреса.
    • Fingerprints этих Clean URLs для хранения в базе данных URL Manager.
    • Список уникальных URL, запланированных для последующего сканирования.

    На что влияет

    • Конкретные ниши и типы сайтов: Наибольшее влияние оказывается на сайты, которые динамически генерируют URL для отслеживания пользователей. Это часто встречается в E-commerce (состояние корзины, история просмотра), на форумах, в системах бронирования и на любых сайтах, использующих устаревшие методы управления сессиями (параметры URL или перезапись пути вместо cookies).
    • Эффективность сканирования (Crawl Budget): Система напрямую влияет на оптимизацию краулингового бюджета, позволяя избежать сканирования дубликатов.

    Когда применяется

    • Условия работы: Алгоритм применяется непрерывно во время процесса сканирования, когда краулер обрабатывает документы с определенного хоста и извлекает новые URL.
    • Триггеры активации: Обнаружение подстрок в URL, которые соответствуют эвристическим правилам для Session Identifiers. Критично сочетание двух факторов:
      1. Структурные характеристики: Достаточная длина (например, 8+ символов) и высокая measure of randomness.
      2. Повторение: Одна и та же строка повторяется в нескольких разных URL на сайте.

    Пошаговый алгоритм

    1. Сканирование документа: Fetch Bot загружает контент документа по заданному URL.
    2. Извлечение URL: Content Manager парсит документ и извлекает все найденные в нем URL.
    3. Анализ и Поиск Кандидатов: Извлеченные URL (анализируемые в контексте одного хоста) проверяются на наличие подстрок, которые могут быть Session Identifiers. Кандидаты должны соответствовать минимальной длине и показывать высокую measure of randomness.
    4. Классификация и Идентификация: Кандидаты классифицируются как Session Identifiers, если они встречаются многократно в разных URL в пределах анализируемого набора.
    5. Нормализация (Генерация Clean URL): Идентифицированные Session Identifiers удаляются из соответствующих URL для создания Clean URL.
    6. Расчет Fingerprint: Для полученного Clean URL рассчитывается уникальный Fingerprint.
    7. Дедупликация: URL Manager сравнивает новый Fingerprint с базой данных уже обработанных URL.
    8. Планирование сканирования (Adaptive Crawling): Если URL уникален, он добавляется в очередь. URL Manager принимает решение о формате URL для сканирования: использовать исходный URL (с ID), Clean URL, или Clean URL с новым сгенерированным ID, в зависимости от того, как сайт реагирует на запросы без идентификатора.

    Какие данные и как использует

    Данные на входе

    • Технические факторы: Единственными входными данными, описанными в патенте, являются сами URL-адреса (структура URL), извлеченные из сканируемых страниц. Анализируются подстроки внутри этих URL.

    Какие метрики используются и как они считаются

    Система использует несколько эвристик и метрик для классификации подстрок:

    • Frequency of Occurrence (Частота встречаемости): Подсчет количества различных URL с одного сайта, в которых встречается одна и та же подстрока-кандидат. Высокая частота является сильным сигналом Session Identifier.
    • Minimum Length (Минимальная длина): Устанавливается пороговое значение длины подстроки (в патенте упоминается пример 8 символов).
    • Measure of Randomness (Мера случайности): Критическая метрика для отличия ID от контента. Патент предлагает конкретные методы расчета:
      • Сравнение со словарем: Если подстрока отсутствует в словаре, она считается более случайной.
      • Чередование типов символов (Alternations): Подсчет количества переключений между цифрами (0-9), строчными буквами (a-z) и заглавными буквами (A-Z). Например, строка «3uSS4A» имеет 4 таких чередования, что указывает на высокую степень случайности.
    • Fingerprint Calculation: Применение хэш-функции к Clean URL для создания уникального отпечатка.

    Выводы

    1. Автоматическое обнаружение Session ID без известных паттернов: Google разработал эвристический механизм для определения идентификаторов сессий, который не полагается только на стандартные имена параметров (вроде sid или phpsessid). Система анализирует структуру URL и характеристики подстрок.
    2. Ключевые индикаторы – Случайность и Повторение: Для идентификации Session Identifier система ищет комбинацию двух факторов: подстрока должна выглядеть случайной (высокая measure of randomness) и она должна повторяться в разных URL на одном и том же сайте.
    3. Нормализация как основа каноникализации: Основная цель процесса — создать стабильный Clean URL. Это позволяет Google эффективно бороться с массовым дублированием контента и значительно экономить краулинговый бюджет.
    4. Адаптивное сканирование (Adaptive Crawling): Система учитывает, что некоторые сайты требуют наличия Session Identifier для отдачи контента. Патент предусматривает возможность сохранения исходных ID или генерации новых для обеспечения доступа к контенту (Claim 6), при этом для индексации и дедупликации используется Clean URL.
    5. Важность чистой архитектуры URL: Патент демонстрирует технические сложности, которые создают устаревшие методы управления сессиями, и подчеркивает важность предоставления поисковым системам чистых и стабильных URL.

    Практика

    Best practices (это мы делаем)

    • Использовать чистые, стабильные и человекопонятные URL: Это ключевая рекомендация. Избегайте использования любых идентификаторов сессий или переменных состояния в URL, если они не изменяют основной контент страницы.
    • Управление сессиями через Cookies: Для отслеживания состояния пользователя и управления сессиями используйте Cookies или localStorage, а не параметры в URL или перезапись пути (path rewriting). Это стандарт современной веб-разработки.
    • Применять явную каноникализацию (rel=»canonical»): Несмотря на то, что Google может автоматически определять Clean URLs, полагаться на это не стоит. Всегда используйте rel=»canonical», чтобы явно указать предпочтительную версию страницы, особенно если CMS генерирует URL с параметрами.
    • Мониторинг параметров URL в GSC: Регулярно проверяйте отчеты Google Search Console (Crawl Stats и Index Coverage) на предмет сканирования большого количества URL с параметрами. Это может указывать на проблемы с идентификацией сессий или фасетной навигацией.

    Worst practices (это делать не надо)

    • Встраивание Session ID в URL: Это устаревшая практика, которая гарантированно создает проблемы с дублированием контента и неэффективно расходует краулинговый бюджет, заставляя Google активировать сложные механизмы нормализации.
    • Использование случайных строк для идентификации контента: Если структура URL для реального контента выглядит слишком случайной (например, использует длинные хэши вместо слагов), существует риск, что Google может ошибочно классифицировать часть URL как Session Identifier и некорректно нормализовать адрес.
    • Требование валидного Session ID для доступа к контенту: Создание сайтов, которые не отдают контент (например, возвращают ошибку или редирект), если в URL отсутствует валидный идентификатор сессии. Это значительно усложняет сканирование.

    Стратегическое значение

    Патент подтверждает фундаментальную важность технического SEO и информационной архитектуры. Чистая, логичная и стабильная структура URL является основой для эффективного сканирования и индексации. Google инвестирует значительные ресурсы в нормализацию данных. Стратегическая задача Senior SEO-специалиста — предоставить поисковой системе максимально чистые и однозначные данные на входе, чтобы минимизировать вероятность ошибок при автоматической обработке и направить краулинговый бюджет на полезный контент.

    Практические примеры

    Сценарий: Оптимизация краулингового бюджета на устаревшем E-commerce сайте

    1. Ситуация: Интернет-магазин на устаревшей платформе генерирует URL для карточек товаров вида: http://example.com/shop/SESSID_a19f77b2/product/123.html.
    2. Проблема: В логах сервера видно, что Googlebot сканирует тысячи URL для одного и того же товара с разными SESSID, тратя краулинговый бюджет.
    3. Как работает Google (согласно патенту): Googlebot сканирует сайт. Система анализа URL видит, что подстрока SESSID_a19f77b2 имеет высокую measure of randomness (чередование символов) и повторяется в разных URL (например, в /product/123.html и /product/456.html). Она классифицирует ее как Session Identifier.
    4. Нормализация: Система нормализует URL до http://example.com/shop/product/123.html для индексации и учета.
    5. Действия SEO-специалиста:
      • Приоритет 1 (Стратегическое решение): Поставить задачу разработчикам на переход от управления сессиями через URL к использованию Cookies.
      • Приоритет 2 (Тактическое решение): Убедиться, что на всех страницах настроен тег rel=»canonical», указывающий на чистую версию URL (без SESSID). Это поможет Google быстрее и точнее выбирать каноническую версию.

    Вопросы и ответы

    Как Google определяет, что является идентификатором сессии, а что — частью контента?

    Система использует комбинацию факторов. Во-первых, она ищет подстроки с высокой «мерой случайности» (measure of randomness) — например, длинные строки с частым чередованием букв разного регистра и цифр. Во-вторых, критически важным является повторение: если одна и та же случайная строка встречается в нескольких разных URL на сайте, она с высокой вероятностью классифицируется как Session Identifier, а не как уникальный идентификатор контента.

    Как именно измеряется «мера случайности» (measure of randomness)?

    Патент предлагает конкретный метод: подсчет количества чередований (alternations) между типами символов — цифрами (0-9), строчными буквами (a-z) и прописными буквами (A-Z). Например, в строке «3uSS4A» есть 4 чередования. Чем больше таких чередований, тем выше оценка случайности. Также может использоваться сравнение со словарем.

    Означает ли этот патент, что мне не нужно беспокоиться о Session ID в URL, так как Google сам их очистит?

    Нет, это неверный вывод. Хотя Google разработал этот механизм для борьбы с проблемой, любая автоматическая система может давать сбои. Если вы используете Session ID в URL, вы тратите свой краулинговый бюджет, так как Google должен сначала скачать дублирующиеся страницы, а затем выполнить дополнительную работу по их анализу и нормализации. Лучшая практика — всегда предоставлять чистые и стабильные URL.

    Может ли этот механизм ошибочно удалить важную часть URL?

    Да, такой риск существует, хотя он минимизирован за счет проверки на повторение. Если вы используете длинные случайные строки для идентификации контента (например, хэши вместо слагов), и структура URL часто меняется, система может ошибочно принять идентификатор контента за Session Identifier. Это еще один аргумент в пользу использования человекопонятных URL.

    Что такое «Fingerprint» в контексте этого патента и зачем он нужен?

    Fingerprint — это уникальный идентификатор (обычно результат хэш-функции), рассчитанный на основе «чистого» URL (Clean URL). Он необходим для эффективной дедупликации. Вместо того чтобы сравнивать длинные строки URL между собой, система сравнивает короткие Fingerprints, что значительно быстрее определяет, был ли данный контент уже сканирован.

    Что делать, если мой сайт требует наличия Session ID в URL для работы?

    Это усложняет сканирование, но патент учитывает такие ситуации (Adaptive Crawling). Система может сохранить исходный URL с валидным Session Identifier и использовать его для доступа к контенту, но при этом использовать Clean URL для индексации. В некоторых случаях система может даже генерировать случайный ID. Тем не менее, рекомендуется модернизировать сайт для использования Cookies.

    Как этот патент связан с краулинговым бюджетом (Crawl Budget)?

    Связь прямая и критическая. Идентификаторы сессий создают практически бесконечное количество URL для одного и того же контента. Этот патент направлен на оптимизацию краулингового бюджета путем предотвращения повторного сканирования дубликатов, вызванных Session Identifiers, освобождая ресурсы для сканирования полезного контента.

    Актуален ли этот патент, если я использую современные JavaScript фреймворки?

    В большинстве случаев современные фреймворки используют чистые URL и управляют состоянием через API и локальное хранилище. Для таких сайтов этот патент менее актуален. Однако проблемы могут возникнуть, если используются устаревшие модули или сторонние скрипты, которые модифицируют URL для отслеживания.

    Влияет ли этот механизм на ранжирование?

    Прямого влияния нет, так как патент не описывает расчет релевантности или качества. Однако он имеет значительное косвенное влияние. За счет эффективной каноникализации и экономии краулингового бюджета, система позволяет Google быстрее находить и индексировать новый контент на сайте, а также корректно консолидировать сигналы ранжирования (например, ссылки) на каноническом URL.

    Какова роль rel=»canonical» в контексте этого патента?

    rel=»canonical» служит явным указанием вебмастера на предпочтительную версию страницы. Это значительно более сильный сигнал, чем автоматическое определение Clean URL, описанное в патенте. Если rel=»canonical» настроен корректно (указывает на чистый URL без Session ID), Google, скорее всего, будет полагаться на него, а не на автоматический алгоритм нормализации.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.