SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google отслеживает клики (CTR) на сторонних сайтах и защищает свои данные от парсинга в API и виджетах

MULTI-STEP SEARCH RESULT RETRIEVAL (Многоэтапное получение результатов поиска)
  • US9177058B2
  • Google LLC
  • 2010-11-18
  • 2015-11-03
  • Поведенческие сигналы
  • SERP
  • Local SEO
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует двухэтапный метод доставки результатов поиска через API и виджеты (например, Google Maps) на сторонних сайтах. Сначала отображается только базовое описание результата и присваивается уникальный защищенный токен. Полный контент загружается только после клика пользователя и валидации токена. Это защищает данные Google от парсинга третьими сторонами и позволяет точно измерять CTR, который используется как сигнал ранжирования для географических запросов.

Описание

Какую проблему решает

Патент решает две критические проблемы, возникающие при предоставлении доступа к проприетарным данным (например, базе данных Google Places) через API или виджеты на сторонних веб-сайтах:

  • Защита данных (Anti-Scraping): Предотвращение несанкционированного массового сбора (парсинга) ценных данных поисковой системы разработчиками сторонних сайтов.
  • Надежный сбор метрик (Cross-Domain Analytics): Обеспечение точного и достоверного механизма для сбора данных о вовлеченности пользователей (Click-through rate, CTR) на сторонних доменах, где традиционные методы отслеживания ненадежны.

Дополнительно механизм повышает эффективность передачи данных, отправляя полный объем информации только по запросу (double fetch).

Что запатентовано

Запатентована система многоэтапного (двухэтапного) получения результатов поиска. Система разделяет данные на базовое описание (Descriptor) и основной контент (Substantive Content). При первоначальном запросе отправляется только описание и уникальный зашифрованный идентификатор (Opaque Token). Основной контент предоставляется только после того, как пользователь выберет результат, и система валидирует токен. Это стимулирует запрос деталей и позволяет системе точно зафиксировать клик.

Как это работает

Механизм функционирует как защищенный шлюз:

  1. Этап 1 (Список): Пользователь инициирует поиск (например, локальный) на стороннем сайте. Google генерирует результаты, но отправляет только минимальные Descriptors (например, название и район). Для каждого результата создается Opaque Token — зашифрованный, уникальный для сессии и имеющий короткий срок жизни (Time to Live, TTL).
  2. Этап 2 (Детали): Когда пользователь выбирает результат, виджет отправляет второй запрос, содержащий Opaque Token.
  3. Валидация и Доставка: Google проверяет подлинность и TTL токена. Если он действителен, система предоставляет Substantive Content (телефон, отзывы, фото) напрямую пользователю. Этот второй запрос позволяет точно измерить CTR.

Актуальность для SEO

Высокая. Использование Google Maps API, Google Places и встраиваемых виджетов повсеместно. Защита проприетарных данных и сбор поведенческих сигналов (CTR) для машинного обучения и улучшения ранжирования остаются критически важными задачами для Google.

Важность для SEO

Патент имеет высокое значение (70/100), особенно для Локального SEO (Local SEO). Хотя он описывает инфраструктуру, в тексте прямо указано его применение для ранжирования: «Click-through rates могут также использоваться как ranking signal для географических результатов поиска». Этот патент описывает, как именно Google надежно собирает эти сигналы CTR со сторонних сайтов, подтверждая, что вовлеченность пользователей с вашим листингом (например, в виджете Карты на чужом блоге) влияет на ваше локальное ранжирование.

Детальный разбор

Термины и определения

API Module (Модуль API)
Компонент на сервере Google (Backend Host Server), обрабатывающий запросы от сторонних сайтов. Определяет правила взаимодействия и обеспечивает безопасность данных.
Descriptor / Human-readable description data (Дескриптор)
Первый набор данных (first data elements). Минимальная информация о результате, достаточная для того, чтобы пользователь мог однозначно отличить (unambiguously differentiable) один результат от другого. Например, название компании и улица.
Opaque Token (Непрозрачный токен)
Уникальный идентификатор (unique identifier). Зашифрован, генерируется во время выполнения запроса (runtime), имеет короткий срок жизни (TTL) и не может быть расшифрован третьей стороной. Используется для валидации запроса на получение деталей.
Substantive Content / Content Information (Основной контент)
Второй набор данных (second data elements). Подробная информация о результате (контакты, отзывы, фото, часы работы и т.д.), предоставляемая только после валидации токена.
Time to Live (TTL) (Время жизни)
Максимальный срок действия Opaque Token (например, несколько минут). Ключевой элемент защиты от парсинга.
Widget / Scripted Interface (Виджет / Скриптовый интерфейс)
Приложение (часто на JavaScript), встроенное в стороннюю веб-страницу. Обеспечивает взаимодействие пользователя с сервисами Google напрямую.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод двухэтапного получения данных с защитой.

  1. Система получает поисковый запрос от интерфейса, предоставленного третьей стороной.
  2. Идентифицируются результаты поиска.
  3. Результаты обрабатываются для разделения на Descriptors (описательные данные) и Content Information (основной контент).
  4. С каждым результатом ассоциируется уникальный идентификатор (Opaque Token), который предотвращает несанкционированный доступ третьей стороны.
  5. Система отправляет инструкции для отображения дескрипторов и связанных с ними токенов.
  6. Система получает запрос на дополнительные данные (второй этап) для выбранного результата, включающий соответствующий токен.
  7. Проверяется наличие и валидность токена.
  8. Если токен валиден, система отправляет инструкции для отображения основного контента.

Claim 6 (Зависимый от 1): Детализирует характеристики Opaque Token.

Токен является шифруемым и дешифруемым (сервером), генерируется при каждом выполнении поиска (at each run time) и является уникальным даже для двух идентичных поисковых запросов, выполненных в разное время.

Claim 7 (Зависимый от 1): Указывает, что уникальный идентификатор имеет ассоциированный срок жизни (time to live).

Claim 9 и 10 (Зависимые от 1): Уточняют, что метод применяется к запросам на местоположение (request for one or more locations).

Где и как применяется

Патент описывает инфраструктурный механизм доставки контента и сбора данных, который поддерживает процессы ранжирования.

CRAWLING (Сбор данных)
Механизм позволяет собирать точные данные о поведении пользователей (Click-Through Rate) со сторонних доменов. Это является формой сбора данных о взаимодействии.

RANKING – Ранжирование
Основная система ранжирования генерирует список результатов. Критически важно, что данные, собранные с помощью этого механизма (CTR), используются для влияния на будущее ранжирование. В патенте указано: "Click-through rates may also be used as a ranking signal for geographic search results..."

METASEARCH / Доставка результатов
Основное применение патента. Он управляет тем, как результаты, полученные на этапе RANKING, безопасно доставляются пользователю через сторонний веб-сайт (API/Widgets).

Входные данные (Этап 1):

  • Поисковый запрос от стороннего интерфейса (текст, координаты).

Выходные данные (Этап 1):

  • Список дескрипторов (Descriptors).
  • Opaque Tokens для каждого результата.

Входные данные (Этап 2):

  • Индикация выбора пользователя (клик).
  • Соответствующий Opaque Token.

Выходные данные (Этап 2):

  • Основной контент (Substantive Content).
  • Зарегистрированный клик (для аналитики и CTR).

На что влияет

  • Конкретные типы контента и Ниши: Наибольшее влияние на Локальный поиск (Local Search) и данные, распространяемые через Google Maps/Places API. Касается агрегаторов, каталогов, сайтов бронирования и любых ресурсов, встраивающих локальные данные Google.
  • Специфические запросы: Географические и локальные запросы, обрабатываемые через API.

Когда применяется

  • Условия работы: Применяется, когда пользователь взаимодействует со сторонним веб-сайтом, использующим защищенный API или виджет поисковой системы.
  • Триггеры активации: Активируется при первоначальном запросе (Этап 1) и при последующем выборе результата пользователем (Этап 2).
  • Пороговые значения: Ключевым порогом является Time to Live (TTL) токена, упомянутый как "несколько минут".

Пошаговый алгоритм

Процесс многоэтапного получения результатов (Double Fetch)

Этап 1: Доставка списка

  1. Получение запроса: Система получает первый поисковый запрос от виджета на стороннем сайте.
  2. Идентификация результатов: Поисковая система идентифицирует релевантные результаты.
  3. Разделение данных: Для каждого результата система отделяет Substantive Content от Descriptor. Дескриптор формируется так, чтобы быть однозначно различимым.
  4. Генерация токенов: Для каждого результата генерируется уникальный Opaque Token (зашифрованный, с коротким TTL).
  5. Отправка списка: Список Дескрипторов и Токенов отправляется виджету для отображения пользователю.

Этап 2: Доставка контента

  1. Получение выбора: Пользователь выбирает результат. Виджет отправляет второй запрос, содержащий Opaque Token.
  2. Валидация токена: Система проверяет токен (подлинность, TTL).
  3. Регистрация клика: Если токен валиден, система регистрирует клик (для расчета CTR) и извлекает контент.
  4. Доставка контента: Substantive Content отправляется непосредственно в виджет пользователя.
  5. Мониторинг злоупотреблений: Система может отслеживать соотношение запросов Этапа 1 и Этапа 2 для выявления попыток парсинга (misuse indication).

Какие данные и как использует

Данные на входе

  • Контентные/Индексированные данные: Проиндексированные данные (Web Index, Place Metadata). Они разделяются на Descriptors (название, базовый адрес) и Substantive Content (телефон, отзывы, фото и т.д.).
  • Пользовательские/Географические факторы (Запрос): Исходный поисковый запрос пользователя, данные о местоположении, последующий выбор конкретного результата (клик).
  • Системные данные (Безопасность): Криптографические данные для создания и шифрования Opaque Tokens.

Какие метрики используются и как они считаются

  • Opaque Token Validation: Процесс, включающий дешифровку и проверку уникальности токена. В патенте упоминается использование случайных чисел и криптографии.
  • Time to Live (TTL): Предопределенное временное окно (например, несколько минут) для валидности токена.
  • Click-Through Rate (CTR): Ключевая метрика. Рассчитывается путем отслеживания соотношения успешных запросов Этапа 2 (валидированные клики) к запросам Этапа 1 (показы списка). Патент явно указывает, что CTR используется как ranking signal для географических результатов.
  • Индикатор злоупотребления (Misuse indication): Отслеживание соотношения запросов Этапа 2 к Этапу 1. Если соотношение превышает 1:1, это может указывать на попытку скрапинга.

Выводы

  1. Подтверждение CTR как фактора ранжирования в Local SEO: Патент явно указывает, что одна из целей механизма — сбор надежных данных Click-Through Rate для использования в качестве сигнала ранжирования для географических результатов.
  2. Сбор поведенческих сигналов вне доменов Google (Off-Domain): Google активно собирает данные о взаимодействии с результатами на любом сайте, использующем их API (например, Google Maps). Поведение пользователей на сторонних сайтах влияет на ранжирование.
  3. Приоритет защиты данных (Anti-Scraping): Механизм Opaque Token с коротким TTL и двухэтапная загрузка демонстрируют, как Google защищает свои проприетарные данные от массового сбора третьими сторонами.
  4. Важность дескрипторов (Сниппетов): Поскольку пользователь принимает решение о клике на основе Descriptor, привлекательность и точность этой базовой информации (Название, Адрес) критически важна для максимизации CTR.
  5. Инфраструктурная основа экосистемы: Патент описывает техническую реализацию контроля Google над своими данными и сбора метрик в распределенной экосистеме API и виджетов.

Практика

Best practices (это мы делаем)

  • Оптимизация привлекательности локальных листингов (Google Business Profile): Необходимо максимизировать привлекательность Descriptor (название, рейтинг, базовый адрес). Поскольку CTR, собранный через этот механизм, является сигналом ранжирования, увеличение вовлеченности на всех платформах (включая сторонние сайты с виджетами) напрямую влияет на локальные позиции.
  • Обеспечение точности и уникальности данных (NAP): Убедитесь, что базовые данные о компании точны и помогают пользователю однозначно идентифицировать ваш бизнес среди других. Это повышает вероятность клика по нужному результату.
  • Построение цитируемости и встраиваний (Citation Building): Поощряйте релевантные сторонние сайты (блоги, каталоги) встраивать виджеты Карт с вашим местоположением. Патент подтверждает, что Google учитывает вовлеченность пользователей с этими встраиваниями.
  • Корректное использование API (для разработчиков): При использовании Google API на своем сайте следуйте документации. Правильная реализация гарантирует, что положительные взаимодействия пользователей будут корректно учтены Google.

Worst practices (это делать не надо)

  • Попытки парсинга данных через API: Патент напрямую направлен на предотвращение этого. Использование Opaque Tokens с коротким TTL и мониторинг злоупотреблений делают массовый парсинг неэффективным и рискованным.
  • Манипуляция кликами (Click Fraud): Попытки искусственно накрутить CTR через API усложняются. Токены уникальны для каждой сессии, генерируются в реальном времени и требуют сложной эмуляции поведения для обхода защиты.
  • Игнорирование поведенческих факторов в Local SEO: Недооценка важности CTR и вовлеченности пользователей как сигнала ранжирования является ошибкой, учитывая инфраструктуру, описанную в патенте.

Стратегическое значение

Патент подтверждает стратегическую важность поведенческих сигналов (User Engagement) в экосистеме Google, особенно для локального поиска. Он демонстрирует, что Google разработал надежную инфраструктуру для сбора этих сигналов за пределами своих собственных доменов. Для SEO-специалистов это означает, что оптимизация под пользователя (SXO/CRO) и работа над привлекательностью листингов является необходимым условием для эффективного ранжирования, так как CTR напрямую используется как ranking signal.

Практические примеры

Сценарий: Использование CTR с сайта агрегатора для улучшения ранжирования ресторана

  1. Контекст: Популярный сайт-агрегатор ресторанов использует Google Maps API для отображения карты и списка заведений.
  2. Действие пользователя: Пользователь ищет "итальянская пицца рядом" на сайте агрегатора.
  3. Первый этап: Агрегатор получает от Google список из 10 ресторанов. Для каждого отправляется только Descriptor (название, примерное расположение) и Opaque Token.
  4. Выбор: Ресторан "Пицца Марио" имеет привлекательный дескриптор (высокий рейтинг). Пользователь кликает на него, чтобы увидеть телефон и точный адрес.
  5. Второй этап: Сайт агрегатора отправляет Opaque Token обратно в Google для получения деталей. Google валидирует токен и отдает контент.
  6. Влияние на SEO: Google регистрирует клик по "Пицца Марио". Из-за более высокого CTR по сравнению с конкурентами, Google может повысить ранжирование "Пицца Марио" по релевантным запросам в локальном поиске и на Картах.

Вопросы и ответы

Патент напрямую говорит о том, что Google использует CTR как фактор ранжирования?

Да. В патенте прямо указано одно из преимуществ системы: "Click-through rates may also be used as a ranking signal for geographic search results based on how often a search result... is chosen by a user". Этот патент описывает надежный механизм для сбора этих данных на сторонних сайтах.

Влияет ли поведение пользователей на сторонних сайтах на мое ранжирование в Google?

Да, если эти сайты используют API Google (например, Google Maps) для отображения информации о вашем бизнесе. Описанный механизм позволяет Google отслеживать, какие объекты пользователи выбирают на этих сайтах, и использовать эту вовлеченность (CTR) для корректировки локального ранжирования.

Что такое "Opaque Token" и зачем он нужен?

Opaque Token — это уникальный зашифрованный идентификатор, который присваивается каждому результату поиска в реальном времени. Он необходим для безопасности и валидации. Когда пользователь кликает на результат, токен отправляется обратно в Google. Это позволяет подтвердить, что запрос легитимен (а не попытка парсинга), и точно зафиксировать клик.

Что такое многоэтапное получение результатов (Double Fetch)?

Это технический подход, при котором данные не отправляются сразу. На первом этапе (Fetch 1) отправляется только список идентификаторов (Descriptors) и токены. На втором этапе (Fetch 2), только после выбора пользователя и валидации токена, отправляется основной контент (Substantive Content). Это защищает данные и позволяет отслеживать клики.

Какое значение имеет Time to Live (TTL) для токена?

TTL — это короткий срок жизни токена (например, несколько минут). Если пользователь не выберет результат в течение этого времени, токен станет недействительным. Это ключевой элемент защиты от автоматизированного сбора данных (парсинга), так как предотвращает сохранение и повторное использование токенов.

Как этот патент влияет на оптимизацию Google Business Profile (GBP)?

Он подчеркивает критическую важность оптимизации привлекательности листинга GBP. Поскольку CTR является сигналом ранжирования, необходимо работать над тем, чтобы ваш Descriptor (видимая часть листинга: название, рейтинг, адрес) выделялся и мотивировал пользователя кликнуть для получения дополнительной информации.

Защищает ли этот механизм данные Google от парсинга?

Да, это одна из основных целей. Поскольку основной контент передается только по запросу для одного результата и требует валидного, краткосрочного Opaque Token, массовый сбор данных значительно усложняется. Система также отслеживает аномальное количество запросов на детали (коэффициент > 1:1) как индикатор злоупотребления.

Может ли владелец стороннего сайта увидеть полные данные, которые Google отправляет пользователю?

Система разработана так, чтобы минимизировать этот риск. Взаимодействие часто происходит напрямую между виджетом (например, JavaScript в браузере клиента) и сервером Google. В патенте указано, что виджет может быть закодирован так, чтобы предотвратить доступ разработчика сайта к передаваемым данным.

Что такое "Descriptor" в контексте этого патента?

Descriptor — это базовое описание результата, которое показывается пользователю на первом этапе (аналог сниппета). Патент подчеркивает, что он должен содержать достаточно информации, чтобы пользователь мог отличить один результат от другого (например, название и улица, если названия одинаковые).

Применяется ли этот механизм только к локальному поиску?

Хотя патент акцентирует внимание на географических результатах (Place Metadata) и Google Maps, описанная технология многоэтапного получения результатов с использованием токенов может применяться к любым типам поиска, предоставляемым через API на сторонних платформах, где требуется защита данных и сбор метрик.

Похожие патенты

Как Google использует CTR и разницу в оценках релевантности для визуального выделения доминирующего результата в выдаче
Google может визуально выделять результат поиска (например, с помощью миниатюры страницы), если система уверена, что это именно то, что ищет пользователь. Эта уверенность основана на значительном превосходстве результата над всеми остальными по показателям CTR (Click-Through Rate) и/или оценке релевантности (Relevance Score).
  • US7836391B2
  • 2010-11-16
  • SERP

  • Поведенческие сигналы

Как Google использует анализ сессий и CTR для переписывания низкоэффективных запросов в высокоэффективные
Google анализирует поведение пользователей внутри поисковых сессий. Если пользователь быстро переходит от запроса с низким CTR (низкоэффективный) к запросу с высоким CTR (высокоэффективный), система связывает их как относящиеся к одному интенту. В дальнейшем, при получении низкоэффективного запроса, Google использует связанный высокоэффективный запрос для поиска и подмешивания более релевантного контента.
  • US8234265B1
  • 2012-07-31
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google определяет тематику и интент запроса, анализируя контент уже ранжирующихся страниц в выдаче
Google использует метод классификации запросов, который анализирует не сам текст запроса, а контент (URL, заголовки, сниппеты) страниц, находящихся в топе выдачи по этому запросу. Сравнивая набор терминов из этих результатов с эталонными профилями разных тематик или типов контента (Новости, Видео, Картинки), система определяет интент пользователя и решает, какие вертикали поиска активировать.
  • US8756218B1
  • 2014-06-17
  • Семантика и интент

  • SERP

Как Google динамически обновляет выдачу в реальном времени, если пользователь не кликает на результаты
Google отслеживает взаимодействие с поисковой выдачей в реальном времени. Если пользователь просматривает результаты, но не кликает на них в течение определенного времени (определяемого моделью поведения), система интерпретирует это как имплицитную отрицательную обратную связь. На основе анализа этих «отвергнутых» результатов Google автоматически пересматривает запрос (корректируя веса или заменяя термины) и динамически предоставляет новый набор результатов.
  • US20150169576A1
  • 2015-06-18
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google A/B тестирует и оптимизирует сниппеты (заголовки, описания, изображения) для повышения CTR
Google использует механизм для оптимизации отображения контента (сниппетов). Система показывает разные варианты заголовков, описаний или изображений для одной и той же ссылки разным пользователям или на разных платформах. Затем она измеряет кликабельность (CTR) каждого варианта и выбирает наиболее эффективный для дальнейшего использования, учитывая также тип устройства пользователя.
  • US9569432B1
  • 2017-02-14
  • SERP

  • Поведенческие сигналы

  • Персонализация

Популярные патенты

Как Google запоминает вопросы без авторитетного ответа и автономно сообщает его позже через Ассистента
Патент Google описывает механизм для обработки запросов, на которые в момент поиска нет качественного или авторитетного ответа. Система запоминает информационную потребность и продолжает мониторинг. Когда появляется информация, удовлетворяющая критериям качества (например, в Knowledge Graph), Google автономно доставляет ответ пользователю, часто встраивая его в следующий диалог с Google Assistant, даже если этот диалог не связан с исходным вопросом.
  • US11238116B2
  • 2022-02-01
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

Как Google использует машинное зрение и исторические клики для определения визуального интента и ранжирования изображений
Google использует систему, которая определяет визуальное значение текстового запроса, анализируя объекты на картинках, которые пользователи выбирали ранее по этому или похожим запросам. Система создает набор «меток контента» (визуальный профиль) для запроса и сравнивает его с объектами, распознанными на изображениях-кандидатах с помощью нейросетей. Это позволяет ранжировать изображения на основе их визуального соответствия интенту пользователя.
  • US20200159765A1
  • 2020-05-21
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google классифицирует интент запросов (например, поиск порнографии), анализируя историю использования фильтров (SafeSearch)
Google использует данные о том, как часто пользователи включают или отключают фильтры контента (например, SafeSearch) при вводе конкретного запроса. Анализируя нормализованное соотношение фильтрованных и нефильтрованных поисковых операций, система классифицирует запрос как целенаправленно ищущий определенный тип контента (например, adult). Эта классификация затем используется для повышения или понижения релевантности соответствующего контента в выдаче.
  • US9152701B2
  • 2015-10-06
  • Семантика и интент

  • Безопасный поиск

  • Поведенческие сигналы

Как Google (YouTube) анализирует трафик конкурирующих видео для рекомендации улучшений метаданных
Google использует систему для анализа конкуренции между видео на основе общих поисковых запросов и времени просмотра. Система выявляет поисковые запросы, которые приводят трафик на конкурирующие (например, производные) видео, и сравнивает их с метаданными оригинального видео. Если обнаруживаются релевантные термины, отсутствующие у оригинала, они рекомендуются автору для улучшения видимости.
  • US10318581B2
  • 2019-06-11
  • Поведенческие сигналы

  • Мультимедиа

  • Семантика и интент

Как Google анализирует сессии пользователей и кластеризует концепции для генерации блока "Связанные запросы" (Related Searches)
Google анализирует последовательности запросов пользователей в рамках одной сессии для выявления шаблонов уточнений. Система кластеризует эти уточнения по смыслу, анализируя контент ранжирующихся по ним документов или другие запросы, ведущие на эти документы. Это позволяет предлагать пользователям концептуально различные варианты для сужения или изменения темы поиска.
  • US8065316B1
  • 2011-11-22
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google использует исторические данные о поведении пользователей для сохранения эффективных синонимов
Google постоянно обновляет модели, определяющие синонимы для расширения запросов. Этот патент описывает защитный механизм: если новая модель отключает синоним, который исторически давал хорошие результаты (пользователи были довольны выдачей), система автоматически вернет этот синоним в работу, опираясь на накопленные данные о поведении пользователей.
  • US8762363B1
  • 2014-06-24
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google рассчитывает «сигнал конкурентоспособности» (Competition Signal) страниц на основе анализа кликов, показов и времени взаимодействия
Google оценивает качество страниц, анализируя их «победы» и «поражения» в поисковой выдаче. Система сравнивает, как часто пользователи выбирают данный URL вместо других и как долго они взаимодействуют с контентом по сравнению с конкурентами (Dwell Time). На основе этих данных рассчитывается корректирующий фактор, который повышает или понижает позиции страницы, отражая её относительную конкурентоспособность и удовлетворенность пользователей.
  • US9020927B1
  • 2015-04-28
  • Поведенческие сигналы

  • SERP

  • EEAT и качество

Как Google использует околоссылочный текст и заголовки (Web Quotes) для индексирования страниц и генерации сниппетов
Google анализирует текст на страницах, ссылающихся на целевой документ, извлекая «Web Quotes». Это не только текст абзаца, окружающего ссылку, но и текст из ближайших заголовков. Эти цитаты ранжируются по качеству ссылающегося источника (например, PageRank) и используются для индексирования целевой страницы (даже если этих слов на ней нет) и для формирования сниппета в результатах поиска.
  • US8495483B1
  • 2013-07-23
  • Индексация

  • Ссылки

  • SERP

Как Google извлекает, обрабатывает и индексирует анкорный текст, контекст и атрибуты входящих ссылок для ранжирования целевых страниц
Фундаментальный патент, описывающий инфраструктуру Google для обработки ссылок. Система извлекает анкорный текст, окружающий контекст и атрибуты форматирования (аннотации) из исходных страниц и инвертирует эти данные в структуру "Sorted Anchor Map". Это позволяет индексировать целевую страницу по тексту ссылок, указывающих на нее, используя эту внешнюю информацию как сигнал релевантности.
  • US7308643B1
  • 2007-12-11
  • Ссылки

  • Индексация

  • Техническое SEO

Как Google использует время пребывания на странице (Dwell Time) для оценки качества и корректировки ранжирования
Google анализирует продолжительность визитов пользователей на страницы из результатов поиска (Dwell Time). Система рассчитывает метрику, сравнивающую количество «длинных кликов» (длительных визитов) с общим количеством кликов для конкретного документа по конкретному запросу. Этот показатель используется как сигнал качества, независимый от позиции в выдаче, для повышения или понижения документа в ранжировании.
  • US8661029B1
  • 2014-02-25
  • Поведенческие сигналы

  • SERP

seohardcore