SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует анализ аномалий в показах и кликах для выявления фейковых локальных бизнес-листингов (Map Spam)

DETECTING POTENTIALLY FALSE BUSINESS LISTINGS BASED ON AN ANOMALY DETECTION THRESHOLD (Обнаружение потенциально ложных бизнес-листингов на основе порога обнаружения аномалий)
  • US20150154610A1
  • Google LLC
  • 2011-06-24
  • 2015-06-04
  • Local SEO
  • Антиспам
  • Поведенческие сигналы
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google анализирует статистику взаимодействий (кликов) для групп связанных бизнес-листингов (Common Business). Система вычисляет статистически нормальный уровень активности и устанавливает порог (Anomaly Detection Threshold). Резкий всплеск активности выше этого порога (например, на два стандартных отклонения) сигнализирует о наличии фейковых или спамных листингов, созданных для манипуляции локальной выдачей.

Описание

Какую проблему решает

Патент решает проблему map spam или spam business listings. Это манипулятивная SEO-тактика, при которой один бизнес создает множество фейковых листингов с разными адресами (fake locations) для своего единственного реального предприятия. Цель такой манипуляции — занять больше места в локальной поисковой выдаче (Google Maps, Local Pack), создать иллюзию множества филиалов и обмануть пользователей относительно близости бизнеса, вытесняя конкурентов.

Что запатентовано

Запатентована система и метод для автоматического обнаружения потенциально ложных (фейковых) бизнес-листингов. Суть изобретения заключается в использовании статистического анализа активности (показов и кликов) для выявления аномалий. Система группирует листинги, предположительно принадлежащие одному и тому же бизнесу (Common Business), и отслеживает суммарную активность этой группы.

Как это работает

Система работает следующим образом:

  • Группировка: Листинги объединяются в группу Common Business на основе общих атрибутов (например, одинаковый URL, телефон или аккаунт владельца).
  • Сбор данных: Собираются данные об активности (Impression Values, в частности, клики по листингу) за базовый период.
  • Расчет порога: На основе статистики вычисляется Anomaly Detection Threshold — порог обнаружения аномалий (например, два стандартных отклонения от среднего уровня активности).
  • Мониторинг и обнаружение: Система сравнивает текущую активность группы листингов с порогом. Если активность аномально высока и превышает порог, система идентифицирует эти листинги как потенциально ложные.

Актуальность для SEO

Высокая. Борьба со спамом в локальном поиске (Google Maps / Local Search) остается одной из приоритетных задач Google. Создание фейковых точек в Google Business Profile — распространенная проблема. Описанный в патенте статистический подход к выявлению массовых манипуляций остается актуальным как базовая линия защиты, хотя современные системы наверняка дополнены более сложными ML-моделями.

Важность для SEO

Влияние на Local SEO высокое (8.5/10). Патент описывает конкретный механизм, направленный против ключевой спам-тактики в локальном продвижении — создания сетей фейковых локаций. Он демонстрирует, что Google отслеживает активность не только отдельных листингов, но и агрегированные данные по связанным сущностям. Это подчеркивает высокие риски использования неаутентичных данных и создания дубликатов в Google Business Profile.

Детальный разбор

Термины и определения

Anomaly Detection Threshold (Порог обнаружения аномалий)
Статистически рассчитанное пороговое значение активности. Активность выше этого порога считается аномальной и сигнализирует о потенциально ложных листингах. Может рассчитываться как среднее значение плюс несколько стандартных отклонений.
Business Listing (Бизнес-листинг)
Запись в базе данных, содержащая информацию о бизнесе (название, телефон, адрес, URL и т.д.). Эквивалент профиля в Google Business Profile.
Common Business (Общий бизнес)
Группа из нескольких бизнес-листингов, которые система идентифицировала как принадлежащие одной и той же организации или владельцу. Идентификация происходит по совпадению ключевых атрибутов (URL, телефон) или по принадлежности к одному аккаунту пользователя.
Impression Value (Значение показа/активности)
Метрика, отражающая активность, связанную с бизнес-листингом. Патент описывает два типа: 1) Показ листинга пользователю. 2) Выбор (клик) пользователем листинга. Важно: Claims (Формула изобретения) патента определяют Impression Value, используемое для сравнения с порогом, именно как *количество выборов (кликов)* пользователем после показа.
First Time Period (Первый период времени)
Базовый период, за который собирается статистика Impression Values для расчета Anomaly Detection Threshold.
Second Time Period (Второй период времени)
Период мониторинга, за который Impression Values сравниваются с порогом для выявления аномалий.
Spam Business Listings / Map Spam (Спамные бизнес-листинги)
Фейковые бизнес-листинги, созданные для манипуляции поисковой выдачей, часто с ложными адресами, но ведущие на реальный телефон или сайт владельца.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт) и Claim 14 (Независимый пункт): Описывают основной метод обнаружения потенциально ложных бизнес-листингов.

  1. Определение Anomaly Detection Threshold для Common Business. Порог вычисляется на основе множества Impression Values для листингов этого бизнеса за первый период времени.
  2. Критическое уточнение (из текста Claims 1, 14, 28): Impression Values в этих пунктах строго определяются как количество раз, когда соответствующий листинг был *выбран пользователем* (кликнут) после того, как был ему представлен для просмотра.
  3. Сравнение этого порога с одним или несколькими Impression Values (кликами) за второй период времени.
  4. Если значения за второй период превышают Anomaly Detection Threshold, система идентифицирует Common Business как имеющий потенциально ложные бизнес-листинги.

Claim 2 (Зависимый от 1) и Claim 15: Уточняют расчет порога.

Anomaly Detection Threshold может быть определен как два стандартных отклонения выше среднего количества показов/кликов (average number of impressions) для множества бизнес-листингов.

Claim 4 (Зависимый от 1) и Claim 17: Определяют механизм группировки.

Множество бизнес-листингов ассоциируется с Common Business, если каждый из листингов имеет "существенно одинаковое значение атрибута" (substantial same business listing attribute value) для определенного атрибута (например, одинаковый URL или номер телефона).

Claim 13 (Зависимый от 1) и Claim 26: Описывают действия после обнаружения.

Система может запросить верификацию (request verification) того, что идентифицированный Common Business действительно имеет потенциально ложные листинги. Это подразумевает возможность ручной модерации или дополнительной проверки.

Где и как применяется

Изобретение представляет собой систему мониторинга и контроля качества данных в базе локальных бизнес-листингов. Она взаимодействует с несколькими этапами поисковой архитектуры.

CRAWLING – Сканирование и Сбор данных (Data Acquisition)
Система постоянно собирает данные из логов сервера о взаимодействии пользователей с бизнес-листингами. Это включает фиксацию показов и кликов (Impression Values) для каждого листинга.

INDEXING – Индексирование и извлечение признаков
На этом этапе или в процессе предобработки данных система анализирует атрибуты листингов (телефоны, URL, названия) и данные владельцев аккаунтов для группировки связанных листингов в Common Business. Также происходит анализ исторических данных (Первый период) для вычисления Anomaly Detection Threshold.

RANKING / RERANKING (Влияние)
Сам механизм не участвует в ранжировании напрямую в реальном времени. Однако его результаты (идентификация фейковых листингов) используются для очистки индекса. В патенте упоминается, что ложные листинги могут быть удалены или понижены в релевантности (demoted). Это напрямую влияет на качество и состав локальной поисковой выдачи, которую видят пользователи.

Входные данные:

  • База данных бизнес-листингов с атрибутами.
  • База данных показов (Business Listing Impression Database), содержащая логи Impression Values (показы и клики) с временными метками.
  • Параметры обнаружения аномалий (Anomaly Detection Parameters): определение периода, сегментации времени, статистического порога (например, количество стандартных отклонений).

Выходные данные:

  • Идентификация групп листингов (Common Business), чья активность превысила порог.
  • Запросы на верификацию (модерацию) подозрительных листингов.

На что влияет

  • Конкретные типы контента: Влияет исключительно на локальные бизнес-листинги (Google Business Profiles), отображаемые в Google Maps и локальном блоке (Local Pack) основной выдачи.
  • Специфические запросы: Влияет на все запросы с локальным интентом (например, "пицца рядом", "сантехник Москва").
  • Конкретные ниши или тематики: Наибольшее влияние в нишах, подверженных Map Spam: услуги на дому (сантехники, электрики, слесари), эвакуаторы, ремонт техники, такси, доставка еды.

Когда применяется

  • При каких условиях работает алгоритм: Алгоритм анализа логов и сравнения с порогом работает постоянно или периодически (например, ежедневный анализ активности за предыдущий день).
  • Триггеры активации: Триггером для идентификации спама является событие, когда Impression Values (в частности, клики) для Common Business за Второй период превышают рассчитанный Anomaly Detection Threshold.

Пошаговый алгоритм

Процесс можно разделить на два основных этапа: подготовка и мониторинг.

Этап 1: Подготовка и Расчет Порога

  1. Группировка листингов: Идентификация Common Business путем анализа базы данных листингов. Листинги группируются по совпадению ключевых атрибутов (URL, телефон) или по владельцу аккаунта.
  2. Сбор данных (Первый период): Для выбранного Common Business извлекаются Impression Values (клики) за базовый период (например, последние 30 дней).
  3. Сегментация времени: Данные агрегируются по временным сегментам (например, клики за каждый день).
  4. Статистический анализ: Рассчитывается среднее количество кликов (Average) за сегмент и стандартное отклонение (Standard Deviation, σ) для этого набора данных.
  5. Определение порога: Устанавливается Anomaly Detection Threshold. Согласно патенту (Claim 2), он может быть равен: Average+2∗σAverage + 2 * \sigmaAverage+2∗σ.

Этап 2: Мониторинг и Обнаружение (Второй период)

  1. Сбор текущих данных: Собираются Impression Values (клики) для Common Business за период мониторинга (например, за последний день).
  2. Сравнение с порогом: Текущая активность сравнивается с Anomaly Detection Threshold.
  3. Принятие решения: Если текущая активность превышает порог, фиксируется аномалия.
  4. Идентификация и Верификация: Common Business помечается как имеющий потенциально ложные листинги. Система может инициировать запрос на верификацию (ручную проверку).

Какие данные и как использует

Данные на входе

  • Контентные/Структурные факторы (Атрибуты листинга):
    • Название бизнеса (Business listing title).
    • Номер телефона (Business listing phone number).
    • URL веб-сайта (Web site associated with the business listing).
    Эти данные используются для группировки листингов в Common Business.
  • Поведенческие факторы: Impression Values. Хотя в описании упоминаются и показы, и клики, формула изобретения (Claims 1, 14, 28) для обнаружения аномалий фокусируется именно на кликах (выборе пользователем листинга после показа).
  • Временные факторы: Временные метки для каждого Impression Value. Данные анализируются в рамках Первого (базового) и Второго (мониторингового) периодов.
  • Пользовательские факторы (Данные владельца): Аккаунт пользователя, создавшего листинги. Используется как один из способов группировки в Common Business.

Какие метрики используются и как они считаются

  • Статистические методы: Система использует базовые статистические методы для анализа распределения данных.
  • Метрики:
    • Среднее количество кликов (Average number of impressions).
    • Стандартное отклонение (Standard Deviation, σ).
    • Anomaly Detection Threshold.
  • Формулы и алгоритмы расчета: Конкретная формула порога не приводится, но Claim 2 указывает, что порог может быть установлен на уровне двух стандартных отклонений выше среднего.

    Формула: Threshold=Average+N∗σThreshold = Average + N * \sigmaThreshold=Average+N∗σ (где N=2 в примере из патента).

  • Кластеризация и классификация: Используется метод группировки (кластеризации) листингов на основе совпадения атрибутов для определения Common Business.

Выводы

  1. Борьба с Map Spam через анализ активности: Google использует статистический анализ поведенческих данных (показов и кликов) для автоматического обнаружения сетей фейковых локальных листингов.
  2. Фокус на агрегированных данных (Common Business): Система отслеживает не столько отдельные листинги, сколько группы листингов, связанных общими атрибутами (сайт, телефон) или владельцем. Массовое создание спамных листингов приводит к аномальному росту суммарной активности группы.
  3. Клики как ключевой сигнал в Claims: Несмотря на то, что в описании патента обсуждаются разные типы Impression Values, формула изобретения (Claims 1, 14, 28) определяет ключевой сигнал для обнаружения аномалий именно как количество *выборов* (кликов) пользователем, а не просто показов.
  4. Статистический порог как триггер: Обнаружение основано на вычислении Anomaly Detection Threshold с использованием стандартных отклонений. Резкий всплеск активности выше этого порога является триггером для расследования.
  5. Возможность ручной верификации: Патент предусматривает этап верификации (request verification) после автоматического обнаружения аномалии, что предполагает участие модераторов или асессоров для подтверждения того, что листинги действительно являются ложными.

Практика

Best practices (это мы делаем)

  • Соблюдение принципа аутентичности: Вести Google Business Profile строго в соответствии с правилами: один реальный физический адрес = один листинг. Для Service Area Businesses (бизнес с зоной обслуживания без офиса) – один листинг на территорию обслуживания.
  • Уникализация данных для многофилиальных сетей: Для каждого реального филиала необходимо использовать уникальный локальный номер телефона и уникальную посадочную страницу на сайте. Использование общих атрибутов должно быть логически обосновано и не вводить в заблуждение относительно местоположения.
  • Обеспечение органического роста: Фокусироваться на естественном и постепенном росте активности в профиле (отзывы, клики, звонки). Резкий всплеск активности, особенно сразу после создания множества новых листингов, будет выглядеть подозрительно для статистической модели, описанной в патенте.
  • Мониторинг конкурентов и борьба со спамом: Легитимным бизнесам следует отслеживать появление спамных листингов конкурентов (особенно с общими атрибутами) и сообщать о них Google (Redressal Complaints). Система, описанная в патенте, направлена на автоматизацию этого процесса, но участие сообщества помогает быстрее очищать выдачу.

Worst practices (это делать не надо)

  • Создание сетей фейковых локаций (Map Spam): Создание множества листингов для одного бизнеса с использованием адресов виртуальных офисов, абонентских ящиков или фиктивных адресов. Эта тактика напрямую направлена на манипуляцию, против которой борется данный патент.
  • Использование общих идентификаторов для псевдо-филиалов: Использование одного и того же номера телефона или URL сайта для множества листингов в разных городах или районах с целью симуляции широкого покрытия. Система легко сгруппирует их в Common Business и обнаружит манипуляцию.
  • Массовое создание дубликатов: Быстрое создание большого количества идентичных или похожих листингов. Это приведет к резкому увеличению суммарных Impression Values для Common Business и срабатыванию Anomaly Detection Threshold.
  • Накрутка поведенческих факторов (Клик-фрод): Генерация искусственных кликов по своим листингам. Так как система анализирует клики (согласно Claims), накрутка напрямую создает статистические аномалии, которые система предназначена обнаруживать.

Стратегическое значение

Патент подтверждает стратегический приоритет Google в обеспечении достоверности и качества данных в локальном поиске. Манипулятивные тактики в Local SEO, направленные на обман системы относительно географического присутствия бизнеса, несут высокие риски. Система способна автоматически выявлять попытки масштабирования таких тактик. Долгосрочная стратегия в локальном SEO должна базироваться на развитии реального присутствия, работе с репутацией и улучшении локальных сигналов для аутентичных точек.

Практические примеры

Сценарий: Обнаружение спам-сети службы по вскрытию замков

  1. Действие спамера: Служба по вскрытию замков (реально один офис) хочет охватить весь город. Она создает 50 бизнес-листингов, используя фиктивные адреса в разных районах города. Все листинги используют один и тот же веб-сайт и один и тот же номер телефона.
  2. Группировка: Система Google анализирует атрибуты и группирует все 50 листингов в один Common Business на основе общего URL и телефона.
  3. Расчет порога: Система анализирует историческую активность и устанавливает Anomaly Detection Threshold (например, на уровне 50 кликов в день, исходя из среднего 30 и стандартного отклонения 10).
  4. Обнаружение аномалии: После того как все 50 листингов проиндексированы и начинают ранжироваться, суммарное количество кликов (Impression Values) резко возрастает до 300 кликов в день.
  5. Срабатывание триггера: 300 кликов значительно превышает порог в 50 кликов.
  6. Результат: Система автоматически помечает все 50 листингов как потенциально ложные и отправляет запрос на верификацию. После проверки листинги блокируются.

Вопросы и ответы

Что такое "Map Spam" в контексте этого патента?

Map Spam (или Spam Business Listings) — это практика создания множества фейковых бизнес-листингов для одного реального бизнеса. Спамеры используют разные адреса, чтобы создать иллюзию наличия филиалов по всему городу или региону, но все звонки и клики ведут в одну и ту же компанию. Это делается для манипуляции локальной выдачей и вытеснения конкурентов.

Как система определяет, что несколько листингов принадлежат одному бизнесу (Common Business)?

Система группирует листинги, если они имеют "существенно одинаковое значение атрибута". На практике это означает совпадение ключевых идентификаторов, таких как URL веб-сайта, основной номер телефона или адрес электронной почты. Также листинги могут быть сгруппированы, если они созданы из одного аккаунта пользователя.

Что такое "Impression Value"? Это только показы или клики тоже?

В общем описании патента Impression Value может означать как показ листинга, так и клик по нему. Однако, в ключевых пунктах формулы изобретения (Claims 1, 14, 28), которые определяют ядро защищаемого механизма, Impression Value строго определяется как количество раз, когда листинг был *выбран* (кликнут) пользователем после показа. Именно аномалии в кликах являются триггером.

Как рассчитывается "Anomaly Detection Threshold"?

Система анализирует исторические данные об активности (кликах) за базовый период (Первый период) и вычисляет среднее значение и стандартное отклонение. Согласно патенту (Claim 2), порог может быть установлен как два стандартных отклонения выше среднего уровня активности. Активность выше этого порога считается аномальной.

Означает ли превышение порога автоматический бан листингов?

Не обязательно немедленный бан. Патент указывает (Claim 13), что после автоматического обнаружения аномалии система может запросить верификацию (request verification). Это означает, что подозрительные листинги, скорее всего, отправляются на ручную модерацию или подвергаются дополнительным проверкам для подтверждения их фейкового статуса.

Как этот патент влияет на многофилиальные бизнесы с реальными адресами?

Легитимные многофилиальные бизнесы не должны пострадать, если они соблюдают правила. Важно, чтобы каждый филиал имел реальный адрес, уникальный локальный номер телефона и, желательно, уникальную посадочную страницу. Рост активности за счет открытия реальных новых точек отличается по паттернам от массового создания фейковых листингов.

Может ли резкий рост популярности реального бизнеса (например, из-за вирусной рекламы) быть ошибочно принят за спам?

Теоретически, резкий всплеск активности может превысить Anomaly Detection Threshold. Однако система предназначена для обнаружения спама, связанного с множественными листингами (Common Business). Для одиночного листинга пороги могут быть иными. Кроме того, этап верификации помогает отделить органический рост популярности от манипуляций с фейковыми адресами.

Означает ли этот патент, что накрутка поведенческих факторов в GBP опасна?

Да, абсолютно. Поскольку система использует Impression Values, основанные на кликах (согласно Claims), для обнаружения статистических аномалий, любая искусственная накрутка кликов будет зафиксирована как аномалия. Если эта активность превысит Anomaly Detection Threshold, это приведет к пометке листингов как потенциально ложных и последующим санкциям.

Влияет ли этот механизм на ранжирование или только на удаление спама?

Этот механизм направлен на обнаружение и удаление спама (очистку индекса). Он не описывает алгоритм ранжирования. Однако, удаление спамных листингов из выдачи напрямую влияет на то, какие результаты ранжируются выше, освобождая место для легитимных бизнесов. Также в патенте упоминается возможность понижения (demotion) релевантности спамных листингов.

Какова основная уязвимость спам-стратегий, которую эксплуатирует этот патент?

Основная уязвимость заключается в том, что цель спама — получить больше трафика. Однако, как только спам-сеть достигает успеха и начинает генерировать значительный объем взаимодействий (кликов), она создает статистическую аномалию в агрегированных данных Common Business. Успех спама приводит к его обнаружению этой системой.

Похожие патенты

Как Google использует отзывы пользователей для обнаружения спама и фейковых компаний в локальном поиске (Google Maps)
Google анализирует текст отзывов о компаниях для выявления спама в бизнес-листингах. Система ищет стоп-слова (например, "фейк", "не существует"), выявляет нерелевантные термины для категории бизнеса и сравнивает отзывы с базой известного спама. При превышении порога подозрительных сигналов листинг помечается как спам.
  • US8621623B1
  • 2013-12-31
  • Антиспам

  • Local SEO

  • EEAT и качество

Как Google борется со спамом в бизнес-профилях (Local SEO), используя контекстуальный анализ и калибровку оценок спама
Google использует систему для обнаружения спамных бизнес-листингов (Local SEO), сравнивая данные из доверенных и ненадежных источников в рамках конкретных бизнес-контекстов (например, «сантехники» против «юристов»). Система выявляет характеристики, статистически связанные со спамом в данной нише, генерирует оценку спама и калибрует её в вероятность с помощью логистической регрессии для точной фильтрации.
  • US8738557B1
  • 2014-05-27
  • Антиспам

  • Local SEO

  • EEAT и качество

Как Google использует «Оценку Неожиданности» (Surprisingness Value) для выявления и фильтрации переспама в названиях компаний в локальном поиске
Google использует статистический анализ для борьбы со спамом в названиях компаний (например, в Google Maps). Система анализирует корпус легитимных названий, чтобы понять естественные комбинации слов. Затем для проверяемого названия вычисляется «Оценка Неожиданности» (Surprisingness Value). Если сочетание слов слишком маловероятно (например, «Ресторан Слесарь»), листинг помечается как спам и исключается из выдачи.
  • US8473491B1
  • 2013-06-25
  • Антиспам

  • Local SEO

Как Google использует закон Ципфа для выявления спама и манипуляций с названиями в локальных листингах
Google анализирует все известные названия (Titles), связанные с локальным бизнесом. Система сравнивает распределение частотности слов в этих названиях с двумя моделями: равномерным распределением (характерно для легитимных данных из разных источников) и распределением по закону Ципфа (характерно для маркетинговых текстов и спама). Если распределение ближе к закону Ципфа, листинг помечается как потенциальный спам и понижается в локальной выдаче.
  • US9483566B2
  • 2016-11-01
  • Антиспам

  • Local SEO

Как Google выявляет спам в Локальном Поиске, анализируя частоту изменений в листингах и коммерческую ценность ключевых слов
Google использует систему для выявления спама в локальной выдаче (например, на Картах). Система анализирует, насколько часто определенные термины появляются в обновлениях бизнес-листингов (Flux) и какова их потенциальная коммерческая ценность (Monetary Value). Если высокодоходные термины часто изменяются или добавляются, система помечает эти термины и использующие их листинги как потенциальный спам и понижает их в ранжировании.
  • US20150154612A1
  • 2015-06-04
  • Антиспам

  • Local SEO

Популярные патенты

Как Google перенаправляет пользователей на «идеальные» запросы (KHRQ), анализируя поведение и удовлетворенность
Google анализирует логи запросов, чтобы определить «известные высокоранжированные запросы» (KHRQ) — те, которые пользователи вводят часто и которыми остаются довольны (редко переформулируют или долго изучают результаты). Система вычисляет вероятность того, что исходный запрос пользователя лучше заменить на KHRQ, основываясь на сходстве запросов и исторических цепочках переформулировок. Это позволяет направлять пользователей к наиболее эффективным формулировкам.
  • US7870147B2
  • 2011-01-11
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google автоматически распознает сущности в тексте и связывает их в Knowledge Graph с помощью динамических поисковых ссылок
Google использует автоматизированную систему для поддержания связей между сущностями (объектами) в своем хранилище фактов (Knowledge Graph). Система сканирует текст, статистически определяет значимые фразы и сверяет их со списком известных объектов. При совпадении создается динамическая «поисковая ссылка» вместо фиксированного URL. Это позволяет Google постоянно обновлять связи по мере добавления новых знаний.
  • US8260785B2
  • 2012-09-04
  • Knowledge Graph

  • Семантика и интент

  • Ссылки

Как Google использует распределение кликов по разным типам запросов для оценки общего качества сайта (Website Quality Score)
Google оценивает качество сайта не по общему CTR, а по тому, в ответ на какие запросы он получает клики. Система сегментирует пользовательский фидбек (клики, CTR) по различным параметрам запроса (например, конкурентность, длина, популярность). Сайт считается качественным, если он получает много кликов в ответ на высококонкурентные и популярные запросы, а не только на низкочастотные или нечеткие.
  • US8615514B1
  • 2013-12-24
  • Поведенческие сигналы

Как Google использует вероятностные модели и анализ пользовательского выбора (кликов) для обучения систем ранжирования
Патент Google описывает метод эффективного ранжирования контента (видео или результатов поиска) с использованием парных сравнений. Система моделирует качество как вероятностное распределение и оптимизирует сбор данных. Этот механизм может применяться для интерпретации кликов в поисковой выдаче как сигналов предпочтения, учитывая позицию результата и доверие к пользователю.
  • US8688716B1
  • 2014-04-01
  • SERP

  • Поведенческие сигналы

Как Google рассчитывает «VisualRank» для изображений и медиафайлов, используя виртуальные ссылки на основе схожести и поведения пользователей
Google использует алгоритм (концептуально называемый VisualRank) для ранжирования изображений и других медиафайлов путем создания «виртуальных ссылок» между ними. Эти ссылки основаны на визуальной схожести контента, данных о кликах пользователей и контексте размещения (URL analysis). Это позволяет оценить качество и авторитетность медиафайлов даже без явных гиперссылок, при этом система активно избегает показа слишком похожих (дублирующихся) результатов.
  • US8732187B1
  • 2014-05-20
  • Ссылки

  • Мультимедиа

  • Поведенческие сигналы

Как Google автоматически добавляет текст существующих объявлений к сайтлинкам (Sitelinks) для повышения CTR
Google использует систему для автоматического улучшения сайтлинков в рекламных объявлениях. Система анализирует существующие текстовые объявления (креативы) рекламодателя и определяет их конечные целевые страницы, игнорируя параметры отслеживания. Затем она сопоставляет их с URL сайтлинков и добавляет наиболее релевантный и эффективный текст креатива к сайтлинку для повышения кликабельности (CTR).
  • US10650066B2
  • 2020-05-12
  • Ссылки

  • SERP

Как Google использует историю поиска и ссылки с предпочитаемых пользователем сайтов для персонализации выдачи
Google может персонализировать результаты поиска, используя историю запросов или просмотров пользователя для создания набора предпочтений (Document Bias Set). Если документы из этого набора, особенно те, которые также признаны глобально качественными, ссылаются на результаты поиска, эти результаты переранжируются (повышаются или понижаются) в соответствии с весами предпочтений пользователя.
  • US8538970B1
  • 2013-09-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google идентифицирует экспертов на основе их активности и позволяет фильтровать выдачу по их контенту
Google использует систему для идентификации людей (членов социальной сети), тесно связанных с темой запроса, на основе их активности (посты, взаимодействия, репосты) и квалификации. Система отображает этих людей в специальных блоках (Display Areas) рядом с результатами поиска, позволяя пользователям просматривать их профили или фильтровать выдачу, чтобы увидеть только контент, созданный, одобренный или прокомментированный этими экспертами.
  • US9244985B1
  • 2016-01-26
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

Как Google использует цепочки запросов и время взаимодействия для определения и ранжирования результатов, которые действительно нужны пользователям
Google анализирует последовательности запросов пользователей (цепочки запросов) и время между кликами и последующими запросами (время взаимодействия), чтобы определить удовлетворенность пользователя. Если пользователи часто переформулируют Запрос А в Запрос Б, прежде чем найти удовлетворительный результат, Google использует эти данные, чтобы ранжировать этот удовлетворительный результат выше по исходному Запросу А и предлагать Запрос Б в качестве связанного поиска.
  • US9342600B1
  • 2016-05-17
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google идентифицирует и верифицирует локальные бизнесы для показа карт и адресов в органической выдаче
Google использует этот механизм для улучшения органических результатов. Система определяет, связана ли веб-страница с одним конкретным бизнесом. Затем она верифицирует ее локальную значимость, проверяя, ссылаются ли на нее другие топовые результаты по тому же запросу. Если страница верифицирована, Google дополняет стандартную «синюю ссылку» интерактивными локальными данными, такими как адреса и превью карт.
  • US9418156B2
  • 2016-08-16
  • Local SEO

  • SERP

  • Ссылки

seohardcore