
Google анализирует статистику взаимодействий (кликов) для групп связанных бизнес-листингов (Common Business). Система вычисляет статистически нормальный уровень активности и устанавливает порог (Anomaly Detection Threshold). Резкий всплеск активности выше этого порога (например, на два стандартных отклонения) сигнализирует о наличии фейковых или спамных листингов, созданных для манипуляции локальной выдачей.
Патент решает проблему map spam или spam business listings. Это манипулятивная SEO-тактика, при которой один бизнес создает множество фейковых листингов с разными адресами (fake locations) для своего единственного реального предприятия. Цель такой манипуляции — занять больше места в локальной поисковой выдаче (Google Maps, Local Pack), создать иллюзию множества филиалов и обмануть пользователей относительно близости бизнеса, вытесняя конкурентов.
Запатентована система и метод для автоматического обнаружения потенциально ложных (фейковых) бизнес-листингов. Суть изобретения заключается в использовании статистического анализа активности (показов и кликов) для выявления аномалий. Система группирует листинги, предположительно принадлежащие одному и тому же бизнесу (Common Business), и отслеживает суммарную активность этой группы.
Система работает следующим образом:
Common Business на основе общих атрибутов (например, одинаковый URL, телефон или аккаунт владельца).Impression Values, в частности, клики по листингу) за базовый период.Anomaly Detection Threshold — порог обнаружения аномалий (например, два стандартных отклонения от среднего уровня активности).Высокая. Борьба со спамом в локальном поиске (Google Maps / Local Search) остается одной из приоритетных задач Google. Создание фейковых точек в Google Business Profile — распространенная проблема. Описанный в патенте статистический подход к выявлению массовых манипуляций остается актуальным как базовая линия защиты, хотя современные системы наверняка дополнены более сложными ML-моделями.
Влияние на Local SEO высокое (8.5/10). Патент описывает конкретный механизм, направленный против ключевой спам-тактики в локальном продвижении — создания сетей фейковых локаций. Он демонстрирует, что Google отслеживает активность не только отдельных листингов, но и агрегированные данные по связанным сущностям. Это подчеркивает высокие риски использования неаутентичных данных и создания дубликатов в Google Business Profile.
Impression Value, используемое для сравнения с порогом, именно как *количество выборов (кликов)* пользователем после показа.Impression Values для расчета Anomaly Detection Threshold.Impression Values сравниваются с порогом для выявления аномалий.Claim 1 (Независимый пункт) и Claim 14 (Независимый пункт): Описывают основной метод обнаружения потенциально ложных бизнес-листингов.
Anomaly Detection Threshold для Common Business. Порог вычисляется на основе множества Impression Values для листингов этого бизнеса за первый период времени.Impression Values в этих пунктах строго определяются как количество раз, когда соответствующий листинг был *выбран пользователем* (кликнут) после того, как был ему представлен для просмотра.Impression Values (кликами) за второй период времени.Anomaly Detection Threshold, система идентифицирует Common Business как имеющий потенциально ложные бизнес-листинги.Claim 2 (Зависимый от 1) и Claim 15: Уточняют расчет порога.
Anomaly Detection Threshold может быть определен как два стандартных отклонения выше среднего количества показов/кликов (average number of impressions) для множества бизнес-листингов.
Claim 4 (Зависимый от 1) и Claim 17: Определяют механизм группировки.
Множество бизнес-листингов ассоциируется с Common Business, если каждый из листингов имеет "существенно одинаковое значение атрибута" (substantial same business listing attribute value) для определенного атрибута (например, одинаковый URL или номер телефона).
Claim 13 (Зависимый от 1) и Claim 26: Описывают действия после обнаружения.
Система может запросить верификацию (request verification) того, что идентифицированный Common Business действительно имеет потенциально ложные листинги. Это подразумевает возможность ручной модерации или дополнительной проверки.
Изобретение представляет собой систему мониторинга и контроля качества данных в базе локальных бизнес-листингов. Она взаимодействует с несколькими этапами поисковой архитектуры.
CRAWLING – Сканирование и Сбор данных (Data Acquisition)
Система постоянно собирает данные из логов сервера о взаимодействии пользователей с бизнес-листингами. Это включает фиксацию показов и кликов (Impression Values) для каждого листинга.
INDEXING – Индексирование и извлечение признаков
На этом этапе или в процессе предобработки данных система анализирует атрибуты листингов (телефоны, URL, названия) и данные владельцев аккаунтов для группировки связанных листингов в Common Business. Также происходит анализ исторических данных (Первый период) для вычисления Anomaly Detection Threshold.
RANKING / RERANKING (Влияние)
Сам механизм не участвует в ранжировании напрямую в реальном времени. Однако его результаты (идентификация фейковых листингов) используются для очистки индекса. В патенте упоминается, что ложные листинги могут быть удалены или понижены в релевантности (demoted). Это напрямую влияет на качество и состав локальной поисковой выдачи, которую видят пользователи.
Входные данные:
Business Listing Impression Database), содержащая логи Impression Values (показы и клики) с временными метками.Anomaly Detection Parameters): определение периода, сегментации времени, статистического порога (например, количество стандартных отклонений).Выходные данные:
Common Business), чья активность превысила порог.Map Spam: услуги на дому (сантехники, электрики, слесари), эвакуаторы, ремонт техники, такси, доставка еды.Impression Values (в частности, клики) для Common Business за Второй период превышают рассчитанный Anomaly Detection Threshold.Процесс можно разделить на два основных этапа: подготовка и мониторинг.
Этап 1: Подготовка и Расчет Порога
Common Business путем анализа базы данных листингов. Листинги группируются по совпадению ключевых атрибутов (URL, телефон) или по владельцу аккаунта.Common Business извлекаются Impression Values (клики) за базовый период (например, последние 30 дней).Anomaly Detection Threshold. Согласно патенту (Claim 2), он может быть равен: Average+2∗σ.Этап 2: Мониторинг и Обнаружение (Второй период)
Impression Values (клики) для Common Business за период мониторинга (например, за последний день).Anomaly Detection Threshold.Common Business помечается как имеющий потенциально ложные листинги. Система может инициировать запрос на верификацию (ручную проверку).Common Business.Impression Values. Хотя в описании упоминаются и показы, и клики, формула изобретения (Claims 1, 14, 28) для обнаружения аномалий фокусируется именно на кликах (выборе пользователем листинга после показа).Impression Value. Данные анализируются в рамках Первого (базового) и Второго (мониторингового) периодов.Common Business.Anomaly Detection Threshold.Формула: Threshold=Average+N∗σ (где N=2 в примере из патента).
Common Business.Impression Values, формула изобретения (Claims 1, 14, 28) определяет ключевой сигнал для обнаружения аномалий именно как количество *выборов* (кликов) пользователем, а не просто показов.Anomaly Detection Threshold с использованием стандартных отклонений. Резкий всплеск активности выше этого порога является триггером для расследования.request verification) после автоматического обнаружения аномалии, что предполагает участие модераторов или асессоров для подтверждения того, что листинги действительно являются ложными.Common Business и обнаружит манипуляцию.Impression Values для Common Business и срабатыванию Anomaly Detection Threshold.Патент подтверждает стратегический приоритет Google в обеспечении достоверности и качества данных в локальном поиске. Манипулятивные тактики в Local SEO, направленные на обман системы относительно географического присутствия бизнеса, несут высокие риски. Система способна автоматически выявлять попытки масштабирования таких тактик. Долгосрочная стратегия в локальном SEO должна базироваться на развитии реального присутствия, работе с репутацией и улучшении локальных сигналов для аутентичных точек.
Сценарий: Обнаружение спам-сети службы по вскрытию замков
Common Business на основе общего URL и телефона.Anomaly Detection Threshold (например, на уровне 50 кликов в день, исходя из среднего 30 и стандартного отклонения 10).Impression Values) резко возрастает до 300 кликов в день.Что такое "Map Spam" в контексте этого патента?
Map Spam (или Spam Business Listings) — это практика создания множества фейковых бизнес-листингов для одного реального бизнеса. Спамеры используют разные адреса, чтобы создать иллюзию наличия филиалов по всему городу или региону, но все звонки и клики ведут в одну и ту же компанию. Это делается для манипуляции локальной выдачей и вытеснения конкурентов.
Как система определяет, что несколько листингов принадлежат одному бизнесу (Common Business)?
Система группирует листинги, если они имеют "существенно одинаковое значение атрибута". На практике это означает совпадение ключевых идентификаторов, таких как URL веб-сайта, основной номер телефона или адрес электронной почты. Также листинги могут быть сгруппированы, если они созданы из одного аккаунта пользователя.
Что такое "Impression Value"? Это только показы или клики тоже?
В общем описании патента Impression Value может означать как показ листинга, так и клик по нему. Однако, в ключевых пунктах формулы изобретения (Claims 1, 14, 28), которые определяют ядро защищаемого механизма, Impression Value строго определяется как количество раз, когда листинг был *выбран* (кликнут) пользователем после показа. Именно аномалии в кликах являются триггером.
Как рассчитывается "Anomaly Detection Threshold"?
Система анализирует исторические данные об активности (кликах) за базовый период (Первый период) и вычисляет среднее значение и стандартное отклонение. Согласно патенту (Claim 2), порог может быть установлен как два стандартных отклонения выше среднего уровня активности. Активность выше этого порога считается аномальной.
Означает ли превышение порога автоматический бан листингов?
Не обязательно немедленный бан. Патент указывает (Claim 13), что после автоматического обнаружения аномалии система может запросить верификацию (request verification). Это означает, что подозрительные листинги, скорее всего, отправляются на ручную модерацию или подвергаются дополнительным проверкам для подтверждения их фейкового статуса.
Как этот патент влияет на многофилиальные бизнесы с реальными адресами?
Легитимные многофилиальные бизнесы не должны пострадать, если они соблюдают правила. Важно, чтобы каждый филиал имел реальный адрес, уникальный локальный номер телефона и, желательно, уникальную посадочную страницу. Рост активности за счет открытия реальных новых точек отличается по паттернам от массового создания фейковых листингов.
Может ли резкий рост популярности реального бизнеса (например, из-за вирусной рекламы) быть ошибочно принят за спам?
Теоретически, резкий всплеск активности может превысить Anomaly Detection Threshold. Однако система предназначена для обнаружения спама, связанного с множественными листингами (Common Business). Для одиночного листинга пороги могут быть иными. Кроме того, этап верификации помогает отделить органический рост популярности от манипуляций с фейковыми адресами.
Означает ли этот патент, что накрутка поведенческих факторов в GBP опасна?
Да, абсолютно. Поскольку система использует Impression Values, основанные на кликах (согласно Claims), для обнаружения статистических аномалий, любая искусственная накрутка кликов будет зафиксирована как аномалия. Если эта активность превысит Anomaly Detection Threshold, это приведет к пометке листингов как потенциально ложных и последующим санкциям.
Влияет ли этот механизм на ранжирование или только на удаление спама?
Этот механизм направлен на обнаружение и удаление спама (очистку индекса). Он не описывает алгоритм ранжирования. Однако, удаление спамных листингов из выдачи напрямую влияет на то, какие результаты ранжируются выше, освобождая место для легитимных бизнесов. Также в патенте упоминается возможность понижения (demotion) релевантности спамных листингов.
Какова основная уязвимость спам-стратегий, которую эксплуатирует этот патент?
Основная уязвимость заключается в том, что цель спама — получить больше трафика. Однако, как только спам-сеть достигает успеха и начинает генерировать значительный объем взаимодействий (кликов), она создает статистическую аномалию в агрегированных данных Common Business. Успех спама приводит к его обнаружению этой системой.

Антиспам
Local SEO
EEAT и качество

Антиспам
Local SEO
EEAT и качество

Антиспам
Local SEO

Антиспам
Local SEO

Антиспам
Local SEO

Семантика и интент
Поведенческие сигналы
SERP

Knowledge Graph
Семантика и интент
Ссылки

Поведенческие сигналы

SERP
Поведенческие сигналы

Ссылки
Мультимедиа
Поведенческие сигналы

Ссылки
SERP

Персонализация
Поведенческие сигналы
SERP

EEAT и качество
Поведенческие сигналы
SERP

Поведенческие сигналы
Семантика и интент
SERP

Local SEO
SERP
Ссылки
