Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google оценивает надежность поставщиков данных и собирает базу локальных бизнесов для Google Maps и Local Search

    SYSTEMS AND METHODS FOR RANKING AND IMPORTING BUSINESS LISTINGS (Системы и методы ранжирования и импорта бизнес-листингов)
    • US8626766B1
    • Google LLC
    • 2014-01-07
    • 2011-09-28
    2011 EEAT и качество Local SEO Индексация Патенты Google

    Google использует систему для агрегации данных о локальных бизнесах (адреса, телефоны) из множества внешних источников. Система оценивает точность каждого источника путем верификации случайной выборки. Сначала импортируются данные из самого надежного источника, а затем система приоритизирует источники с наименьшим дублированием данных, чтобы максимизировать охват новой информации и эффективно строить локальный индекс.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает задачу построения точной и полной базы данных локальных бизнесов (например, для Google Maps и Local Search) путем агрегации информации из множества сторонних источников (Listing Information Sources). Основная проблема заключается в том, что эти источники (каталоги, агрегаторы, сайты отзывов) часто содержат неполные, неточные или конфликтующие данные. Изобретение предлагает механизм для оценки надежности каждого поставщика данных и стратегию импорта, которая оптимизирует как качество, так и охват агрегированной информации.

    Что запатентовано

    Запатентована система для ранжирования и импорта бизнес-листингов из различных источников. Система оценивает группы листингов (Business Listing Groups), ранжируя их на основе точности данных, подтвержденной путем верификации случайной выборки (Sample Set). Процесс импорта использует двухфазную стратегию: сначала импортируются данные из наиболее точного источника, а затем система выбирает следующие источники, минимизируя степень перекрытия (Degree of Overlap) с уже импортированными данными, чтобы максимизировать охват новой информации.

    Как это работает

    Система работает по следующему алгоритму:

    • Сбор данных: Получение нескольких групп бизнес-листингов от разных поставщиков.
    • Выборка и Верификация: Из каждой группы выбирается случайная выборка листингов. Эти данные проверяются на точность верификатором (Verifier), который может быть автоматизированной системой (например, телефонный опрос) или модератором.
    • Ранжирование источников: Группы ранжируются на основе процента точности (Accuracy Percentage) верифицированной выборки.
    • Первичный импорт (Фаза 1: Точность): Данные из группы с наивысшим рангом импортируются в основную базу (Listing Records).
    • Анализ перекрытия: Система вычисляет степень перекрытия между оставшимися группами и уже импортированными данными.
    • Последовательный импорт (Фаза 2: Охват): Выбирается следующая группа, которая имеет наименьшее перекрытие с текущей базой (даже если ее ранг не самый высокий среди оставшихся). Это позволяет максимально быстро увеличить охват уникальных данных. Процесс повторяется.

    Актуальность для SEO

    Высокая. Точные и полные данные о локальных бизнесах являются фундаментом для Google Maps, Local Search и Knowledge Graph. Управление качеством данных, получаемых от многочисленных агрегаторов, каталогов и пользователей, остается центральной задачей для поддержания качества локального индекса. Описанные механизмы верификации и агрегации критичны для экосистемы Local SEO.

    Важность для SEO

    Патент имеет высокое значение для Local SEO (8/10). Он не описывает алгоритмы ранжирования в реальном времени, но раскрывает фундаментальные механизмы того, как Google строит и валидирует свою базу данных локальных сущностей, используя внешнюю экосистему. Это напрямую подчеркивает критическую важность точности и консистентности бизнес-данных (NAP – Name, Address, Phone) во всех внешних источниках, поскольку именно они выступают в роли Listing Information Sources, качество которых Google активно измеряет и использует для разрешения конфликтов.

    Детальный разбор

    Термины и определения

    Business Listing (Бизнес-листинг)
    Запись, содержащая информацию о конкретном бизнесе (название, адрес, телефон, веб-сайт, часы работы, категория и т.д.).
    Business Listing Group (Группа бизнес-листингов)
    Набор бизнес-листингов, полученный из одного источника (Listing Information Source).
    Degree of Overlap / Percentage of Overlap (Степень/Процент перекрытия)
    Метрика, показывающая, насколько данные в одной группе листингов совпадают (дублируются) с данными в другой группе или с уже импортированными данными в основной базе.
    Directory Listing Server (Сервер каталога листингов)
    Центральная система (например, инфраструктура Google Local/Maps), которая агрегирует, обрабатывает и предоставляет бизнес-листинги пользователям.
    Listing Information Source (Источник информации о листингах)
    Внешний поставщик данных. Это могут быть агрегаторы, телефонные справочники (Yellow Pages), сайты отзывов, веб-страницы.
    Listing Records / Business Listing Records (Записи листингов)
    Основная база данных сервера, содержащая финальный, агрегированный набор бизнес-листингов, который предоставляется пользователям.
    Non-overlapping Listing (Неперекрывающийся листинг)
    Листинг, содержащий уникальные данные, отсутствующие в сравниваемом наборе данных.
    Overlapping Listing (Перекрывающийся листинг)
    Листинг, который содержит ту же (или схожую) информацию, что и листинг в другом наборе данных. Перекрытие может определяться по NAP (Name, Address, Phone).
    Sample Set (Выборка)
    Подмножество листингов, выбранное из Business Listing Group для проверки точности данных. Выборка может основываться на проценте (например, 5%), количестве или категории.
    Verification Information (Информация о верификации)
    Данные, полученные после проверки Sample Set. Включают подтверждение точности, процент точности (Accuracy Percentage) или обновленную информацию.
    Verifier (Верификатор)
    Компонент или внешний агент (автоматизированная система или человек-модератор), отвечающий за проверку точности данных в выборке, например, путем телефонного опроса.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод обработки бизнес-листингов.

    1. Система получает несколько Business Listing Groups.
    2. Из каждой группы выбирается Sample Set для верификации.
    3. Получается Verification Information для каждой выборки.
    4. Используя процессор, каждой группе присваивается ранг на основе полученной информации о верификации (точности).
    5. Выбирается группа с наивысшим рангом.
    6. Листинги из этой группы импортируются в Business Listing Records.
    7. Ключевой этап (Фаза 2): После импорта первой группы, для каждой оставшейся группы определяется процент перекрытия (percentage of overlap) между листингами в этой группе и листингами, уже импортированными в Business Listing Records.
    8. Выбирается конкретная группа из оставшихся, имеющая наименьший процент перекрытия (least percentage of overlap).
    9. Из этой выбранной группы импортируются листинги, которые не перекрываются (does not overlap) с уже имеющимися данными.

    Ядром изобретения является двухфазная стратегия импорта. Фаза 1 приоритизирует точность (импорт лучшего источника). Фаза 2 приоритизирует охват и эффективность (импорт источника, который добавляет максимум новой информации, минимизируя дублирование).

    Claim 6 (Зависимый): Уточняет, что шаги определения перекрытия, выбора группы с наименьшим перекрытием и импорта повторяются итеративно до тех пор, пока все группы не будут обработаны.

    Claim 9 (Зависимый): Уточняет метод определения перекрытия. Перекрытие может определяться на основе того, имеет ли листинг в одной группе то же название (same title), что и листинг в уже импортированном наборе записей.

    Claim 10 (Независимый пункт): Описывает систему (аппаратную реализацию), выполняющую те же шаги, что и Claim 1.

    Где и как применяется

    Изобретение применяется на этапах сбора и индексирования данных, являясь частью инфраструктуры управления базой локальных сущностей (Local Index / Knowledge Graph).

    CRAWLING – Сканирование и Сбор данных (Data Acquisition)
    На этом этапе система получает данные (Business Listing Groups) от внешних поставщиков (Listing Information Sources). Это может быть как получение структурированных фидов через конвейер (Listing Source Pipeline), так и результат парсинга веб-страниц.

    INDEXING – Индексирование и извлечение признаков
    Это основной этап применения патента. Описанный процесс является механизмом очистки, валидации, разрешения конфликтов и агрегации данных перед их сохранением в основном индексе (Listing Records).

    • Валидация источников: Система не доверяет источникам слепо, а активно проверяет их точность через Verifier.
    • Ранжирование источников: Вычисляется Accuracy Percentage, который фактически является оценкой надежности источника.
    • Разрешение конфликтов и Агрегация: При импорте данных система использует ранг источника для определения приоритета и стратегию минимизации перекрытия для оптимизации процесса агрегации.

    Входные данные:

    • Необработанные Business Listing Groups от разных источников.
    • Listing Group Configuration Rules (правила для выборки, например, размер или категория).

    Выходные данные:

    • Агрегированные, очищенные и верифицированные Listing Records в основной базе данных.
    • Ранги (оценки точности) для каждого Listing Information Source.

    На что влияет

    • Конкретные типы контента: Влияет исключительно на данные о локальных бизнесах (адреса, телефоны, часы работы, категории).
    • Специфические запросы: Наибольшее влияние на локальные запросы (Local Search, Google Maps), где требуется отображение точной информации о компаниях (Local Pack).
    • Конкретные ниши или тематики: Влияет на все ниши, представленные в локальном поиске (рестораны, ритейл, услуги и т.д.).

    Когда применяется

    • Условия работы алгоритма: Алгоритм применяется при обработке и импорте новых данных или обновлений от сторонних поставщиков информации.
    • Частота применения: Это инфраструктурный процесс, который работает в фоновом или пакетном режиме для поддержания актуальности и полноты основного индекса локальных бизнесов. Это не процесс реального времени.

    Пошаговый алгоритм

    Этап 1: Оценка качества источников

    1. Получение данных: Система получает несколько Business Listing Groups.
    2. Формирование выборки: Из каждой группы выбирается Sample Set на основе конфигурационных правил (например, 5% листингов в категории «Автодилеры»).
    3. Верификация: Выборки отправляются Verifier‘у (автоматическая система или модератор) для проверки точности данных (например, через телефонный опрос).
    4. Получение результатов верификации: Система получает Verification Information.
    5. Ранжирование: Для каждой группы вычисляется Accuracy Percentage. Группы ранжируются на основе этой метрики.

    Этап 2: Агрегация данных (Стратегия Точность + Охват)

    1. Первичный импорт (Точность): Выбирается группа с наивысшим рангом. Ее листинги импортируются в основную базу Listing Records.
    2. Вычисление перекрытия: Для всех оставшихся групп рассчитывается Degree of Overlap (процентное соотношение) с данными, уже находящимися в Listing Records.
    3. Выбор следующей группы (Охват): Из оставшихся групп выбирается та, которая имеет наименьший Degree of Overlap (согласно Claim 1).
    4. Инкрементальный импорт: Из выбранной группы импортируются Non-overlapping Listings. Для Overlapping Listings может происходить агрегация дополнительной информации или разрешение конфликтов.
    5. Итерация: Шаги 7-9 повторяются, пока все группы не будут обработаны. На каждой итерации Degree of Overlap пересчитывается относительно обновленной базы Listing Records.

    Какие данные и как использует

    Данные на входе

    Патент фокусируется на обработке стандартных данных бизнес-листингов:

    • Контентные факторы: Название бизнеса (Name/Title), Категория (Category), Подкатегория (Sub-category), Описание (Description).
    • Контактные/Географические факторы (NAP): Адрес (Address), Телефон (Telephone), Факс (Fax), Email, Веб-сайт (Web-Site), Географическое положение, Зона обслуживания.
    • Временные факторы: Часы работы (Hours).

    Какие метрики используются и как они считаются

    • Accuracy Percentage (Процент точности): Метрика, вычисляемая для каждой Business Listing Group на основе верификации Sample Set. Рассчитывается как отношение количества точных листингов в выборке к общему размеру выборки.
    • Rank (Ранг группы): Порядковый номер или оценка, присваиваемая группе на основе Accuracy Percentage. Используется для определения приоритета при импорте (Фаза 1) и разрешении конфликтов.
    • Degree of Overlap / Percentage of Overlap (Степень перекрытия): Метрика, показывающая процент совпадения листингов между двумя наборами данных. Вычисляется путем сравнения ключевых идентификаторов (название, телефон, адрес) листингов в оставшейся группе с листингами в основной базе. Используется для выбора следующего источника импорта (Фаза 2).

    Выводы

    1. Зависимость от сторонних данных и их активная оценка: Патент подтверждает, что Google активно использует данные сторонних поставщиков (каталогов, агрегаторов) для построения локального индекса. При этом Google не доверяет им слепо, а активно измеряет точность данных путем выборочной верификации (Sample Set) и присваивает им ранг надежности (Rank).
    2. Механизмы верификации: Верификация может включать автоматизированные методы и ручную модерацию, в том числе телефонные звонки бизнесам. Это подчеркивает важность доступности и точности контактной информации.
    3. Стратегия импорта «Точность, затем Охват»: Ключевая особенность системы — двухфазный импорт. Сначала загружается самый надежный источник (максимизация точности), а затем источники, которые дают максимум новой информации (минимизация Degree of Overlap), что максимизирует охват.
    4. Разрешение конфликтов и важность консистентности (NAP): В случае конфликта данных приоритет отдается информации из источника с более высоким рангом точности. Несоответствия в NAP (Name, Address, Phone) между различными источниками создают те самые конфликты, которые система пытается разрешить. Консистентность упрощает агрегацию и повышает доверие к данным.

    Практика

    Best practices (это мы делаем)

    • Абсолютная консистентность NAP (Name, Address, Phone): Это критически важно для Local SEO. Необходимо обеспечить идентичность названия, адреса, телефона и веб-сайта во всех ключевых источниках данных экосистемы (крупные агрегаторы, основные каталоги, сайты отзывов). Эти сайты являются Listing Information Sources для Google. Консистентность минимизирует конфликты и помогает Google корректно агрегировать данные о вашем бизнесе.
    • Мониторинг и управление цитированием (Citation Management): Активно управляйте присутствием бизнеса в локальной экосистеме. Патент подтверждает, что данные из этих источников используются и проверяются Google. Необходимо регулярно проверять точность данных в источниках, которые Google может считать надежными в вашей нише или регионе.
    • Приоритет основным агрегаторам данных: Сосредоточьтесь на точности данных у крупнейших поставщиков, так как они с большей вероятностью будут иметь высокий Rank и использоваться как основа для Listing Records.
    • Доступность для верификации: Убедитесь, что указанные контактные данные (особенно телефон) актуальны и по ним можно связаться с бизнесом. Патент упоминает телефонные опросы как метод верификации точности источников.

    Worst practices (это делать не надо)

    • Допущение вариативности NAP: Использование разных названий компании, старых адресов или разных номеров телефонов (например, неконтролируемый call-tracking) в разных каталогах создает конфликты данных. Это может привести к тому, что Google выберет неверные данные или создаст дубликаты профилей.
    • Спам в низкокачественных каталогах: Регистрация в большом количестве некачественных каталогов неэффективна. Если источник будет оценен как неточный (низкий Rank), его данные будут иметь низкий приоритет при импорте или могут быть проигнорированы.
    • Игнорирование локальных и нишевых каталогов: Хотя основные агрегаторы важны (Фаза 1), патент показывает, что источники с низким перекрытием (часто это локальные или нишевые каталоги) могут получить приоритет на этапе расширения охвата (Фаза 2). Важно поддерживать точность и там.

    Стратегическое значение

    Этот патент раскрывает инфраструктуру Local SEO и подтверждает стратегическую важность управления данными вне прямого контроля Google (Citation Management). Для Google важно не только знать о существовании бизнеса, но и быть уверенным в точности его данных. Система оценки надежности поставщиков данных (Listing Information Sources) означает, что точность и консистентность в масштабах всей экосистемы напрямую влияют на то, как бизнес будет представлен в результатах локального поиска.

    Практические примеры

    Сценарий: Оптимизация порядка импорта данных (Точность против Охвата)

    Представим, что Google получает данные из трех источников:

    • Источник A (Крупный агрегатор): Точность 98%.
    • Источник B (Отраслевой каталог): Точность 95%.
    • Источник C (Локальный справочник): Точность 90%.
    1. Ранжирование: Ранг 1=A, Ранг 2=B, Ранг 3=C.
    2. Первичный импорт (Фаза 1): Google импортирует Источник A.
    3. Расчет перекрытия: Google сравнивает B и C с уже импортированными данными из A.
      • Источник B перекрывается на 90% (содержит мало новых данных).
      • Источник C перекрывается на 40% (содержит много новых данных).
    4. Выбор следующего источника (Фаза 2): Согласно патенту (Claim 1), Google выбирает источник с наименьшим перекрытием. В данном случае это Источник C (40% < 90%).
    5. Результат: Google импортирует новые данные из Источника C, несмотря на то, что его точность (90%) ниже, чем у B (95%). Это позволяет быстрее расширить охват базы данных. Затем импортируются оставшиеся данные из B.

    Вопросы и ответы

    Означает ли этот патент, что Google доверяет одним каталогам больше, чем другим?

    Да, абсолютно. Патент описывает механизм, с помощью которого Google активно измеряет точность данных (Accuracy Percentage) у каждого поставщика информации путем верификации выборки (Sample Set). На основе этой метрики источникам присваивается ранг надежности, который затем используется для определения приоритета при импорте данных и разрешении конфликтов.

    Как именно Google проверяет точность данных у внешних поставщиков?

    Патент упоминает два основных метода, используемых верификатором (Verifier). Первый — это автоматизированный опрос (например, телефонный звонок бизнесу для подтверждения данных). Второй — ручная верификация, когда модератор связывается с бизнесом для подтверждения или обновления информации. Это подчеркивает важность актуальности контактных данных.

    Что произойдет, если два разных источника содержат конфликтующую информацию об одном и том же бизнесе?

    Система идентифицирует это как перекрытие (Overlapping Listing) с конфликтом данных. При разрешении конфликта приоритет отдается информации из того источника, который имеет более высокий ранг точности (Rank). Если вы видите неверные данные о своем бизнесе в Google, возможно, они исходят из источника, который Google считает более надежным, чем другие.

    Что такое стратегия «минимизации перекрытия» и зачем она нужна?

    После того как данные из самого надежного источника импортированы, система переключается на максимизацию охвата. Она специально ищет следующий источник, который имеет наименьшее перекрытие (least percentage of overlap) с уже имеющимися данными. Это позволяет Google максимально быстро и эффективно пополнять свою базу уникальными листингами, минимизируя обработку дубликатов.

    Какое значение этот патент имеет для стратегии управления цитированием (Citation Management) в Local SEO?

    Патент обеспечивает техническое обоснование критической важности Citation Management. Внешние каталоги и агрегаторы являются прямыми поставщиками данных (Listing Information Sources) для Google. Обеспечение точности и консистентности NAP (Name, Address, Phone) во всей экосистеме гарантирует, что независимо от того, какой источник Google выберет для импорта, данные будут корректными.

    Может ли источник с более низкой точностью быть импортирован раньше, чем источник с более высокой точностью?

    В основном сценарии (Claim 1) — да, но только после того, как самый точный источник уже импортирован. На последующих этапах система может выбрать источник с более низким рангом, если он предлагает значительно больше уникальных данных (наименьшее перекрытие), чем оставшиеся источники с более высоким рангом, но высоким перекрытием.

    Влияет ли этот патент на ранжирование в органическом поиске?

    Патент не описывает алгоритмы ранжирования результатов поиска. Он описывает процесс построения и валидации базы данных (Индекса). Однако наличие точных и полных данных в индексе является необходимым условием для ранжирования в локальном поиске (Local Pack, Maps). Таким образом, влияние на Local SEO является фундаментальным, но косвенным.

    Что важнее: присутствие во многих каталогах или точность в нескольких ключевых?

    Точность в ключевых каталогах важнее. Система начинает импорт с наиболее точного источника (highest ranked). Если ключевые агрегаторы содержат точные данные, они, скорее всего, будут иметь высокий ранг и станут основой для данных Google. Присутствие в большом количестве низкокачественных каталогов с ошибками неэффективно.

    Как этот механизм взаимодействует с Google Business Profile (GBP)?

    Патент не упоминает GBP напрямую, так как фокусируется на агрегации сторонних данных. Однако данные из верифицированного GBP, предоставленные владельцем бизнеса, логично рассматривать как источник с наивысшим приоритетом или как эталон, используемый Verifier‘ом для оценки точности других источников. Поддержание актуальности GBP остается критически важным.

    Как определить, какие источники Google считает надежными в моей нише?

    Патент не предоставляет списка надежных источников. На практике это определяется путем анализа того, какие данные Google отображает при наличии конфликтов, и путем мониторинга основных агрегаторов данных и ключевых каталогов в вашей индустрии и регионе. Крупнейшие игроки (например, Yelp, TripAdvisor, Foursquare, основные Yellow Pages агрегаторы) часто имеют высокий вес.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.