SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует цифровые отпечатки контента для автоматического выявления и исправления орфографических ошибок в метаданных

LEARNING COMMON SPELLING ERRORS THROUGH CONTENT MATCHING (Изучение распространенных орфографических ошибок посредством сопоставления контента)
  • US8458156B1
  • Google LLC
  • 2012-05-18
  • 2013-06-04
  • Индексация
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует технологию цифровых отпечатков (fingerprinting) для идентификации идентичного контента (например, видео, аудио, изображений), загруженного разными пользователями. Сравнивая метаданные (заголовки, теги) этих идентичных файлов, система автоматически выявляет распространенные опечатки и орфографические ошибки. Это позволяет улучшить полноту поисковой выдачи, связывая разные варианты написания.

Описание

Какую проблему решает

Патент решает проблему снижения эффективности поиска (в частности, полноты выдачи - Recall), вызванную орфографическими ошибками и опечатками в метаданных контента. Это особенно актуально для платформ с пользовательским контентом (UGC), где пользователи часто загружают идентичный контент (например, видео), но допускают ошибки в заголовках, тегах или описаниях. В результате поиск по корректному запросу может не найти релевантный контент, помеченный термином с ошибкой.

Что запатентовано

Запатентована система автоматического изучения распространенных орфографических ошибок, основанная на сопоставлении контента (Content Matching). Система использует Digital Fingerprints (цифровые отпечатки) для идентификации идентичных или почти идентичных единиц контента (видео, аудио, изображения). Когда обнаруживается совпадение контента, система сравнивает связанные с ним метаданные. Используя Edit Distance (редакционное расстояние), система выявляет термины, близкие по написанию, и создает между ними связи (Pair Mappings).

Как это работает

Ключевой механизм работы системы:

  • Сопоставление контента: Генерируются Digital Fingerprints для анализируемого контента (Probe Content) и эталонного контента (Reference Content). Система ищет совпадения.
  • Сравнение метаданных: Если контент идентичен, система сравнивает их метаданные (например, заголовки).
  • Вычисление Edit Distance: Рассчитывается Edit Distance (например, расстояние Левенштейна) между терминами, чтобы определить степень их различия.
  • Идентификация ошибок: Если Edit Distance больше нуля, но ниже определенного порога (Possible Misspelling Threshold), пара терминов считается потенциальной ошибкой.
  • Подтверждение (Опционально): Система может отслеживать частоту встречаемости пары (Misspelling Counter). Если частота превышает порог (Confirmation Threshold), ошибка считается подтвержденной.
  • Индексация и использование: Подтвержденные пары добавляются в Metadata Index. Они объединяются в Connected Components (группы связанных написаний) и используются для расширения поисковых запросов.

Актуальность для SEO

Высокая. Хотя современные NLP-модели значительно улучшили обработку орфографических ошибок, этот патент описывает уникальный подход, использующий сам контент как источник истины для валидации метаданных. Этот метод остается крайне актуальным для медиа-контента (видео, аудио, изображения) на платформах вроде YouTube или Google Images, где текстовый контекст ограничен, а технологии фингерпринтинга активно применяются.

Важность для SEO

Влияние на SEO значительное (7/10), но специфичное. Патент имеет критическое значение для SEO на платформах с медиаконтентом и UGC (YouTube, Google Images). Он описывает механизм, который улучшает обнаружение контента (discoverability) и полноту выдачи (Recall), компенсируя ошибки в метаданных. Это также снижает эффективность устаревших стратегий, основанных на таргетинге запросов с опечатками.

Детальный разбор

Термины и определения

Connected Components (Связанные компоненты)
Группы терминов, взаимосвязанных через Pair Mappings. Если есть пары (A↔B) и (B↔C), то (A, B, C) образуют связанный компонент. Поиск по любому термину компонента может возвращать результаты для всех терминов компонента.
Confirmation Threshold (Порог подтверждения)
Минимальное значение Misspelling Counter, необходимое для того, чтобы потенциальная ошибка была признана подтвержденной (Confirmed) и добавлена в Metadata Index.
Content Matching (Сопоставление контента)
Процесс определения идентичности двух единиц контента, обычно с использованием Digital Fingerprints.
Digital Fingerprint (Цифровой отпечаток)
Уникальный идентификатор, сгенерированный из содержимого файла (видео, аудио, изображения) для быстрого обнаружения дубликатов.
Edit Distance (Редакционное расстояние)
Метрика сходства между двумя строками. Определяет количество операций (вставка, удаление, замена), необходимых для преобразования одной строки в другую. Упоминаются алгоритмы Levenshtein, Hamming, Damerau-Levenshtein, Jaro-Winkler.
Fingerprint Index (Индекс отпечатков)
База данных, хранящая Digital Fingerprints известного контента.
Metadata Index (Индекс метаданных)
Хранилище, содержащее подтвержденные Pair Mappings орфографических ошибок.
Misspelling Counter (Счетчик ошибок)
Счетчик, ассоциированный с Pair Mapping, который увеличивается при каждом обнаружении данной пары в метаданных совпадающего контента.
N-gram (N-грамма)
Последовательность из N слов. Патент упоминает, что анализ может проводиться как по отдельным словам, так и по N-граммам для лучшего контекста.
Pair Mapping (Парное соответствие)
Связь между двумя терминами метаданных, которые были идентифицированы как варианты написания друг друга (например, "rattlesnake" ↔ "rattlesnak").
Possible Misspelling Threshold (Порог возможной ошибки)
Условие для идентификации ошибки: Edit Distance должно быть больше нуля и меньше заданного максимального значения (Edit Distance Threshold).
Probe Content (Анализируемый контент)
Контент (например, недавно загруженный), для которого система пытается найти совпадения и изучить ошибки в его метаданных.
Reference Content (Эталонный контент)
Контент, уже находящийся в индексе, который совпал с Probe Content.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает базовую систему для изучения ошибок.

  1. Content matching component идентифицирует Reference Content, который совпадает с Probe Content.
  2. В ответ на совпадение, Misspelling learning component идентифицирует одну или более ошибок в метаданных, ассоциированных с этим контентом.
  3. Correction component выборочно добавляет в Metadata Index как минимум одно Pair Mapping, связанное с идентифицированной ошибкой между терминами из Probe и Reference контента.

Claim 2 (Зависимый от 1):

Совпадение контента определяется путем сравнения соответствующих Digital Fingerprints.

Claim 3 и 4 (Зависимые): Уточняют метод и критерии идентификации ошибок.

Идентификация ошибок происходит путем сравнения Edit Distances между терминами метаданных (Claim 3). Ошибка идентифицируется, если Edit Distance больше нуля и меньше, чем пороговое значение Edit Distance Threshold (Claim 4).

Claim 8 и 9 (Зависимые): Описывают механизм подтверждения (валидации).

Система инкрементирует Misspelling Counter, ассоциированный с Pair Mapping, при каждом обнаружении этой ошибки (Claim 8). Pair Mapping помечается как подтвержденное (Confirmed), если счетчик достигает Confirmation Threshold (Claim 9).

Claim 20 (Независимый пункт): Описывает метод использования изученных ошибок в поиске.

  1. Система получает поисковый запрос.
  2. Идентифицируется контент, связанный с метаданными, идентичными поисковому термину.
  3. Также идентифицируется контент, связанный с другими терминами, которые являются ошибками исходного термина. Эта идентификация основана на Connected Component, включающем исходный и другие термины.
  4. Важно: этот Connected Component генерируется на основе совпадения отпечатков (matching fingerprints) контента.

Где и как применяется

Изобретение затрагивает этапы индексирования (для обучения) и понимания запросов (для применения результатов обучения).

INDEXING – Индексирование и извлечение признаков
На этом этапе происходит основной процесс обучения. Система может работать в офлайн-режиме или по мере поступления нового контента.

  • Извлечение признаков и Генерация отпечатков: Для медиаконтента генерируются Digital Fingerprints и сохраняются в Fingerprint Index. Также извлекаются метаданные.
  • Сопоставление и Обучение: Происходит процесс сопоставления контента (Probe vs Reference). При совпадении активируется анализ метаданных, вычисление Edit Distance, обновление счетчиков и генерация Metadata Index.

QUNDERSTANDING – Понимание Запросов
На этом этапе используются результаты работы алгоритма в реальном времени.

  • Нормализация и Расширение запросов: Когда пользователь вводит запрос, система использует Metadata Index для поиска соответствующего Connected Component. Как описано в Claim 20, запрос расширяется, включая все варианты написания из этого компонента.

RANKING – Ранжирование (L1 Retrieval)
За счет расширения запроса на этапе QUNDERSTANDING, система может отобрать больше релевантных кандидатов (тех, что содержали ошибки в метаданных), улучшая полноту (Recall) поисковой выдачи.

Входные данные:

  • Единицы контента (видео, аудио, изображения).
  • Метаданные, связанные с контентом (заголовки, теги, описания).
  • Fingerprint Index.

Выходные данные:

  • Обновленный Metadata Index с подтвержденными Pair Mappings и Connected Components.

На что влияет

  • Конкретные типы контента: В первую очередь влияет на контент, для которого возможно надежное создание Digital Fingerprints: видео, аудио, изображения.
  • Конкретные ниши или тематики: Платформы с большим количеством пользовательского контента (UGC) и дубликатов мультимедиа (например, YouTube, Google Images), где качество метаданных низкое.
  • Специфические запросы: Запросы, содержащие термины, которые часто пишут с ошибками (имена собственные, бренды, технические термины).

Когда применяется

Алгоритм имеет два режима: обучение и использование.

Обучение (Индексирование):

  • Триггер активации: Обнаружение совпадения между Probe Content и Reference Content на основе их Digital Fingerprints (схожесть должна превышать порог уверенности).
  • Условия: Edit Distance между терминами метаданных должен соответствовать порогу ошибки.
  • Пороговые значения: Для финального подтверждения Misspelling Counter должен превысить Confirmation Threshold (в некоторых реализациях).

Использование (Поиск):

  • Триггер активации: Поступление поискового запроса, термины которого присутствуют в Metadata Index.

Пошаговый алгоритм

Процесс А: Обучение (Изучение ошибок)

  1. Выбор контента: Выбирается анализируемый контент (Probe Content).
  2. Генерация отпечатка: Генерируется Digital Fingerprint для Probe Content.
  3. Поиск совпадений: Система ищет в Fingerprint Index совпадающие отпечатки эталонного контента (Reference Content) с достаточной степенью уверенности.
  4. Сравнение метаданных: Если совпадение найдено, инициируется процесс сравнения терминов (или N-грамм) метаданных Probe и Reference контента.
  5. Вычисление Edit Distance: Для пары терминов вычисляется Edit Distance.
  6. Проверка порога ошибки: Система проверяет, находится ли Edit Distance в допустимом диапазоне: 0<Edit Distance<Possible Misspelling Threshold0 < \text{Edit Distance} < \text{Possible Misspelling Threshold}0<Edit Distance<Possible Misspelling Threshold.
    • Если ДА: Переход к шагу 7.
    • Если НЕТ: Переход к следующей паре терминов.
  7. Создание/Обновление Pair Mapping: Создается или находится существующее Pair Mapping между терминами.
  8. Обновление счетчика (Опционально): Misspelling Counter для этой пары инкрементируется.
  9. Проверка порога подтверждения (Опционально): Если счетчик превысил Confirmation Threshold, Pair Mapping помечается как подтвержденное.
  10. Индексация: Подтвержденные Pair Mappings добавляются в Metadata Index.

Процесс Б: Использование (Обработка запроса)

  1. Получение запроса: Система получает поисковый запрос.
  2. Поиск связанных компонентов: Для термина запроса система ищет в Metadata Index соответствующий Connected Component.
  3. Расширение запроса: Исходный запрос расширяется, включая все термины из найденного компонента.
  4. Выполнение поиска: Поиск выполняется по расширенному набору терминов.

Какие данные и как использует

Данные на входе

Патент использует два основных типа данных:

  • Мультимедиа факторы (Content Data): Непосредственно содержимое файлов (видеопоток, аудиодорожка, данные изображения). Используется как основа для генерации Digital Fingerprints и установления факта идентичности контента.
  • Контентные факторы (Metadata Terms): Текстовые метаданные, ассоциированные с контентом (заголовки, описания, теги). Это материал для анализа ошибок после того, как контент был сопоставлен.

Какие метрики используются и как они считаются

  • Matching Measure (Мера совпадения): Метрика, определяющая степень совпадения Digital Fingerprints. Должна превышать порог уверенности (Matching Confidence Threshold).
  • Edit Distance (Редакционное расстояние): Вычисляется между парами терминов метаданных. В патенте упоминаются конкретные алгоритмы: Levenshtein, Hamming, Damerau-Levenshtein, Jaro-Winkler.
  • Possible Misspelling Threshold (Порог возможной ошибки): Максимально допустимое значение Edit Distance.
  • Нормализация Edit Distance: Упоминается возможность нормализации Edit Distance на основе длины термина для адаптации порога к длине слова.
  • Misspelling Counter (Счетчик ошибок): Частота встречаемости конкретного Pair Mapping.
  • Confirmation Threshold (Порог подтверждения): Минимальное значение Misspelling Counter для валидации ошибки.

Выводы

  1. Контент как источник истины для метаданных: Ключевой вывод заключается в том, что Google может использовать идентичность нетекстового контента (определяемую через Digital Fingerprints) как сильный сигнал для валидации, очистки и установления семантической связи между текстовыми метаданными.
  2. Автоматическое обучение без словарей и поведения пользователей: Система автоматически генерирует словарь распространенных ошибок без ручной разметки или анализа логов запросов, используя тот факт, что разные пользователи описывают один и тот же контент схожими, но часто ошибочно написанными терминами.
  3. Многоуровневая валидация для точности: Для минимизации ложных срабатываний используется комбинация метрик: строгое сопоставление контента, ограничение по Edit Distance (близость написания) и требование частотности (Confirmation Threshold).
  4. Улучшение полноты поиска (Recall) через Связанные Компоненты: Конечная цель — улучшение поиска. Механизм Connected Components (Claim 20) позволяет расширять поисковый запрос, включая все изученные варианты написания, тем самым повышая полноту выдачи.
  5. Фокус на Медиа и UGC: Механизм наиболее эффективен для поиска по медиаконтенту (видео, аудио, изображения) и на платформах с пользовательским контентом, где высока вероятность ошибок в метаданных и дублирования контента.

Практика

Best practices (это мы делаем)

Рекомендации в первую очередь актуальны для SEO медиа-контента (YouTube, Google Images) и сайтов с UGC.

  • Обеспечение точности метаданных медиа-активов: Необходимо предоставлять максимально точные и качественные заголовки, описания и теги для видео и изображений. Поскольку текстовый контекст у такого контента ограничен, Google полагается на метаданные. Корректное написание гарантирует правильную интерпретацию контента с самого начала.
  • Использование N-грамм (фраз) в метаданных: Патент указывает, что сравнение N-грамм может обеспечить лучший контекст и снизить ложные срабатывания при определении ошибок. Используйте осмысленные, естественные фразы в названиях и описаниях, а не только отдельные ключевые слова.
  • Фокус на качестве и уникальности контента: Создание качественного контента, который пользователи захотят искать, повышает его обнаруживаемость. Если контент популярен и его перезаливают, система сможет использовать описанный механизм для связывания различных вариантов запросов с вашим контентом.

Worst practices (это делать не надо)

  • Намеренная оптимизация под опечатки (Misspelling Optimization): Стратегии, основанные на намеренном использовании ошибок в метаданных для сбора низкочастотного трафика, становятся неэффективными. Система активно связывает ошибки с правильным написанием (через Connected Components) и консолидирует выдачу.
  • Игнорирование метаданных медиа-контента: Загрузка видео или изображений с пустыми или автоматически сгенерированными заголовками снижает их обнаруживаемость. Система не сможет эффективно использовать описанный механизм, если метаданные отсутствуют или неинформативны.
  • Массовая загрузка дубликатов: Загрузка одного и того же контента много раз с разными метаданными неэффективна. Система идентифицирует дубликаты через fingerprinting и использует этот факт для консолидации метаданных, а не для расширения присутствия в выдаче.

Стратегическое значение

Патент демонстрирует, как Google стирает границы между анализом контента и анализом текста. Использование Digital Fingerprints для улучшения текстового поиска подчеркивает стратегическую важность технологий идентификации контента. Для SEO это подтверждает, что системы поиска по медиаконтенту становятся более зрелыми и устойчивыми к ошибкам пользователей, а также способны понимать содержание контента за пределами предоставленных метаданных.

Практические примеры

Сценарий: Идентификация неправильного написания названия продукта на YouTube

  1. Загрузка Reference Content: Официальный канал загружает обзор нового гаджета "PhasmaTron". Заголовок: "Обзор PhasmaTron (Официальный)". Система генерирует Digital Fingerprint F1.
  2. Загрузка Probe Content: Пользователь перезаливает этот же обзор. Заголовок: "Крутой FasmaTron". Он допустил опечатку ("Ph" вместо "F"). Система генерирует Digital Fingerprint F2.
  3. Сопоставление Контента: Система определяет, что F1 и F2 совпадают (контент идентичен).
  4. Анализ Метаданных: Система сравнивает метаданные.
  5. Расчет Edit Distance: "PhasmaTron" vs "FasmaTron": Edit Distance = 1.
  6. Проверка Порогов: Предположим, Possible Misspelling Threshold = 2. Пара проходит проверку.
  7. Генерация Pair Mapping: Создается пара: (PhasmaTron ↔ FasmaTron). Misspelling Counter = 1.
  8. Подтверждение: Если много пользователей допускают ту же ошибку при загрузке копий этого видео, счетчик увеличивается. Когда он достигает Confirmation Threshold, пара добавляется в Metadata Index.
  9. Результат в Поиске: Пользователь ищет "FasmaTron". Система использует Connected Components и также показывает результаты для "PhasmaTron", улучшая полноту выдачи и помогая найти официальный обзор.

Вопросы и ответы

Чем этот подход отличается от стандартной проверки орфографии в поиске?

Стандартная проверка орфографии обычно основана на анализе логов запросов, словарных данных и языковых моделях. Описанный метод использует совершенно другой сигнал: идентичность самого контента (через Digital Fingerprints). Если два видео идентичны, система предполагает, что их метаданные должны быть семантически эквивалентны, и ищет орфографические различия. Это позволяет выявлять ошибки, специфичные для контента, которых может не быть в общих словарях.

Какое значение этот патент имеет для SEO на YouTube или в Google Images?

Он имеет высокое значение. Эти платформы сильно зависят от метаданных (заголовки, теги) для ранжирования и часто сталкиваются с дублированием контента и ошибками в UGC. Этот патент описывает механизм, который позволяет Google нормализовать метаданные и улучшить обнаружение видео и изображений, несмотря на ошибки пользователей при загрузке.

Что такое Connected Components и как они используются в поиске?

Connected Components (Связанные компоненты) – это группы терминов, которые система идентифицировала как варианты написания друг друга. Если система изучила пары (A↔B) и (B↔C), то A, B и C образуют связанный компонент. Согласно Claim 20, при поиске по термину A система также будет искать контент, помеченный терминами B и C, что значительно увеличивает полноту (Recall) поисковой выдачи.

Что такое Edit Distance и почему оно используется?

Edit Distance (Редакционное расстояние) – это количество изменений (вставок, удалений, замен символов), необходимых для преобразования одного слова в другое. Оно используется как метрика для определения близости написания. Система ищет пары с низким Edit Distance (больше 0, но ниже порога) в метаданных идентичного контента, предполагая, что это орфографические ошибки.

Зачем нужен Confirmation Threshold (Порог подтверждения)?

Confirmation Threshold необходим для фильтрации шума и предотвращения ложных срабатываний. Два термина могут быть близки по написанию, но иметь разное значение. Порог требует, чтобы пара терминов встречалась многократно (высокий Misspelling Counter) в контексте идентичного контента, прежде чем система признает их вариантами написания. Это повышает точность системы.

Применяется ли этот патент только к видео?

Нет. Патент явно указывает, что контент может включать видео, аудио, изображения, текст или любую их комбинацию. Механизм применим к любому типу контента, для которого можно надежно сгенерировать цифровые отпечатки (digital fingerprints) и провести сопоставление, хотя наиболее эффективен он для медиафайлов.

Стоит ли намеренно добавлять распространенные ошибки (misspellings) в теги или описания медиа-контента?

Это не рекомендуется. Цель описанной системы – автоматически связать эти ошибки с правильным написанием. Наличие ошибок может негативно влиять на восприятие качества контента. Лучшая стратегия – использовать точные, корректные метаданные и позволить системе самой изучить связи, если это необходимо.

Как использование N-грамм влияет на работу системы?

Патент упоминает, что использование N-грамм (фраз из нескольких слов) вместо отдельных слов может обеспечить дополнительный контекст и помочь уменьшить количество ложных идентификаций ошибок. Сравнение фразы целиком дает более точный контекст и снижает вероятность случайного совпадения коротких слов с разным смыслом.

Как система определяет, какой из двух терминов в паре является правильным, а какой – ошибкой?

Патент не фокусируется на определении "правильности" написания. Он фокусируется на установлении связи (Pair Mapping) между двумя вариантами, которые используются для описания одного и того же контента. Для системы важно, что они семантически эквивалентны в данном контексте, а не их соответствие словарю.

Что произойдет, если оба пользователя допустили разные ошибки в метаданных одного и того же контента?

Система способна обработать этот сценарий. Она может создать Pair Mapping между двумя неправильными написаниями (например, "rattlesnak" и "ratlesnake"), если Edit Distance между ними ниже порога. Если позже появится третье совпадение с правильным написанием ("rattlesnake"), оно будет связано с предыдущими, и все три термина окажутся в одном Connected Component.

Похожие патенты

Как Google использует взвешенную оценку метаданных для выявления дубликатов контента без анализа самих файлов
Патент Google описывает метод идентификации субстантивных дубликатов (например, товаров, видео или сущностей в разных форматах) исключительно путем сравнения их метаданных. Система нормализует данные, вычисляет взвешенную оценку сходства с учетом важности разных атрибутов и помечает контент как дублирующийся, если оценка превышает порог. Этот механизм критичен для согласования сущностей (Entity Reconciliation) в системах Google.
  • US8266115B1
  • 2012-09-11
  • Индексация

Как Google создает цифровые отпечатки контента для выявления почти дубликатов страниц в масштабе интернета
Google использует метод для эффективного обнаружения почти дубликатов документов. Система генерирует компактный цифровой отпечаток (fingerprint) для каждого документа путем выборки перекрывающихся блоков текста (shingling), вычисления контрольных сумм и их сжатия. Сравнивая эти отпечатки с использованием расстояния Хэмминга, Google может быстро определить, являются ли два документа практически идентичными, что критично для каноникализации и экономии ресурсов индекса.
  • US7707157B1
  • 2010-04-27
  • Индексация

  • SERP

Как Google использует точное место клика или касания пользователя для улучшения исправления опечаток и текстовых подсказок
Google использует механизм для повышения релевантности предлагаемых исправлений текста (например, в поисковой строке или редакторе). Система анализирует не только слово целиком, но и точное место, рядом с которым пользователь установил курсор или коснулся экрана. Предложения по исправлению фильтруются в зависимости от того, соответствуют ли они этой указанной пользователем позиции редактирования.
  • US20140280109A1
  • 2014-09-18
  • Семантика и интент

  • Поведенческие сигналы

Как Google обнаруживает неавторизованное использование контента (текст, изображения, видео, аудио), сохраняя конфиденциальность
Система позволяет владельцам контента загружать образцы (текст, изображения, видео, аудио) и проверять, существуют ли совпадения в индексах Google, включая веб-индекс и пользовательские базы данных. Система сообщает о факте наличия совпадения, не раскрывая источник напрямую, и может предоставить зашифрованный идентификатор для дальнейшего расследования.
  • US20080288509A1
  • 2008-11-20
  • Индексация

  • Мультимедиа

Как Google использует контекст запроса для исправления опечаток и понятийных ошибок, анализируя результаты поиска по оставшимся словам
Google использует механизм для исправления сложных, редких или понятийно ошибочных запросов. Если система идентифицирует потенциально неточный термин (опечатку или перепутанное название), она временно удаляет его и выполняет поиск по оставшимся словам. Затем анализируется контент найденных страниц (заголовки, анкоры, URL), чтобы определить правильный термин для замены, обеспечивая релевантную выдачу даже при ошибках пользователя.
  • US8868587B1
  • 2014-10-21
  • Семантика и интент

Популярные патенты

Как Google использует модель D-Q-D и поведение пользователей для предложения разнообразных запросов, связанных с конкретными результатами поиска
Google использует модель "Документ-Запрос-Документ" (D-Q-D), построенную на основе данных о поведении пользователей (клики, время просмотра), для генерации связанных поисковых подсказок. Система предлагает альтернативные запросы, привязанные к конкретному результату, только если эти запросы ведут к новому, разнообразному набору документов, облегчая исследование смежных тем.
  • US8583675B1
  • 2013-11-12
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google использует историю местоположений для определения физической активности пользователя и гиперперсонализации поиска
Google анализирует историю перемещений пользователя (местоположения и скорость), чтобы определить его текущую физическую активность (например, поход, шоппинг) и способ передвижения (например, пешком, на автобусе). Эта информация используется для радикальной персонализации: система корректирует ранжирование результатов, изменяет запросы и формирует подсказки, чтобы они соответствовали контексту реальных действий пользователя.
  • US20150006290A1
  • 2015-01-01
  • Поведенческие сигналы

  • Персонализация

  • Local SEO

Как Google использует данные о кликах разных групп пользователей (популяций) для локализации и персонализации ранжирования
Google адаптирует результаты поиска, анализируя, как разные группы пользователей (популяции), определяемые по местоположению, языку или демографии, взаимодействуют с выдачей. Система рассчитывает «Сигнал Популяции» (Population Signal) на основе исторических кликов группы и корректирует ранжирование. Также используется механизм сглаживания для компенсации нехватки данных по конкретным группам.
  • US7454417B2
  • 2008-11-18
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google интегрирует поиск в инструменты создания контента и использует распространение ссылок для расчета репутации автора
Google разработал систему (UDS), интегрирующую поиск в инструменты создания контента (Email, блоги, форумы). Система автоматически уточняет запросы на основе контекста и профилей пользователей. Если автор вставляет ссылку, а читатель кликает по ней, Google использует это взаимодействие для расчета «оценки репутации» автора и как поведенческий сигнал качества контента.
  • US7844603B2
  • 2010-11-30
  • Ссылки

  • Поведенческие сигналы

  • EEAT и качество

Как Google использует модифицированный PageRank (Personalized PageRank) для персонализации выдачи на основе истории и предпочтений пользователя
Патент Google, описывающий механизм персонализации поиска путем модификации алгоритма PageRank. Система определяет "точку зрения" пользователя (Point-of-View Data) на основе его истории посещений, закладок или указанных категорий. Затем стандартный расчет PageRank изменяется так, чтобы авторитет (Reset Probability) концентрировался только на этих персональных источниках, повышая в выдаче сайты, которые близки к интересам пользователя.
  • US7296016B1
  • 2007-11-13
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует машинное обучение (Learning to Rank) для имитации оценок асессоров и улучшения ранжирования
Google использует технологию Learning to Rank для обучения статистических моделей, которые имитируют оценки человеческих асессоров. Модели анализируют объективные сигналы (статические и поведенческие) для пары запрос/документ и предсказывают, насколько релевантным этот документ сочтет человек. Эти прогнозы затем используются для ранжирования результатов поиска.
  • US8195654B1
  • 2012-06-05
  • Поведенческие сигналы

  • SERP

Как Google использует визуальные цитаты и обратную связь для генерации и уточнения ответов в мультимодальном поиске
Google генерирует ответы на мультимодальные запросы (изображение + текст), находя визуально похожие изображения в интернете и используя текст с их исходных страниц как основу для LLM. Система показывает эти изображения как «визуальные цитаты» для подтверждения ответа и позволяет пользователям исключать нерелевантные источники, чтобы мгновенно уточнить сгенерированный результат.
  • US20240378236A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Ссылки

Как Google извлекает сущности из активности пользователя для запуска проактивных (имплицитных) поисковых запросов
Анализ патента Google, описывающего метод идентификации «именованных сущностей» (людей, тем, фраз) путем мониторинга действий пользователя, таких как электронная почта, просмотр веб-страниц и набор текста. Система использует эти сущности для проактивного запуска фоновых поисковых запросов (имплицитных запросов), релевантных текущему контексту пользователя, часто с использованием персонализированных данных.
  • US9009153B2
  • 2015-04-14
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически определяет и отображает обратные ссылки (цитирования) между независимыми веб-страницами
Патент Google, описывающий фундаментальный механизм автоматического обнаружения ссылок между веб-страницами разных авторов. Когда система обнаруживает, что Страница B ссылается на Страницу A, она может автоматически встроить представление (например, ссылку) Страницы B в Страницу A при её показе пользователю. Это технология для построения и визуализации графа цитирований в Интернете.
  • US8032820B1
  • 2011-10-04
  • Ссылки

  • Индексация

  • Краулинг

Как Google проактивно уведомляет пользователей об изменении цен или доступности товаров на основе их предполагаемого намерения покупки
Google анализирует действия пользователя (поисковые запросы, посещения сайтов), чтобы выявить намерение в отношении сущностей (например, продуктов или авиабилетов). Если намерение сильное и происходит значительное изменение (падение цены или изменение доступности), Google проактивно отправляет уведомление со ссылками для завершения действия (например, покупки).
  • US20180357238A1
  • 2018-12-13
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

seohardcore