SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует структурированные матрицы и произведение Кронекера для ускорения поиска в высокоразмерных данных

FAST ORTHOGONAL PROJECTION (Быстрая ортогональная проекция)
  • US10394777B2
  • Google LLC
  • 2015-11-25
  • 2019-08-27
  • Индексация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Патент описывает инфраструктурную оптимизацию поисковых систем Google. Он детализирует математический метод (Быстрая ортогональная проекция с использованием произведения Кронекера) для преобразования высокоразмерных данных (векторов признаков). Это позволяет поисковой системе выполнять сравнения (например, находить похожие изображения или документы) намного быстрее и с использованием значительно меньшего объема памяти, сохраняя при этом точность.

Описание

Какую проблему решает

Патент решает проблему вычислительной неэффективности при обработке высокоразмерных данных (high-dimensional data), например, в компьютерном зрении или масштабном векторном поиске. Традиционные методы, использующие неструктурированные матрицы (Unstructured Matrix) для ортогональных проекций (которые важны для сохранения расстояний между точками данных), слишком медленные и требуют много памяти. Вычислительная сложность построения такой матрицы составляет O(d3)O(d^3)O(d3), а сложность времени и памяти — O(d2)O(d^2)O(d2). Это затрудняет масштабируемый поиск при увеличении размерности (d).

Что запатентовано

Запатентован метод эффективного выполнения линейных проекций за счет использования структурированных матриц (Structured Matrix) вместо неструктурированных. Суть изобретения заключается в построении большой ортогональной структурированной матрицы путем применения Произведения Кронекера (Kronecker Product) к серии небольших ортогональных элементных матриц (Element Matrices).

Как это работает

Система извлекает признаки из контента и преобразует их в высокоразмерные векторы (Feature Vectors). Затем генерируется серия небольших матриц (Element Matrices). Эти небольшие матрицы объединяются с помощью Kronecker Product для формирования большой Structured Matrix. Эта структура позволяет выполнять вычисления намного быстрее (вычислительная сложность O(dlog⁡d)O(d \log d)O(dlogd)) и использует значительно меньше места (пространственная сложность O(log⁡d)O(\log d)O(logd)), сохраняя при этом исходные расстояния (Euclidean distance) и ортогональность.

Актуальность для SEO

Высокая (с технической точки зрения). Эффективная обработка высокоразмерных данных (векторов, эмбеддингов) имеет решающее значение для современных поисковых систем, включая векторный поиск и работу моделей машинного обучения. Этот патент описывает ключевую инфраструктурную оптимизацию для масштабирования таких систем.

Важность для SEO

Минимальное влияние (1/10). Это чисто инфраструктурный патент. Он описывает базовые математические методы, которые Google использует для повышения эффективности векторного поиска в глобальном масштабе. Он не вводит новых сигналов ранжирования, критериев качества контента или методов понимания намерений пользователя. Патент не предоставляет никаких прямых практических рекомендаций для SEO.

Детальный разбор

Термины и определения

Linear Projection (Линейная проекция)
Преобразование данных из пространства высокой размерности в пространство более низкой размерности (или в другое представление). Формула: h(x)=Rxh(x)=Rxh(x)=Rx.
Orthogonal Projection (Ортогональная проекция)
Тип линейной проекции, который сохраняет Euclidean distance между точками данных. Критически важен для точного поиска по сходству.
Feature Vector (Вектор признаков)
Числовое представление признаков элемента контента (например, изображения, документа).
High-dimensional data (Высокоразмерные данные)
Данные с большим количеством признаков (сотни, тысячи или миллионы измерений).
Euclidean Distance (Евклидово расстояние)
Стандартная метрика расстояния между двумя точками (векторами) в многомерном пространстве. Используется для измерения сходства.
Unstructured Matrix (Неструктурированная матрица)
Традиционные матрицы, используемые для проекций. Вычислительно дорогие (сложность O(d2)O(d^2)O(d2)).
Structured Matrix (Структурированная матрица)
Оптимизированная матрица, описанная в патенте. Вычислительно эффективная (сложность O(dlog⁡d)O(d \log d)O(dlogd)).
Element Matrices (Элементные матрицы)
Небольшие ортогональные матрицы, которые служат строительными блоками для структурированной матрицы.
Kronecker Product (Произведение Кронекера / Тензорное произведение)
Математическая операция (обозначается ⊗), используемая для объединения элементных матриц в структурированную матрицу при сохранении ортогональности.
Approximate Nearest Neighbor (ANN) search (Поиск приближенного ближайшего соседа)
Алгоритмы для эффективного поиска ближайших точек (наиболее похожих элементов) в высокоразмерных пространствах.
Binary Embedding / Quantization (Бинарное встраивание / Квантование)
Методы, используемые после проекции для дальнейшего сжатия данных в компактные коды для ускорения поиска.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной процесс создания и использования оптимизированного поискового пространства.

  1. Получение контента и извлечение признаков.
  2. Генерация векторов признаков (Feature Vectors), создавая поисковое пространство.
  3. Генерация серии элементных матриц (Element Matrices), каждая из которых имеет определенные взаимосвязи (relationships).
  4. Улучшение поискового пространства (enhancing the search space) путем преобразования (transforming) серии элементных матриц в структурированную матрицу (Structured Matrix) так, чтобы преобразование сохраняло эти взаимосвязи.
  5. Получение поискового объекта и поиск в улучшенном пространстве.
  6. Предоставление результатов.

Ядром изобретения является создание оптимизированного поискового индекса с использованием структурированной матрицы, полученной из меньших матриц, при сохранении ключевых математических свойств данных.

Claim 4 (Зависимый от 1): Уточняет метод преобразования.

Преобразование включает генерацию проекции Кронекера (Kronecker projection) путем применения произведения Кронекера (Kronecker product) к серии элементных матриц. Это является основной математической инновацией для повышения эффективности.

Claim 2 и 3 (Зависимые от 1): Уточняют сохраняемые взаимосвязи.

Взаимосвязи, сохраняемые во время преобразования, — это ортогональность (orthogonality) (Claim 2) или Евклидово расстояние (Euclidean distance) (Claim 3). Это гарантирует сохранение точности поиска.

Claim 7 (Зависимый от 1): Определяет прирост эффективности.

Преобразование достигает сложности пространства хранения (storage space complexity) O(log⁡d)O(\log d)O(logd) для d-мерных данных. Это подтверждает эффективность метода с точки зрения использования памяти.

Где и как применяется

Изобретение является глубоко инфраструктурным и применяется на этапах обработки данных и извлечения кандидатов.

INDEXING – Индексирование и извлечение признаков
На этом этапе контент получается, признаки извлекаются, и генерируются высокоразмерные Feature Vectors. Затем система применяет описанный метод для преобразования этих векторов в улучшенное поисковое пространство (enhanced search space) с использованием Structured Matrix. Это оптимизация векторного индекса.

RANKING (L1 - Retrieval / Отбор кандидатов)
Технология используется на этапе извлечения кандидатов, особенно в системах, выполняющих поиск приближенного ближайшего соседа (Approximate Nearest Neighbor (ANN) search). Когда системе необходимо найти похожие элементы (например, похожие изображения, семантически похожие документы на основе эмбеддингов), она использует улучшенное поисковое пространство для быстрого сравнения вектора запроса с индексированными векторами.

Входные данные:

  • Feature Vectors индексированных элементов контента.
  • Вектор поискового объекта (запроса).

Выходные данные:

  • Enhanced Search Space (Оптимизированный векторный индекс).
  • Список элементов-кандидатов (ближайших соседей), похожих на поисковый объект.

На что влияет

  • Типы контента и приложения: Влияет на любую поисковую модальность, которая полагается на сравнение высокоразмерных векторов. В патенте явно упоминаются computer vision applications (приложения компьютерного зрения), image search (поиск изображений), video search (поиск видео), display of relevant content ads (показ релевантной рекламы) и map data (картографические данные). Это также применимо к семантическому поиску текста (эмбеддинги документов).
  • Ниши и тематики: Патент не влияет на конкретные ниши или типы запросов с точки зрения ранжирования, но повышает эффективность поиска по всем ним, если они используют векторный поиск.

Когда применяется

  • Условия работы алгоритма: Используется, когда размерность (d) данных достаточно велика, чтобы традиционные неструктурированные проекции становились слишком медленными или ресурсоемкими.
  • Триггеры активации: Построение или обновление векторного индекса; выполнение поискового запроса, требующего сравнения векторов (поиск по сходству).
  • Особые случаи: Патент упоминает, что благодаря снижению требований к памяти, метод позволяет выполнять сложный поиск на мобильных устройствах с ограниченными ресурсами.

Пошаговый алгоритм

Фаза А: Построение улучшенного поискового пространства (Индексирование)

  1. Сбор данных: Идентификация и получение контента из одного или нескольких источников.
  2. Извлечение признаков: Извлечение признаков контента (например, анализ пикселей, текстур, текста).
  3. Генерация векторов: Генерация Feature Vectors, представляющих извлеченные признаки (создание высокоразмерного поискового пространства).
  4. Генерация элементных матриц: Генерация серии небольших ортогональных Element Matrices (например, с использованием QR-факторизации случайных гауссовских матриц или машинного обучения).
  5. Трансформация (Проекция Кронекера): Преобразование серии элементных матриц в большую структурированную ортогональную матрицу с использованием Kronecker Product.
  6. Хранение: Сохранение Structured Matrix (улучшенного поискового пространства).

Фаза Б: Поиск в улучшенном пространстве (Извлечение)

  1. Получение запроса: Получение поискового объекта (например, изображения или текста запроса).
  2. Извлечение признаков запроса: Извлечение признаков, связанных с поисковым объектом.
  3. Генерация вектора запроса: Генерация вектора признаков поискового объекта.
  4. Сравнение: Сравнение вектора признаков поискового объекта с улучшенным поисковым пространством. Вычисления выполняются эффективно (O(dlog⁡d)O(d \log d)O(dlogd)), например, с использованием вычислений, подобных Быстрому преобразованию Фурье (FFT-like calculations).
  5. Идентификация ближайших соседей: Определение подмножества векторов признаков, которые превышают порог сходства (ближайшие соседи).
  6. Извлечение результатов: Извлечение элементов контента, связанных с идентифицированными векторами.

Какие данные и как использует

Данные на входе

Патент работает с данными после того, как признаки были извлечены и преобразованы в векторы. Он не зависит от традиционных SEO-факторов (ссылки, авторитет и т.д.).

  • Контентные и Мультимедиа факторы: Исходный материал для анализа. В патенте упоминаются признаки, такие как colors (цвета), counters (счетчики), curves (кривые), texture (текстура), pixels (пиксели) для изображений, а также document keywords (ключевые слова документа) и word use frequency (частота использования слов) для текста.
  • Системные данные: Feature Vectors (высокоразмерное числовое представление контента).

Какие метрики используются и как они считаются

  • Euclidean Distance (Евклидово расстояние): Основная метрика, используемая для измерения сходства между векторами. Цель ортогональной проекции — сохранить это расстояние.
  • Computational Complexity (Вычислительная сложность): Измеряется в FLOPS (операции с плавающей запятой). Цель — уменьшить ее с O(d2)O(d^2)O(d2) до O(dlog⁡d)O(d \log d)O(dlogd).
  • Space Complexity (Пространственная сложность): Требования к хранению. Цель — уменьшить ее с O(d2)O(d^2)O(d2) до O(log⁡d)O(\log d)O(logd).
  • Формулы и алгоритмы:
    • Kronecker Product: Матрица проекции R определяется как: R=A1⊗A2⊗...⊗AMR = A_1 ⊗ A_2 ⊗ ... ⊗ A_MR=A1⊗A2⊗...⊗AM.
    • QR factorization (QR-факторизация): Используется для генерации ортогональных элементных матриц.

В патенте не упоминаются конкретные формулы для оценок ранжирования, весов или традиционных SEO-метрик.

Выводы

  1. Чисто инфраструктурный патент: Патент описывает исключительно инфраструктурную оптимизацию для обработки высокоразмерных данных. Он не дает прямых рекомендаций или инсайтов для SEO-стратегий, оценки качества контента или ссылочного профиля.
  2. Ключевая инновация — Эффективность: Основной вклад заключается в использовании Kronecker Product для создания структурированных ортогональных матриц. Это значительно повышает эффективность (скорость и использование памяти) сравнения векторов.
  3. Сохранение точности: Метод гарантирует, что прирост эффективности не достигается за счет точности, сохраняя orthogonality и Euclidean distance. Это означает, что результаты поиска по сходству остаются надежными.
  4. Масштабирование сложных моделей: Эта технология позволяет Google развертывать сложные модели машинного обучения (которые генерируют высокоразмерные векторы, такие как эмбеддинги) в больших масштабах, в том числе потенциально на мобильных устройствах с ограниченными ресурсами.
  5. Влияние на векторный поиск: Технология влияет на системы, основанные на поиске по сходству, такие как поиск изображений, сопоставление видео и семантическое сопоставление документов.

Практика

ВАЖНО: Патент является инфраструктурным и не дает практических выводов для SEO.

Best practices (это мы делаем)

Практических рекомендаций для SEO (контентных, технических, ссылочных), напрямую следующих из механизмов этого патента, нет. Он не подтверждает и не опровергает какие-либо конкретные методы SEO. Он лишь подтверждает, что Google обладает эффективной инфраструктурой для векторного анализа всех типов контента.

Worst practices (это делать не надо)

Не применимо. Патент описывает математическую оптимизацию инфраструктуры и не направлен против каких-либо конкретных SEO-манипуляций или практик.

Стратегическое значение

Стратегическое значение заключается в понимании инфраструктурных возможностей Google. Патент показывает, как Google инвестирует в математические оптимизации, чтобы сделать сложные модели машинного обучения (например, те, что создают эмбеддинги) масштабируемыми и быстрыми. Это подтверждает долгосрочный тренд на переход к векторному поиску (Vector Search). SEO-специалистам необходимо осознавать, что их контент анализируется как семантический вектор в высокоразмерном пространстве, но этот патент не дает советов о том, как под это оптимизироваться.

Практические примеры

Практических примеров для SEO, основанных на этом патенте, нет. Он актуален для разработчиков поисковых систем и специалистов по Information Retrieval, а не для практиков SEO.

Вопросы и ответы

Вводит ли этот патент новые факторы ранжирования?

Нет. Этот патент посвящен исключительно повышению эффективности внутренних вычислений поисковой системы (скорости и использования памяти), а не тому, как определяется релевантность или качество контента.

Помогает ли этот патент Google лучше понимать контент?

Нет. Технологии понимания контента (например, NLP модели) генерируют векторы признаков. Этот патент описывает, как Google может быстрее и эффективнее сравнивать эти векторы после их создания (например, для поиска похожих элементов), а не как их создавать или интерпретировать.

Что такое "Ортогональная проекция" и почему это важно для Google?

Ортогональная проекция — это способ преобразования данных, который сохраняет расстояния между точками данных (Euclidean Distance). Это критически важно для Google, потому что позволяет точно измерять сходство между элементами (например, насколько одно изображение похоже на другое или один текст на другой), что является основой для многих поисковых функций.

В чем основное преимущество этой технологии для Google?

Основное преимущество — радикальное повышение эффективности. Это позволяет выполнять сложные поисковые операции намного быстрее (снижение вычислительной сложности с O(d2)O(d^2)O(d2) до O(dlog⁡d)O(d \log d)O(dlogd)) и использовать значительно меньше памяти (снижение пространственной сложности до O(log⁡d)O(\log d)O(logd)).

Имеет ли это отношение к BERT или MUM (эмбеддингам)?

Да, косвенно. Модели, такие как BERT и MUM, производят высокоразмерные векторы (эмбеддинги) для представления смысла текста. Технология, описанная в этом патенте, помогает Google эффективно индексировать, хранить и сравнивать эти векторы в масштабах всего интернета.

Должен ли я изменить свою SEO-стратегию на основании этого патента?

Нет. Этот патент не содержит информации о том, какой контент Google считает качественным или релевантным. Он описывает только математические методы оптимизации инфраструктуры поиска.

Какие типы поиска больше всего затрагивает эта технология?

В первую очередь это влияет на системы, требующие сравнения сложных данных, такие как поиск изображений, поиск видео, компьютерное зрение и любые другие системы, использующие поиск по сходству в высокоразмерных пространствах (ANN search).

Что такое Произведение Кронекера (Kronecker Product) простыми словами?

Это математическая операция, которая позволяет "собрать" большую сложную матрицу из нескольких маленьких матриц определенным образом. Google использует это свойство для создания эффективной структуры индекса, которая требует значительно меньше памяти для хранения и позволяет быстрее выполнять поисковые вычисления, сохраняя при этом точность.

Помогает ли этот патент бороться со спамом?

Напрямую нет. Он не описывает методы обнаружения спама. Однако, если системы обнаружения спама используют сравнение высокоразмерных векторов, этот патент может сделать эти системы более быстрыми и эффективными.

Имеет ли это отношение к мобильной оптимизации?

В патенте упоминается, что уменьшение требований к памяти и вычислительной мощности позволяет выполнять эти сложные поисковые операции на мобильных платформах (смартфонах, планшетах), которые обычно имеют меньше ресурсов, чем серверы. Это инфраструктурное преимущество, а не фактор ранжирования Mobile-First.

Похожие патенты

Как Google использует векторный поиск (ANN) и многоэтапное ранжирование (L1/L2/L3) для нахождения похожих объектов
Этот патент описывает архитектуру поисковой системы (на примере 3D-моделей), которая критически важна для понимания современного веб-поиска. Google применяет векторный поиск (ANN) для быстрого отбора кандидатов (L1) и многоэтапное ранжирование (L2/L3), используя разные наборы признаков и составные функции оценки на каждом этапе для повышения эффективности и точности.
  • US8606774B1
  • 2013-12-10
  • Индексация

Как Google моделирует неопределенность и широту темы, используя вероятностные распределения вместо векторных точек
Google использует метод для улучшения dense retrieval, представляя запросы и документы не как отдельные точки (векторы) в семантическом пространстве, а как многомерные вероятностные распределения (области). Это позволяет системе учитывать неопределенность в понимании контента и широту охвата темы, повышая точность поиска за счет сравнения этих распределений.
  • US20240354557A1
  • 2024-10-24
  • Семантика и интент

Как Google кластеризует результаты поиска по картинкам и выбирает репрезентативное (каноническое) изображение для показа
Google организует результаты поиска изображений в иерархические кластеры на основе визуального сходства. Для каждого кластера выбирается «каноническое изображение» — часто это изображение с самым высоким исходным рейтингом или наиболее визуально авторитетное (с использованием метрик типа VisualRank). Эта структура определяет, как изображения группируются и какое изображение получает максимальную видимость в интерфейсе Google Images.
  • US8352465B1
  • 2013-01-08
  • Мультимедиа

  • SERP

Как Google собирает и структурирует данные о поведении пользователей в Поиске по картинкам (включая ховеры, клики и 2D-позицию)
Патент Google описывает инфраструктуру для детального сбора данных в Поиске по картинкам. Система фильтрует общие логи, фиксируя не только клики, но и наведение курсора (ховеры), длительность взаимодействия и точное 2D-расположение (строка/столбец) изображения на выдаче. Эти данные агрегируются в Модель Запросов Изображений для оценки релевантности.
  • US8898150B1
  • 2014-11-25
  • Поведенческие сигналы

  • SERP

  • Мультимедиа

Как Google оптимизирует скорость и точность векторного поиска (MIPS) с помощью локального ортогонального разложения (LOD)
Патент Google, описывающий инфраструктурный метод повышения точности семантического поиска (Maximum Inner Product Search). Система использует технику Local Orthogonal Decomposition (LOD) для более эффективного сжатия (квантования) векторных эмбеддингов. Это позволяет быстрее и точнее находить документы, семантически схожие с запросом пользователя, улучшая работу систем типа Neural Matching.
  • US11354287B2
  • 2022-06-07
  • Семантика и интент

  • Индексация

Популярные патенты

Как Google определяет основной контент страницы, анализируя визуальную структуру и характеристики разделов
Google использует систему для идентификации основного контента веб-страницы путем её разделения на логические разделы на основе визуального макета. Система оценивает характеристики каждого раздела (соотношение ссылок к тексту, количество слов, изображения, расположение) относительно характеристик всей страницы, чтобы выделить наиболее значимый контент и отделить его от навигации и шаблонов.
  • US20140372873A1
  • 2014-12-18
  • Структура сайта

  • Техническое SEO

  • Ссылки

Как Google определяет популярность и ранжирует физические события (концерты, выставки) в локальной выдаче
Google использует специализированную систему для ранжирования физических событий в определенном месте и времени. Система вычисляет оценку популярности события на основе множества сигналов: количества упоминаний в интернете, кликов на официальную страницу, популярности связанных сущностей (артистов, команд), значимости места проведения и присутствия в общих поисковых запросах о событиях. Затем результаты переранжируются для обеспечения разнообразия, понижая схожие события или события одной категории.
  • US9424360B2
  • 2016-08-23
  • Local SEO

  • Поведенческие сигналы

Как Google использует машинное зрение и исторические клики для определения визуального интента и ранжирования изображений
Google использует систему, которая определяет визуальное значение текстового запроса, анализируя объекты на картинках, которые пользователи выбирали ранее по этому или похожим запросам. Система создает набор «меток контента» (визуальный профиль) для запроса и сравнивает его с объектами, распознанными на изображениях-кандидатах с помощью нейросетей. Это позволяет ранжировать изображения на основе их визуального соответствия интенту пользователя.
  • US20200159765A1
  • 2020-05-21
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google использует связанные запросы и временный «бустинг» для обнаружения и тестирования релевантных документов, которые ранжируются низко
Патент описывает механизм улучшения поиска путем перемещения документов на более высокие позиции. Google идентифицирует документы, которые высоко ранжируются по связанным запросам (например, с синонимами, уточнениями или исправленными ошибками), но низко по исходному запросу, и повышает их. Цель — протестировать истинную релевантность этих документов и собрать пользовательский отклик (клики) для улучшения будущего ранжирования.
  • US8521725B1
  • 2013-08-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google использует клики по изображениям для определения схожести запросов и картинок (Поведенческая схожесть)
Google анализирует поведение пользователей в поиске по картинкам, чтобы определить схожесть двух запросов (или двух изображений). Если пользователи часто кликают на одни и те же изображения в ответ на разные запросы, эти запросы считаются похожими. Этот механизм (Коллаборативная фильтрация) позволяет находить связи независимо от языка или типа запроса (текст/изображение) и используется для генерации рекомендаций.
  • US8280881B1
  • 2012-10-02
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google динамически регулирует влияние фактора близости в локальном поиске в зависимости от тематики запроса и региона
Google использует систему для определения того, насколько важна близость (расстояние) для конкретного поискового запроса и региона. Анализируя исторические данные о кликах и запросах маршрутов, система вычисляет «Фактор важности расстояния». Для запросов типа «Кофе» близость критична, и удаленные результаты пессимизируются. Для запросов типа «Аэропорт» близость менее важна, и качественные результаты могут ранжироваться высоко. Система также учитывает плотность региона (город или село), адаптируя ожидания пользователей по расстоянию.
  • US8463772B1
  • 2013-06-11
  • Local SEO

  • Поведенческие сигналы

Как Google запоминает вопросы без авторитетного ответа и автономно сообщает его позже через Ассистента
Патент Google описывает механизм для обработки запросов, на которые в момент поиска нет качественного или авторитетного ответа. Система запоминает информационную потребность и продолжает мониторинг. Когда появляется информация, удовлетворяющая критериям качества (например, в Knowledge Graph), Google автономно доставляет ответ пользователю, часто встраивая его в следующий диалог с Google Assistant, даже если этот диалог не связан с исходным вопросом.
  • US11238116B2
  • 2022-02-01
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

Как Google использует время просмотра (Watch Time) и поведение пользователей для расчета независимой от запроса оценки качества видео
Google рассчитывает независимый от запроса сигнал качества (Q) для видео, анализируя корреляции между поведенческими метриками: временем просмотра, рейтингами и количеством просмотров. Система использует математические функции (Predictor и Voting) для моделирования качества и определения достоверности данных, а также активно фильтрует спам в рейтингах. Этот сигнал Q затем используется для ранжирования видео в поиске.
  • US8903812B1
  • 2014-12-02
  • Поведенческие сигналы

  • SERP

  • Антиспам

Как Google находит, оценивает и показывает «интересные факты» о сущностях в поиске
Google идентифицирует «уникальные» или «интересные» факты о сущностях, анализируя документы, на которые ссылаются с использованием триггеров (например, «fun facts»). Система извлекает предложения, кластеризует их для поиска лучшей формулировки и оценивает качество факта на основе авторитетности источника, уникальности терминов и топикальности. Эти факты затем показываются в выдаче в виде специальных блоков.
  • US11568274B2
  • 2023-01-31
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

Как Google интегрирует поиск в инструменты создания контента и использует распространение ссылок для расчета репутации автора
Google разработал систему (UDS), интегрирующую поиск в инструменты создания контента (Email, блоги, форумы). Система автоматически уточняет запросы на основе контекста и профилей пользователей. Если автор вставляет ссылку, а читатель кликает по ней, Google использует это взаимодействие для расчета «оценки репутации» автора и как поведенческий сигнал качества контента.
  • US7844603B2
  • 2010-11-30
  • Ссылки

  • Поведенческие сигналы

  • EEAT и качество

seohardcore