
Google применяет систему двойной классификации для защиты пользователей от неуместного или оскорбительного контента. Система оценивает, относится ли запрос к «защищенной группе людей» и содержит ли он деликатные термины. Параллельно анализируется, содержат ли результаты поиска оскорбительный контент. На основе комбинации этих классификаций и анализа сессии пользователя результаты могут быть отфильтрованы или понижены в ранжировании.
Патент решает проблему непроизвольного воздействия на пользователей неуместного, деликатного или оскорбительного контента (inappropriate sensitive or offensive content) в результатах поиска. Он направлен на улучшение механизмов фильтрации (например, SafeSearch), особенно в ситуациях, когда контент является оскорбительным, подстрекательским или издевательским (spoof) по отношению к определенным «защищенным классам людей» (protected class of people), таким как демографические группы или профессии.
Запатентована система, которая применяет комбинаторную логику для модификации поисковой выдачи. Система использует два ключевых классификатора: Query Classifier (для анализа запроса) и Search Result Classifier (для анализа контента). Решение о фильтрации (удалении) или понижении (демоутинге) результата принимается на основе сочетания этих классификаций. Также учитываются данные сессии пользователя (user session data) для уточнения намерений.
Механизм работает следующим образом:
protected class (например, «подростки», «политики»), и содержит ли он деликатные/оскорбительные термины (например, «шутки», «мемы», «банды»).sensitive or offensive content (например, насилие, порнография, издевательства, разжигание ненависти).protected class И содержит деликатные термины, А результат содержит оскорбительный контент, то результат фильтруется (удаляется).protected class, но НЕ содержит деликатных терминов, А результат содержит оскорбительный контент, то результат понижается в ранжировании.Высокая. Защита пользователей от оскорбительного контента, hate speech и шокирующих материалов является приоритетной задачей для поисковых систем. Этот патент описывает базовую архитектуру для реализации сложных сценариев фильтрации, которые лежат в основе современных систем SafeSearch и механизмов обеспечения качества выдачи в деликатных тематиках.
Патент имеет существенное значение (75/100) для SEO, особенно в нишах, связанных с юмором, политикой, социальными темами, новостями и YMYL. Он демонстрирует, что оценка контента происходит не изолированно, а в контексте запроса и его связи с защищенными группами. Контент, классифицированный как оскорбительный или неуместный в этом контексте, подвергается риску полного исключения из выдачи или значительного понижения, даже если он релевантен запросу.
Sensitive or offensive content. Включает контент, который является незаконным, оскорбительным или крайне нежелательным для protected class. Примеры: контент для вербовки в банды, подстрекательство к насилию, высмеивание (mocking) или издевательства (spoof content), разжигание ненависти против группы.protected class, и наличия sensitive or offensive terms.sensitive or offensive content. Может включать специализированные классификаторы (например, классификатор насилия, порнографии, spoof).likely topic of interest) и дополнительной модификации результатов.Патент содержит несколько независимых пунктов (Claims 1, 4, 5), описывающих логику системы фильтрации.
Claim 1 (Независимый пункт): Описывает общий метод обработки запроса с учетом классификаций и данных сессии.
relevance score) и определяет ранжирование.user session data) и атрибуты устройства.user session data.label), указывающей на тематику контента, на основе классификации результата как оскорбительного, и принятие решения о фильтрации или модификации ранжирования на основе этой метки.Claim 4 и 5 (Независимые пункты): Детализируют конкретные правила модификации выдачи на основе классификаций.
Выбор презентационного набора включает следующие действия:
Изобретение затрагивает несколько этапов поиска, используя предварительно вычисленные данные и влияя на финальный этап выдачи.
INDEXING – Индексирование и извлечение признаков
На этом этапе Search Result Classifier анализирует контент и присваивает документам метки (labels) или оценки, указывающие на наличие sensitive or offensive content (порнография, насилие, spoof и т.д.). Эти данные сохраняются в индексе.
QUNDERSTANDING – Понимание Запросов
Query Classifier анализирует входящий запрос в реальном времени, чтобы определить его связь с protected class of people и наличие деликатных терминов. Также на этом этапе могут анализироваться user session data для определения контекста и намерений пользователя.
RANKING – Ранжирование
На этом этапе генерируется исходный Candidate set of search results с базовыми оценками релевантности (relevance scores).
RERANKING – Переранжирование (Twiddlers)
Основное применение патента. Система действует как Twiddler (механизм корректировки выдачи):
classification signals от классификаторов запросов, результатов и данных сессии.Presentation set.Входные данные:
Query Classifier).Search Result Classifier).User session data и атрибуты устройства (например, настройки SafeSearch).Выходные данные:
YMYL-тематики, политику, новости о происшествиях и социальные вопросы.Алгоритм применяется при обработке запроса, но его действия (фильтрация или понижение) активируются только при выполнении определенных условий, основанных на комбинации классификаций.
Триггеры активации модификации выдачи:
protected class И результат содержит sensitive or offensive content.protected class И содержит деликатные термины, И результат содержит sensitive or offensive content.SafeSearch setting).Candidate set of search results с базовыми relevance scores.Query Classifier анализирует запрос и определяет его класс: protected class.protected class (но не содержит деликатных терминов).protected class И содержит sensitive or offensive terms.Search Result Classifier): sensitive or offensive content.sensitive or offensive content (с возможным присвоением меток тематики).user session data для определения контекста сессии.Presentation set of search results.Патент фокусируется на использовании классификаций. Для их вычисления и применения используются следующие данные:
Search Result Classifier с использованием методов сопоставления ключевых слов и обработки изображений для выявления деликатного контента.Query Classifier. Система использует обученные данные (training data), которые могут быть проверены людьми (human reviewer), для идентификации терминов, связанных с protected classes и sensitive content.SafeSearch).sensitive or offensive content. Патент упоминает использование пороговых значений (thresholds). Например, если количество терминов, связанных с насилием, превышает порог, документ классифицируется как содержащий насилие. Пороги могут различаться для разных тем (например, порог для spoof может быть выше, чем для насилия). Документам присваиваются метки (labels) тематики.protected class достаточно широкое.inappropriate content, такой как высмеивание (spoof/mocking), разжигание ненависти и подстрекательство.User session data используется для корректировки результатов. Поведение пользователя в рамках сессии может активировать более строгие фильтры, если система определяет паттерн поиска неприемлемого контента.protected classes), избегайте контента, который может быть воспринят как высмеивание (spoof), разжигание ненависти или подстрекательство.sensitive контент (например, сайт с юмором или новостями), убедитесь, что нейтральный контент четко отделен и не «загрязнен» сигналами, которые могут привести к классификации раздела как offensive.spoof.protected classes, с помощью кликбейта или шок-контента. Даже если контент релевантен, он будет понижен или удален, если классифицирован как sensitive/offensive.Патент подтверждает стратегическое стремление Google выступать в роли модератора контента для обеспечения безопасности выдачи. Это подтверждает, что релевантность может быть отменена классификацией контента как оскорбительного или неприемлемого. Для SEO это означает, что работа над качеством контента включает не только E-E-A-T, но и этические аспекты, нейтральность и отсутствие материалов, которые могут быть классифицированы как inappropriate.
Сценарий: Ранжирование сайта с юмористическим контентом о профессиях
Сайт публикует статью «Топ-10 злых шуток и мемов про патентных поверенных». Классификатор помечает контент как offensive (spoof/mocking). Патентные поверенные определены как protected class.
offensive контент, ее ранг будет значительно понижен (Demotion).offensive контент, она будет отфильтрована из выдачи (Filtering).Что такое «Protected class of people» (Защищенный класс людей) согласно патенту?
Это любая группа людей, имеющая общую демографическую характеристику, для которой система стремится обеспечить защиту от неуместного контента. Примеры в патенте включают детей и подростков (teenagers), а также профессии, такие как политики (politicians) или патентные поверенные (patent attorneys). Это определение достаточно широкое и может применяться к различным социальным и демографическим группам.
В чем разница между «Sensitive content» и «Inappropriate sensitive content»?
Sensitive content — это общая категория, включающая насилие, порнографию и шок-контент (gore). Inappropriate sensitive content — это подкатегория, которая включает более сложные случаи: разжигание ненависти, высмеивание (mocking/spoof) демографических групп, подстрекательство к насилию или вербовку в банды. Система особенно агрессивно борется с Inappropriate content, когда он связан с защищенными группами.
Как система решает, понизить результат или полностью его удалить (отфильтровать)?
Решение зависит от явности интента в запросе. Если запрос относится к защищенной группе, но сформулирован нейтрально (Класс B, например, «подростковые группы»), а результат содержит деликатный контент, он будет понижен. Если запрос явно ищет деликатный контент о защищенной группе (Класс C, например, «банды подростков насилие»), то деликатный результат будет полностью отфильтрован.
Влияет ли этот механизм на контент, который не связан с защищенными группами?
Согласно описанным правилам (Claims 4, 5), если запрос классифицирован как не связанный с protected class (Класс A), результаты обычно выбираются без модификации, даже если они содержат sensitive content. Однако патент также упоминает общие механизмы SafeSearch и использование данных сессии, которые могут привести к фильтрации даже в этом случае (например, если у пользователя активирован SafeSearch).
Как система использует данные сессии пользователя (User session data)?
Система анализирует предыдущие запросы и клики в рамках текущей сессии, чтобы определить вероятную тему интереса. Если система обнаруживает паттерн поиска неприемлемого контента (например, несколько запросов о spoof-контенте), она может применить более строгую фильтрацию к последующим запросам в этой сессии, даже если они сформулированы нейтрально.
Может ли сатира, юмор или мемы быть отфильтрованы этой системой?
Да, абсолютно. Патент явно упоминает spoof (высмеивание/пародия) и mocking как примеры inappropriate sensitive content. Если юмористический или сатирический контент направлен на демографическую или социальную группу и классифицируется как оскорбительный или издевательский, он будет подвергнут фильтрации или понижению по соответствующим запросам.
Как SEO-специалисту определить, классифицируется ли его контент как «sensitive» или «offensive»?
Патент не дает точных метрик, но упоминает использование классификаторов, обученных на training data, и пороговых значений (thresholds) для количества деликатных терминов или анализа изображений. На практике следует критически оценивать контент на предмет наличия насилия, шок-контента, языка вражды, оскорблений или высмеивания социальных/демографических групп.
Влияет ли этот патент на новостные сайты, публикующие информацию о скандалах или насилии?
Да, влияет. Если новостной сайт публикует статью о насилии (sensitive content), связанном с определенной группой людей (protected class), эта статья может быть понижена в выдаче по общим запросам об этой группе. Это делается для защиты пользователей, которые искали общую информацию, от непроизвольного столкновения с контентом о насилии.
На каком этапе поиска работает этот механизм?
Он работает на этапе переранжирования (Reranking), после того как основной алгоритм ранжирования сформировал список кандидатов. Он использует классификации, которые были присвоены документам на этапе индексирования (Indexing) и классификации запроса на этапе его понимания (Query Understanding).
Применяется ли эта логика только к органическому поиску или также к изображениям и видео?
Патент указывает, что sensitive or offensive content включает изображения и видео. Search Result Classifier использует методы обработки изображений для анализа мультимедийного контента. Следовательно, описанная логика фильтрации применяется ко всем типам контента в поиске.

Безопасный поиск
SERP
Семантика и интент

Безопасный поиск
SERP

Персонализация
Поведенческие сигналы
SERP

Безопасный поиск
Поведенческие сигналы
Семантика и интент

Семантика и интент
Безопасный поиск
Поведенческие сигналы

SERP
Ссылки
Структура сайта

Индексация
Поведенческие сигналы

Персонализация
Семантика и интент
SERP

Поведенческие сигналы
Семантика и интент
Структура сайта

Поведенческие сигналы
SERP

Персонализация
Поведенческие сигналы
Антиспам

Local SEO
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы
Local SEO

Семантика и интент
Поведенческие сигналы
SERP

Поведенческие сигналы
SERP
Мультимедиа
