«Поиск – это постоянное совершенствование. Понимание языка – это актуальная задача, которая мотивирует нас постоянно улучшать Google Поиск. Мы развиваемся, стараясь понять суть каждого отправленного запроса и найти ресурсы, которые смогут вам помочь», – говорить Панду Найак, вице-президент Google Поиска. – «За 15 лет работы над Google Поиском я понял, что человеческое любопытство не знает границ. Ежедневно мы видим миллиарды поисковых запросов, и 15% из них – совершенно новые».

Пользователи не всегда понимают, как лучше сформулировать свой запрос. Они могут забыть нужное слово, написать его неправильно, не могут подобрать нужное. Так что задача поискового алгоритма – не только найти нужное, но и понять, что именно ищет пользователь.

Технологии машинного обучения позволяют лучше обрабатывать запросы. Применение моделей BERT в Google Поиске Панду Найак назвал «крупнейшим прорывом за последние пять лет и одним из самых грандиозных успехов за всю историю Google Поиска».

В прошлом году компания представила в открытом доступе технологию предварительного обучения обработке текста на естественном языке (NLP), разработанную на базе нейронных сетей, получившую название BERT (Bidirectional Encoder Representations from Transformers). С ее помощью каждый может обучить собственную современную вопросно-ответную систему.

Трансформеры – это модели, которые обрабатывают слова не как последовательность разрозненных языковых единиц, а учитывают в предложении взаимодействие слов друг с другом. Решение потребовало и новой технической составляющей – разработчики использовали тензорные процессоры (TPU), с помощью которых можно быстро подобрать для пользователя более актуальную информацию.

Благодаря новинке, Google Поиск станет эффективнее для длинных и разговорных запросов, а также запросов с предлогами. Теперь поисковая система будет лучше понимать контекст, а значит, пользователь может использовать более естественные запросы, а не наборы из ключевых слов.

Источник: Официальный блог Google Россия