Как пишет N+1, в процессе работы в новом режиме приложение распознает речь пользователей (для этого используется технология компании SpeechKit, на базе которой работает и голосовой помощник "Яндекса" – "Алиса"), переводит ее и зачитывает обратно. Неправильно переведенные фразы можно исправить, а для удобства говорящих весь диалог сохраняется в приложении во время беседы.
Отметим, что аналогичная функция существует в сервисе Google Translate, где перевод диалогов доступен для 32 языков.
Яндекс.Переводчик запустил новую функцию с поддержкой диалогов: теперь пользователи приложений на iOS и Android могут вести беседу на разных языках, а сервис будет ее переводитьhttps://t.co/CZDc3zPsa6 pic.twitter.com/gwD58aRR4q
— N + 1 (@nplusodin) September 25, 2019
Напомним, около двух лет назад компания "Яндекс" объявила о внедрении в сервис "Яндекс.Переводчик" гибридной системы перевода, использующей как привычный статистический метод перевода, так и нейросети. Как поясняли в компании, с момента запуска "Яндекс.Переводчик" использовал статистическую систему перевода, которая предусматривает разбивку предложений на части и подбор всех возможных переводов для каждого из фрагментов с определением их вероятности. После этого система составляет различные варианты переведенного приложения, выбирая тот, в котором содержатся фрагменты с высокими вероятностями, хорошо сочетающиеся друг с другом.
Преимущество такой системы заключается в том, что статистический переводчик хорошо запоминает редкие и сложные слова и фразы. В то же время результат перевода нередко бывает похож на мозаику: общая картина понятна, но заметно, что она составлена из отдельных кусочков. Что же касается нейросетевого переводчика, то, как и статистический, он анализирует массив параллельных текстов и учится находить в них закономерности. Однако нейросеть работает не со словами и фразами, а с предложениями. Такой подход позволяет учесть смысловые связи внутри предложения, поняв его контекст.