Forbes: Машинальная озвучка: в чем заключаются проблемы ИИ-дубляжа


Иногда радость от того, что ИИ уже сейчас может быть невероятно хорош, перекрывается тревогой о том, что будет с профессиями и рынком труда. Чтобы рассуждать об этом предметно, имеет смысл посмотреть на один конкретный тестовый полигон: индустрию дубляжа и озвучки. Здесь сходится все сразу: большие модели распознавания и синтеза речи, живая работа актеров озвучки, культурные нюансы и почти мгновенная реакция зрителей. Не в этическом, а в самом практическом смысле: звучит ли это достаточно хорошо, чтобы смотреть дальше?

О том, как ИИ меняет дубляж и профессию актеров озвучки, рассуждает инженер‑исследователь в области синтеза речи, ИИ‑дубляжа и голосовой биометрии, основатель стартапа Lang Swap Илья Шигабеев.

Эксперимент со студентами

На курсе «ИИ в медиа» в Московском политехе, где я преподаю, студенты получили задание: найти бесплатный или условно бесплатный сервис ИИ-видеодубляжа, перевести ролик с английского на русский, а потом честно досмотреть результат до конца и зафиксировать, где именно возникают ошибки.

Из 20 участников более половины (55%) выбрали один и тот же инструмент — не самый качественный, но самый простой с точки зрения запуска и отсутствия сложной регистрации. Остальные разбрелись по десятку сервисов. Рынок сегодня выбирает скорость и удобство, а не качество звука.

Сами ошибки оказались не футуристическими, а очень земными. В 70% работ студенты отметили неправильные ударения, в 60% — смысловые ошибки, в каждом третьем случае — проблемы с голосом и тембром. Где-то сервис уверенно отправлял зрителя в «Бладобасток» вместо Владивостока. А кто-то честно признавался, «с 40-й секунды смотреть уже трудновато», потому что внимание начинает уходить не в содержание, а в странные паузы и интонации.

Самое показательное — реакция студентов после теста. Они проводили границу не между хорошими и плохими платформами, а между жанрами, где цена ошибки низкая, и жанрами, где она разрушает доверие. Среднее качество ИИ-дубляжа они готовы терпеть в YouTube-влогах (66,7%), иногда — в разговорных подкастах. Для кино, документалистики и юмора согласных не нашлось: там важны не только информация, но и интонация, культурные нюансы и точность эмоций.

Для новостей ответ был почти как редакционная политика: 100% участников считают точность перевода главным критерием, а также опасаются смысловых ошибок и дипфейков. В сценарии «нужно срочно перевести интервью с иностранным политиком» две трети участников выбрали субтитры как более проверяемый формат. Все 100% требовали маркировки «озвучено ИИ» не как этический жест, а как честное предупреждение зрителю.

Ответы студентов полностью соответствуют наблюдениям на рынке, давайте разберемся, почему и как ситуация будет меняться. <…>

Продолжение материала читайте на сайте Forbes


Рубрика: Новости

Дата: 02-02-2026

Теги: Нейросети