Искусственный интеллект Google учится красиво говорить по-китайски и по-английски
Для этого самообучающейся нейросети необходимо прослушать множество аудиозаписей и научиться самостоятельно выделять смыслообразующие изменения длины звуковой волны. Однако это не так просто. Аудиозапись человеческой речи — это порядка 16000 звуковых модуляций в секунду. Представьте себе визуализацию звуковой волны — обычный веретенообразный график. Каждый изгиб этого веретена порожден тысячами изменений длины и амплитуды звуковой волны.
Существующие генераторы речи работают за счет конкатенации (склеивания) фрагментов записанной речи из обширной библиотеки. Их звучание совсем нетрудно отличить от человеческой речи. Вы часто слышите конкатенативные TTS (text-t-speach systems) в навигаторе: «Поверните направо, а затем поверните направо». Не записав дополнительно огромные библиотеки, нельзя добиться от такой системы естественного звучания. Поэтому возникла потребность в параметрической TTS (наподобие тех, которые существуют в вокодерах), которая могла бы озвучить любой фрагмент текста, не известный заранее, и была бы при этом неотличима на слух от речи живого человека.
WaveNet будет работать как параметрический синтезатор речи. При параметрическом подходе речь раскладывается на множество непрерывно меняющихся сигналов. До сих пор параметрические системы могли воспроизводить только заранее известные короткие сообщения, однако WaveNet будет способен предсказывать параметры каждого следующего колебания благодаря той же архитектуре нейросети, что позволила Deep Mind научиться распознавать изображения. Предсказание каждого нового параметра будет основано на опыте всех прошлых предсказаний нейросети, поэтому по мере обучения нейросети ее способности будут расти экспоненциально.
Во время обучения в компьютер загружаются записи речи живых людей на английском и китайском языках. После обучения разработчики просят WaveNet озвучить сгенерированные ей самой фразы. То, что система выдает сейчас, пока все еще отличается от речи живого человека, но уже не звучит как искусственный голос из навигатора.
Ранее Deep Mind обыграл человека в го и разработал алгоритм для офтальмологической диагностики.