Компьютерный голос смог обмануть и людей, и алгоритмы
Исследователи изучили модель атаки, при которой злоумышленники имеют доступ к образцам голоса жертвы. С помощью записей он может дообучить голосовую модель, чтобы она синтезировала речь жертвы.
Качество синтезированной речи исследователи проверяли на открытом программном обеспечении Resemblyzer и на сервисах Microsoft Azure, WeChat и Amazon Alexa. Также учёные позвали 14 добровольцев, чей голос записывали. В итоге синтезированный голос смог обмануть WeChat и Alexa в большинстве случаев.
Затем исследователи позвали 200 добровольцев, которым давали послушать синтезированные и настоящие голоса. В половине случаев участники не сумели отличить настоящий голос от поддельного.
© Ferra.ru