Большинство интернет-видео с реалистичной подменой лица оказались порнографией
А кто-то ожидал иного результата?
/imgs/2019/10/08/12/3600054/366d66e13dde87dc1c2d95709dbec5abc0b1fb66.png)
Почти два года назад, в ноябре 2017-го, на Reddit было опубликовано несколько порно-видео, сделанные с помощью нейросети DeepFake. Отличительной особенностью данных видео было то, что нейросеть смогла достаточно правдоподобно заменить лица порно-актрис на лица актрис голливудских фильмов. И вот новейшие исследования показывают, что даже спустя так много времени основным типом видео, которые создаются при помощи DeepFake, носят порнографический характер.
© Ferra.ru