Искусственный интеллект Samsung оживил Мону Лизу и Достоевского

Искусственный интеллект Samsung оживил Мону Лизу и Достоевского

Cкоро будет невозможно определить, является ли видео человека реальным или фальшивым. Новое исследование Samsung показало, как нейронная сеть может превратить неподвижное изображение в убедительное видео.

Исследователи из центра исследований искусственного интеллекта Samsung в Москве достигли этого, обучив «глубокую сверточную сеть» на большом количестве видеороликов с говорящими головами, позволяя нейронным сетям идентифицировать определенные черты лица, а затем используя эти знания для анимации изображения.

Результаты, представленные в статье не так хороши, как некоторые из глубоко обработанных видео, которые до этого появились в сети, но для создания убедительных видео требуется большое количество изображений человека, которого нужно «оживить». Преимущество подхода Samsung заключается в том, что в видео можно превратить одно неподвижное изображение (хотя точность получаемого видео увеличивается с увеличением количества изображений).

Вы можете увидеть некоторые результаты этого исследования в видеоролике ниже. Используя одно неподвижное изображение Федора Достоевского, Сальвадора Дали, Альберта Эйнштейна, Мэрилин Монро и даже Моны Лизы, ИИ смог создать видеоролики о том, как они разговаривают, и которые достаточно реалистичны (в определенные моменты) чтобы казаться реальными кадрами.

Ни одно из этих видео не обманет ни эксперта, ни того, кто смотрит видео достаточно внимательно. Но, как мы наблюдали уже в предыдущих исследованиях сгенерированных изображений на основе ИИ, результаты, как правило, значительно улучшаются в течение нескольких лет.

Последствия этого исследования пугают. Вооружившись этим инструментом, нужно найти всего лишь одну фотографию человека (которую сегодня легко получить в социальных сетях), чтобы создать видео, на котором он говорит. Добавьте к этому инструмент, который может использовать короткие фрагменты образцов аудиоматериалов для создания убедительного, фальшивого голоса человека, и каждый может заставить любого «сказать» что угодно. А с помощью таких инструментов, как Nvidia GAN, можно даже создать реалистично выглядящих, поддельных людей для такого видео. По мере того как эти инструменты становятся все более мощными и доступными, становится все труднее отличить настоящие видео от фейковых. Нам остается только надеяться, что инструменты, которые помогут отличить настоящие видео от фейковых, также станут более продвинутыми.


13:16
290