Создавать лицевую анимацию по одному изображению научили нейросеть исследователи из московского центра по изучению ИИ Samsung. Для этого разработали новый способ наложения лицевых ориентиров: система может заставить "цель" говорить, поворачивать головой и применять мимику. Раньше для анимации по одному изображению требовалось гораздо больше входных данных, пишет TJournal.
Пока результат получается неидеальным, но реалистичным. Этого удалось добиться, используя генеративную состязательную нейросеть — тип нейросетей, состоящий из двух модулей, один из которых пытается обмануть другой. Таким образом система постоянно "учится" и выдает результат с определенным уровнем "реализма".
Подобные системы были и раньше, например, алгоритм Deepfake в 2017 году начали использовать для наложения лиц знаменитостей на актеров в порно. Однако обычно подобным системам требовалось множество входных данных: десятки или даже сотни изображений лица «цели» с разных ракурсов, углов, с разной мимикой или освещением.
Samsung стали одними из первых, кому удалось научить нейросеть создавать лицо только по одному кадру. За счет этого у исследователей получилось "оживить" Мэрилин Монро, Альберта Эйнштейна, Федора Достоевского, Мона Лизу не только.