Нова технологія глибинних фейків перетворює фото- та аудіофайл у відеокліп

Нова технологія глибинних фейків перетворює фото- та аудіофайл у відеокліп

16:20,
20 Червня 2019
1747

Нова технологія глибинних фейків перетворює фото- та аудіофайл у відеокліп

16:20,
20 Червня 2019
1747
Нова технологія глибинних фейків перетворює фото- та аудіофайл у відеокліп
Нова технологія глибинних фейків перетворює фото- та аудіофайл у відеокліп
Автори:
Нові дослідження Імперського коледжу в Лондоні та дослідницького центру штучного інтелекту компанії Samsung у Великобританії показують, як можна з одного фото- та аудіофайлу створити відеопортрет, що співає або розмовляє.

Як повідомляє Тhe Verge, дослідники використовували машинне навчання для створення таких результатів. І хоча робота далека від 100 % реалістичності, результати вражають, враховуючи те, наскільки мало потрібно даних.

Об'єднуючи справжній голос Альберта Ейнштейна, наприклад, з фотографією відомого математика, можна швидко створити лекцію, яку не бачили раніше:

Ця робота не є цілком реалістичною, але вона є останньою ілюстрацією того, як швидко ця технологія рухається. Методи генерування глибинних фейків стають простішими з кожним днем, пише видання.

Дослідження, подібні до цього, зрозуміло змушують людей турбуватися про те, що такі роботи будуть використовуватися для дезінформації та пропаганди.

Детальніше про можливості штучного інтелекту у створенні підроблених відео та куди нас це може привести, читайте у матеріалі “Детектор медіа”.

 

Читайте також
Кадр із відеорозика, зробленого з портрету Енштейна
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
Код:
Им'я:
Текст:
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду