Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?

Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?

11:07,
11 Січня 2019
13687

Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?

11:07,
11 Січня 2019
13687
Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?
Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?
Штучний інтелект дозволяє нині створювати підроблені відео, які виглядають майже як справжні. Як це відбувається й куди нас це може привести?

Дональд Трамп знявся у фільмі «Назад у майбутнє», Ніколас Кейдж став головним героєм усіх американських блокбастерів одночасно, а Емма Ватсон подалась у порно-акторки. Звучить неймовірно? Завдяки сучасним технологіям підробки відео такі новини цілком реальні, і дещо вже можна побачити на просторах інтернету (ось приклад). Так звані глибинні фейки (deep fakes) стають не просто розвагою, яка може зіпсувати репутацію, а й реальною кібер-загрозою.

Термін deep fakes  це поєднання слів «глибинне навчання» (deep learning) та «фейк» (fake). Глибинні фейки почали з’являтися кілька років тому завдяки одній із технологій машинного навчання, що називається «генеративна змагальна мережа« (generative adversarial network, GAN), а також технології зображень, згенерованих компьютером (computer-generated imagery, CGI). Перший метод був запроваджений тільки у 2014 році, і його суть полягає у створенні серії штучних світлин та накладанні їх на наявне відео. Тоді як другий метод використовується в анімації вже кілька десятиліть: наприклад, мультфільм «Історія іграшок» (1995) від студії Pixar ріалізований повністю за технологією CGI. Загалом, метод синтезу й редагування облич на відео не є новим, просто став наразі доступнішим.

Звідки ноги ростуть

У грудні 2017-го про глибинні фейки заговорили після серії порно-відео, де замість порно-акторок були нібито справжні зірки або героїні кінофільмів. Перший такий випадок трапився у спільноті Reddit, коли користувач із ніком Deepfake опублікував порно-відео з головною героїнею екшн-стрічки Гал Гадот («Диво-жінка»). Згодом з’явилися відео з іншими кіногероями та акторками. У лютому 2018-го платформа Reddit забанила відповідну спільноту за поширення фейкових відео. Однак автор цих фейків уже встиг поширити інструмент FakeApp, що безкоштовно дозволяє створювати фейкові відео. Звісно, фінальний продукт виходить невисокої якості, але достатньої, щоби ввести когось в оману.

Зірки найчастіше стають об’єктами deep fakes, тому що у вільному доступі існує багато світлин та відео з їхніми обличчями. Нейромережа навчається на основі цих зображень, створює маску з обличчям знаменитостей, після чого вона можна замінювати будь-яке обличчя у вже відзнятому відео на згенероване. Те саме стосується й інших публічних осіб, наприклад, політиків. Втім, якщо ви публікуєте багато своїх власних зображень в інтернеті, ви також можете стати об’єктом відеопідробки

Три способи, як створити штучне відео

Програма Face2Face була запропонована групою дослідників у 2016-му. У цьому відео вони показують, як змінюють, наприклад, відео з Джорджем Бушем у реальному часі. Вони взяли спеціальний пристрій, що зчитував міміку актора-«джерела» й одразу накладав її на актора у відео, який був «ціллю» такої маніпуляції.

У липні 2017 року на щорічній конференції SIGGRAPH дослідники Університету Вашингтона презентували відео з Бараком Обамою, який говорить те, чого він ніколи не казав. Дослідники використали вже наявні відео з Обамою для того, щоб навчити нейромережу синтезувати рух губ зі звуком.

Простіше кажучи, Барак Обама відкривав рот так, щоб відповідати вхідній звуковій доріжці.Технологія здобула назву Learning Lip Sync from Audio. Цікаво, що на створення такого інструменту авторів надихнув проект, що дозволяє дізнатися правду про Голокост від тих, кому вдалося вижити. Про це розповідає у своєму виступі на TED Супасорн Суваджанакорн (Supasorn Suwajanakorn)  один із науковців дослідницької групи, що працювала над цим проектом.

Через рік, у 2018-му, на тій самій конференції SIGGRAPH дослідники вже зі Стенфордського університету запропонували технологію глибинних відеопортретів (deep video portraits). У своєму проекті вони демонструють, як можна перенести будь-яку міміку (рух брів, голови, усмішку тощо) від «обличчя-джерела» на будь-яке інше обличчя. У відео нижче дослідники також порівнюють свої розробки з іншими наявними технологіями.

Що ж до підробки голосу, то в цьому випадку так само застосовується технологія GAN. Наприклад, стартап Lyrebird записує лише одну вашу фразу й на основі цих метаданих може створювати будь-які інші промови вашим голосом. Мова звучить настільки реалістично, що по телефону вас не впізнає навіть рідна мама. Дивіться про це детальніше в сюжеті Bloomberg.

Для чого можна використовувати технологію глибинних фейків?

Якщо раніше вважалося, що журналіст у камері потрібен для того, щоб засвідчити глядачу, що він/вона були на місці події, а відеоматеріал було якісним підтвердженням того, що певна подія відбулася, то тепер це під великим сумнівом.

Звісно, є небезпека, що глибинні фейки будуть використані як масовий інструмент для пропаганди та дезінформації. Але поки створення такого продукту є досить дорогим задоволенням. Будь-яка технологія нейтральна сама по собі, а далі все залежить від намірів того, хто планує нею скористатися.

Першочергово ця технологія має великий потенціал для кіноіндустрії, зокрема для дубляжу. Уявіть, що улюблені актори у голлівудських фільмах почнуть говорити нібито українською.

По-друге, її можна використовувати для створення необхідних кадрів з акторами, локаціями, створювати потрібну погоду в кадрі тощо. Актор Пол Волкер загинув до завершення зйомок у своєму останньому фільмі «Форсаж-7». Однак фільм вдалося завершити, незважаючи на відсутність необхідних кадрів із ним. Це сталося завдяки використанню подібної технології, яка дозволила згенерувати потрібні відео з Полом Волкером для логічного завершення фільму.

Це також цікава ніша для бізнесу, а не тільки для кіно- та порно-індустрії. Наприклад, компанія Synthesia використовує її для автоматичного перекладу. В цьому випадку алгоритм також генерує рух губ відповідно до мови і змінює відео.

Технологія ще не ідеальна. Якщо ви уважно переглянете відео, то побачите, що рух губ не завжди відповідає руху шиї. Простір для розвитку очевидний.

Чи є протидія глибинним фейкам?

Глибинні фейки, як і звичайні фейки,  це завжди спроба вплинути та зманіпулювати людською думкою. Тому медіаграмотність і критичне мислення залишаються важливимми компетенціями для сучасної людини  яких можна навчитися на безкоштовному онлайн-курсі «Фактчек: довіряй-перевіряй».

Серед інших інструментів для створення захисту від подібних фейків важливу роль відіграє законодавство країни. Якщо Франція ввела закон щодо вилучення фейкових новин у ЗМІ під час виборів, а британський уряд пропонує відмовитися від вживання слова «фейк», то в Україні все ще залишається велике поле для маніпуляцій.

Велику роль також відіграють корпорації на кшталт Google, YouTube, Facebook та інших, де можуть швидко поширюватися відео із глибинними фейками. Тому для таких компаній важливо розробити прозору політику жорсткішого регулювання подібних випадків, щоб вони могли так само банити користувачів за поширення фейкових відео, як, наприклад, Reddit. Колективний бан конкретних відео деякими платформами матиме кумулятивний ефект, але наскільки це буде дієво, поки говорити зарано.

Науковці також не залишаються осторонь цієї проблеми. Ті самі дослідники, які створили відео з Обамою, разом з іншими науковцями, що працюють над штучним інтелектом, створили Фундацію штучного інтелекту. В рамках фундації вони планують боротися з поширенням deep fakes у суспільстві. Наразі науковці розробляють плагін для браузера, що зможе одразу ідентифікувати підроблене відео. Для того, щоб не пропустити вихід цього інструмента, можна підписатися на їхню розсилку.

Поширення глибинних фейків є також питанням національної безпеки. Так, у листопаді 2018-го стало відомо, що науково-дослідне агентство при Міністерстві оборони США (Defense Advanced Research Projects Agency) протягом останніх двох років працює над створенням технології, яка би могла виявляти подібні високотехнологічні підробки. За цей час на наукові розробки було витрачено близько $68 млн.

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
Скріншот з YouTube
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду