
Новий інструмент Sora 2 від OpenA, що створює суперреалістичні відео, використовують у кампанії дезінформації щодо російсько-української війни. Про це повідомляє NBC News.
Журналісти видання знайшли щонайменше 21 згенероване відео за участю нібито українських військових, яке поширилося в тіктоці, фейсбуці, іксі та ютубі з початку листопада. Приблизно половина дипфейків містить водяний знак відеогенератора Sora 2. Ще частина відео мають сліди видаленої вотермарки.
Дипфейки зображують українських солдатів, що виражають готовність здатися в полон чи плачуть через небажання воювати на передовій.
Журналісти NBC News зазначають, що відео виглядають дуже реалістично, але містять малопомітні помилки, як-от неправильні або спрощені версії форми та шоломів, які носять українські військові.

Окрім того, в кількох відео використано обличчя російського стримера Олексія Губанова, який зараз живе в Нью-Йорку і ніколи не служив у Збройних силах України.
«Нас відвезли до призовної комісії та відправили сюди. Тепер нас везуть до Покровська. Ми не хочемо. Будь ласка», — говорить в одному з відео згенерований Губанов російською мовою. Він зображений у формі з українським прапором.
NBC News повідомляє, що з 21 підробленого відео лише у восьми роликах герої розмовляли українською.
Хто створив чи опублікував ці відео, встановити не вдалося.
Центр протидії дезінформації при Раді національної безпеки і оборони України повідомив телеканалу, що за останній рік спостерігається «значне збільшення обсягу контенту, створеного або маніпульованого за допомогою штучного інтелекту», спрямованого на підрив суспільної довіри та міжнародної підтримки уряду України.
«Це включає сфабриковані заяви, нібито зроблені від імені українських військовослужбовців або командування, а також фальшиві відео, що містять «зізнання», «скандали» або вигадані події», — заявили в Центрі.
У OpenAI на запит NBC News про використання Sora 2 в кампанії дезінформації проти України заявила, що вживає жорсткі обмежувальні заходи щодо використання свого продукту.
«Хоча кінематографічні дії дозволені, ми не дозволяємо графічне насильство, екстремістські матеріали чи обман. Наші системи виявляють і блокують контент з порушеннями, а наша слідча група активно припиняє операції з впливу», — заявили в компанії.
Водночас OpenAI зазначила, що хоча «багаторівневі запобіжні заходи діють, деякі шкідливі моделі поведінки або порушення політики все ще можуть обійти ці заходи».
Фото: NBC News