Як глибинні фейки підривають правду й загрожують демократії

Як глибинні фейки підривають правду й загрожують демократії

11:38,
29 Жовтня 2019
6408

Як глибинні фейки підривають правду й загрожують демократії

11:38,
29 Жовтня 2019
6408
Як глибинні фейки підривають правду й загрожують демократії
Як глибинні фейки підривають правду й загрожують демократії
Фейкові відео, що створені штучним інтелектом і виглядають наче справжні, все частіше з’являються в мережі. Це нерідко завдає непоправної шкоди тим, кого такі відео стосуються, каже дослідниця глибинних фейків і юристка Даніель Ситрон.

Американська професорка права й дослідниця глибинних фейків Даніель Ситрон (Danielle Citron) пише, розповідає та веде лекції зі своїх улюблених академічних напрямків — конфіденційність в інтернеті, свобода слова, громадянські права. Завдяки роботі з організаціями, що займаються питаннями конфіденційності, вона реалізує ці ідеї й на практиці. Вона очолює Ініціативу цифрових прав громадян — некомерційну організацію, яка бореться з порушеннями конфіденційності в інтернеті та з порушенням прав громадян.

Коли Даніель Ситрон десять років тому почала вивчати питання домагань в інтернеті, то виявила: в суспільстві часто сприймають цю проблему як «щось неважливе». Але разючі історії жертв, яких роками тероризували в інтернеті, змусили її у 2014 році написати книжку «Hate Crimes in Cyberspace» («Злочини ненависті у кіберпросторі». — MS). Відтоді вона співпрацює із законодавцями, правоохоронцями й технологічними компаніями, щоби змінити «правила гри» в цій сфері, аби боротися з такими проблемами стало простіше.

Нещодавно дослідниця виступила на TED Talks із доповіддю про те, як глибинні фейки підривають правду й загрожують демократії. MediaSapiens наводить переклад її виступу українською. Як влаштована технологія глибинних фейків і чим вона небезпечна, ми раніше детально писали в окремій статті.

Фейкове секс-відео стало вірусним протягом 48 годин

Рана Аюб — журналістка з Індії, яка викриває корупцію в уряді та пише про порушення прав людини. За роки роботи вона звикла до труднощів. Але Рана аж ніяк не готувалася до того, з чим їй довелося стикнутися у квітні 2019 року. Вона сиділа в кафе з другом, коли вперше побачила відео тривалістю 2 хв. 20 сек., де вона «займається» сексом. Жінка не могла повірити своїм очам! Вона б ніколи не записувала секс-відео. Але, на жаль, тисячі й тисячі людей повірили, що це саме вона.

Я записала інтерв’ю з міс Аюб три місяці тому під час підготовки книжки про сексуальну конфіденційність. Я була надзвичайно розчарована, коли зрозуміла, що мало чим могла допомогти. Під час розмови жінка зауважила, що мала би й раніше побачити, як в інтернеті з’являються фейкові секс-відео. Вона казала: «Зрештою секс так часто використовується для приниження й ганьби над жінкам, особливо представниць меншин!». А особливо представниць тієї меншості, які наважилися кинути виклик впливовим чоловікам. Це саме те, що журналістка й робила під час своєї роботи.

Те фейкове секс-відео стало вірусним протягом 48 годин. Всі онлайн-акаунти журналістки були буквально «затоплені» скриншотами відео й дописами про те, що це пляма на її репутації, бо вона є мусульманкою. У соцмережах писали, що вона «доступна» для сексу. Її домашня адреса та особистий номер телефону розповсюдилися по мережі. Відео поширили понад 40 тисяч разів. Шкода була завдана колосальна. Її життя перевернулося з ніг на голову.

Тижнями жінка ледь могла їсти або говорити. Вона перестала писати й закрила всі свої акаунти в соцмережах, що було для неї як для журналістки важким рішенням. Вона боялася вийти з дому. Рада ООН із прав людини (United Nations Human Rights Council) підтвердила, що вона не була божевільною. Судячи з їхніх заяв, вони турбувалися за її безпеку.

Технологія, що маніпулює й перетворюється на зброю

Що буває коли ви стикаєтеся із глибинним фейком? Технологія машинного навчання маніпулює, фабрикуючи аудіо- та відеозаписи, на яких люди нібито роблять божевільні речі, яких вони насправді не робили або не говорили. Глибинні фейки видаються реалістичними, але вони не є такими. Вони тотально фальшиві. Хоча технології й розробляють алгоритми їх виявлення, такі відео все ще широко доступні.

Останнім часом увага до глибинних фейків зросла ще більше, бо так багато речей переходять в онлайн. На початку 2018-го хтось опублікував на Reedit інструмент, який дозволяв користувачам вставляти чиєсь обличчя в порно відео. Це спричинило появу безлічі фейкових порнографічних відео із жінками-селебриті.

Сьогодні на ютубі є навіть посібники із покроковими інструкціями, як створити глибинний фейк на комп’ютері. І невдовзі, можливо, їх можна буде створювати на смартфонах. Це поєднання базової людської «крихкості» з мережевими інструментами може перетворити глибинні фейки на зброю: ми люди, й ми природно реагуємо на аудіо та відео. Ми віримо, що вони правдиві: звісно, як не повірити в те, що вам кажуть ваші очі та вуха! Це той механізм, який може підірвати наше з вами відчуття реальності. Хоча ми віримо, що глибинні фейки — це правда, вони нею не є. Нас притягує непристойне, провокативне. Ми схильні вірити й ділитися інформацією, яка є негативною й незвичною.

Фейки поширюються швидше за правду

Дослідники виявили, що онлайн-шахрайство поширюється в десять разів швидше, ніж правдиві історії. Нашу увагу також привертає інформація, яка збігається з нашою точкою зору. Психологи називають таку тенденцію confirmation bias (підтвердження упередженості. — MS). А соцмережі посилюють цю тенденцію, дозволяючи нам миттєво й масово ділитися інформацією, яка відповідає нашим поглядам.

Нині глибинні фейки здатні завдавати серйозної персональної та суспільної шкоди. Уявіть глибинний фейк, який показує американських солдатів в Афганістані, що палять Коран. Такий глибинний фейк може спровокувати насильство проти цих солдатів. І що коли раптом наступного дня з’явиться новий діпфейк із відомим імамом, що живе в Лондоні і схвалює напад на цих солдатів? Це би спровокувало ще більше насильство та заворушення не лише в Афганістані та Великій Британії, але й по всьому світу.

Так, ви можете сказати: «Та ну, Даніелло, це все притягнуте за вуха». Але це не так! Ми вже бачили брехню, що поширювалася у WhatsApp та в інших онлайн-месенджерах та призводила до насильства серед етнічних меншин. Але це був просто текст. Уявіть, якби це було у формі відео. Нині глибинні фейки можуть «роз’їдати» довіру, яку ми маємо до демократичних інституцій.

Уявіть вечір перед виборами. Якби з’явився глибинний фейк, у якому йшлося би, що кандидати з партії — тяжкохворі. Цей фейк міг вплинути на результати виборів і похитнути нашу віру в те, що вибори є легітимними. Якби з’явився глибинний фейк, на якому п’яний генеральний директор банку озвучує теорії змови, це похитнуло би нашу віру у стабільність фінансових ринків. Глибинні фейки можуть експлуатувати і збільшувати глибоку недовіру, яка й так уже є до політиків, лідерів бізнесу та інших впливових особистостей. Фейки знаходять аудиторію, яка в це вірить. Тому правда теж під загрозою.

Скоро буде неможливо виявити різницю між справжнім та фейковим відео

Технологи очікують, що з розвитком штучного інтелекту невдовзі буде складно, а то й узагалі неможливо виявити різницю між справжнім та фейковим відео. То як правда може існувати в повному діпфейків ринку ідей? Ми будемо цьому опиратися чи й далі віритимемо в те, у що хочемо вірити?

Ми можемо вірити не лише у фейки. Ми можемо перестати вірити у правду. Ми вже бачили людей, які підживлювали феномен глибинних фейків, ставлячи під сумнів реальні докази правопорушень. Ми чули, як політики говорили: «Та припиніть, це просто фейкові новини. Ви не можете повірити в те, що бачать ваші очі й чують ваші вуха». І це той ризик, який ми із професором Робертом Чесні називаємо «дивідендом брехуна»: це ризик, що брехуни будуть активніше поширювати діпфейки, щоб уникнути відповідальності за свої правопорушення. Тому в нас багато роботи. Нам потрібні рішення від технологічних компаній, законодавців, правоохоронців і від медіа. Нам буде потрібна здорова доза суспільної стійкості.

Ми тепер залучені в публічне обговорення про відповідальність технологічних компаній. Соціальним медіа я би радила визначити умови і прописати правила щодо для блокування діпфейків, які завдають шкоди. Нам потрібні люди, які будуть стежити за контентом і контекстом глибинних фейків, щоби з’ясувати, чи справді вони є шкідливими. Адже це може бути не тільки шкода, а й цінна сатира, мистецтво або освіта.

А як щодо законів? Закон — це наш вихователь. Він учить нас, що шкідливо і що неправильно. Він формує поведінку, він стримує, караючи винних і захищає жертв. Наразі закон не може вирішити проблему із глибинними фейками. По всьому світу нам бракує добре розроблених законів, які би вирішували такі проблеми, коли хтось здійснює вторгнення у приватне сексуальне життя, руйнуючи нашу репутацію.

Журналістам потрібні знання про феномен глибинних фейків, щоб вони їх не поширювали

Те, що відбулося з Раною Аюб, стає дедалі звичнішим. Коли вона звернулася до правоохоронних органів у Делі, їй сказали, що нічого вдіяти не можна. І сумна правда полягає в тому, що те саме сказали б у США та Європі. У наших законах панує вакуум, який треба заповнити. Я та моя колега докторка Мері Анна Франкс працюємо із законодавцями США над розробкою законів, які би дозволяли блокувати шкідливий цифровий контент, що є рівнозначним крадіжці особистих даних.

Схожі кроки роблять в Ісландії, Великій Британії, Австралії. Але, звісно, це лише невелика частка у великому «регуляторному пазлі». Так, закон — не панацея. Це сліпий інструмент, і його треба використовувати розумно.

Також тут є практичні перешкоди. Ви не можете використовувати закон проти людей, яких не можете ідентифікувати і знайти. І якщо порушник живе поза межами країни, де мешкає жертва, у вас може не вийти зробити так, щоб він з’явився в місцевих судах, аби постати перед законом. Тому нам буде потрібна міжнародна координація. Її частиною має стати освіта. Правоохоронці не будуть виконувати закон, якого не знають, не будуть вирішувати проблеми, яких не розуміють.

У своєму дослідженні про кіберсталкінг (кіберпереслідування. — MS) я виявила, що у правозастосуванні бракує навчання з розуміння законів, і взагалі розуміння проблеми онлайн-зловживань. Тому часто правоохоронці кажуть жертвам: «Просто вимкніть комп’ютер. Ігноруйте. Це мине». Саме це ми побачили у випадку з Раною Аюб. Їй казали: «Та ну, ти надаєш багато значення цьому. Хлопці такі хлопці». Тому нове законодавство треба поєднати із зусиллями в навчанні. Навчатися мають і медіа. Журналістам потрібні знання про феномен глибинних фейків, щоб вони їх не поширювали. Це те, в чому задіяні ми всі. Всім та кожному з нас потрібні такі знання.

Ми клікаємо, репостимо, лайкаємо й навіть не думаємо про це. Нам потрібен куди кращий «радар» фейків. Ми працюємо над можливими рішеннями, й на цьому шляху ще багато труднощів.

Рана Аюб досі бореться з цим викликом. Вона все ще не може вільно проявляти себе як онлайн, так і офлайн. Журналістка зізналася мені: вона все ще почувається так, ніби тисячі очей прикуті до її оголеного тіла, хоча прекрасно знає, що це було не її тіло. Вона часто страждає від панічних атак, особливо коли її хоче сфотографувати незнайомець. «Що, як вони збираються створити ще один глибинний фейк?» — думає вона. І заради таких людей як Рана Аюб, заради демократії, ми маємо зробити з цим щось прямо зараз.

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду