Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ
Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ
Поява нових глибинних фейків — явище, яке стається в наш час все частіше. Певна частина з них не несе небезпеки. Проте, за даними The Wall Street Journal, незабаром можуть виникнути серйозні фінансові та юридичні наслідки від розповсюдження фото, відео або аудіо, створених за допомогою штучного інтелекту.
Видання повідомляє, що керівника енергетичної компанії у Великій Британії обманули і примусили перевести на рахунки нібито угорського постачальника 200 000 євро. Йому зателефонували і, зімітувавши голос реального партнера-постачальника, попросили це зробити.
Пізніше страхова фірма енергетичної компанії Euler Hermes Group SA заявила виданню, що шахрай, який мав програмне забезпечення штучного інтелекту, імітував голос представника компанії.
«Програмне забезпечення могло імітувати голос, і не тільки голос: тональність, німецький акцент», — заявив пізніше прес-секретар Ейлер Гермес виданню The Washington Post.
Телефонний дзвінок супроводжувався електронним листом, і генеральний директор енергетичної фірми повірив та зобов’язався виплатити кошти. Гроші перевели через рахунки в Угорщині та Мексиці, а тоді вони розійшлися по всьому світу, пише видання.
Втім, це може бути не єдиним подібним випадком. Як додають у The Washington Post, представники фірми з питань кібербезпеки Symantec заявили, що натрапили щонайменше на три випадки голосового шахрайства, які використовувались для обману компаній задля пересилання грошей на сторонні рахунки. За даними компанії, це призвело до втрат мільйонів доларів.
Тим часом дослідники великих технологічних компаній та академічних шкіл намагаються розробити програмне забезпечення для виявлення глибинних фейків. Згодом знадобляться все більш нові інструменти, аби виявляти такі складні фейки.
Раніше «Детектор Медіа» писав, що два програмісти вдосконалили штучний інтелект, який може писати фейки про Україну.
Крім того, ми детально писали про те, як працює технологія глибинних фейків.