Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ

Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ

13:18,
6 Вересня 2019
1837

Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ

13:18,
6 Вересня 2019
1837
Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ
Шахраї виманюють кошти у бізнесу за допомогою глибинних фейків — WSJ
Автори:
Фейки, створені за допомогою штучного інтелекту, можуть становити ще більшу небезпеку, ніж вважали раніше, пише видання.

Поява нових глибинних фейків —  явище, яке стається в наш час все частіше. Певна частина з них не несе небезпеки. Проте, за даними The Wall Street Journal, незабаром можуть виникнути серйозні фінансові та юридичні наслідки від розповсюдження фото, відео або аудіо, створених за допомогою штучного інтелекту.

Видання повідомляє, що керівника енергетичної компанії у Великій Британії обманули і примусили  перевести на рахунки нібито угорського постачальника 200 000 євро. Йому зателефонували і, зімітувавши голос реального партнера-постачальника, попросили це зробити. 

Пізніше страхова фірма енергетичної компанії Euler Hermes Group SA заявила виданню, що шахрай, який мав програмне забезпечення штучного інтелекту, імітував голос представника компанії.

«Програмне забезпечення могло імітувати голос, і не тільки голос: тональність, німецький акцент», —  заявив пізніше прес-секретар Ейлер Гермес виданню The Washington Post.

Телефонний дзвінок супроводжувався електронним листом, і генеральний директор енергетичної фірми повірив та зобов’язався виплатити кошти. Гроші  перевели через рахунки в Угорщині та Мексиці, а тоді вони розійшлися по всьому світу, пише видання.

Втім, це може бути не єдиним подібним випадком. Як додають у The Washington Post, представники фірми з питань кібербезпеки Symantec заявили, що натрапили щонайменше на три випадки голосового шахрайства, які використовувались для обману компаній задля пересилання грошей на сторонні рахунки. За даними компанії, це призвело до втрат мільйонів доларів.

Тим часом дослідники великих технологічних компаній та академічних шкіл намагаються розробити програмне забезпечення для виявлення глибинних фейків. Згодом знадобляться все більш нові інструменти, аби виявляти такі складні фейки.

Раніше «Детектор Медіа» писав, що два програмісти вдосконалили штучний інтелект, який може писати фейки про Україну.

Крім того, ми детально писали про те, як працює технологія глибинних фейків.

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
The Wall Street Journal
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду