ms.detector.media
MediaSapiens
06.08.2021 16:00
Apple перевірить фотографії користувачів в iCloud на наявність зображень сексуального насильства над дітьми
Apple перевірить фотографії користувачів в iCloud на наявність зображень сексуального насильства над дітьми
Система буде реагувати на зображення лише в тому випадку, якщо воно перетне порогове значення співпадіння з певним зображенням у базі.

Компанія Apple планує перевірити фотографії на пристроях користувачів iOS у США, щоб виявити зображення сексуального насильства над дітьми. Про це йдеться на офіційному сайті корпорації.

Для цього використовуватимуть нову технологію, яка буде зіставляти цифрові відбитки зображень в iCloud з базою даних відомих зображень сексуального насильства над дітьми. Цю базу надали організації, які опікуються безпекою дітей, у тому числі Національний центр у справах зниклих без вести і експлуатованих дітей. 

Тобто система буде реагувати на зображення лише в тому випадку, якщо воно перетне порогове значення співпадіння з певним зображенням в базі. Можливість помилки оцінюють як 1 до трильйона. Кожен звіт про співпадіння перевірятиметься співробітниками. Якщо воно підтвердиться, обліковий запис користувача буде відключено, а інформацію передано правоохоронцям. Користувач матиме можливість оскаржити це рішення.

За даними Financial Times, технологія для перевірки фотографій матиме назву neuralMatch. На думку видання, нова ініціатива компанії – це «спроба Apple знайти компроміс між власним обіцянкою захищати приватне життя клієнтів і постійними вимогами урядів, правоохоронних органів і організацій, які виступають за безпеку дітей, більше допомагати в розслідуванні кримінальних справ, в тому числі пов'язаних з тероризмом і дитячою порнографією».

Раніше Apple оновила правила для додатків в App Store в рамках боротьби з шахрайством.

Фото: hunchmag.com

ms.detector.media