Apple перевірить фотографії користувачів в iCloud на наявність зображень сексуального насильства над дітьми
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Apple перевірить фотографії користувачів в iCloud на наявність зображень сексуального насильства над дітьми
Компанія Apple планує перевірити фотографії на пристроях користувачів iOS у США, щоб виявити зображення сексуального насильства над дітьми. Про це йдеться на офіційному сайті корпорації.
Для цього використовуватимуть нову технологію, яка буде зіставляти цифрові відбитки зображень в iCloud з базою даних відомих зображень сексуального насильства над дітьми. Цю базу надали організації, які опікуються безпекою дітей, у тому числі Національний центр у справах зниклих без вести і експлуатованих дітей.
Тобто система буде реагувати на зображення лише в тому випадку, якщо воно перетне порогове значення співпадіння з певним зображенням в базі. Можливість помилки оцінюють як 1 до трильйона. Кожен звіт про співпадіння перевірятиметься співробітниками. Якщо воно підтвердиться, обліковий запис користувача буде відключено, а інформацію передано правоохоронцям. Користувач матиме можливість оскаржити це рішення.
За даними Financial Times, технологія для перевірки фотографій матиме назву neuralMatch. На думку видання, нова ініціатива компанії – це «спроба Apple знайти компроміс між власним обіцянкою захищати приватне життя клієнтів і постійними вимогами урядів, правоохоронних органів і організацій, які виступають за безпеку дітей, більше допомагати в розслідуванні кримінальних справ, в тому числі пов'язаних з тероризмом і дитячою порнографією».
Раніше Apple оновила правила для додатків в App Store в рамках боротьби з шахрайством.
Фото: hunchmag.com