ms.detector.media
MediaSapiens
16.08.2021 11:20
У Apple пояснили, як працюватимуть нові функції щодо безпеки дітей
У Apple пояснили, як працюватимуть нові функції щодо безпеки дітей
Apple почали критикувати через нові методи захисту дітей.

Старший віцепрезидент Apple з розробки програмного забезпечення Крейг Федерігі в інтерв’ю Wall Street Journal пояснив, що в межах посилення захисту дітей від сексуального насильства ніхто не переглядатиме приватні фото користувачів на наявність дитячої порнографії. Про це повідомило hromadske.

Він уточнив, що плутанина сталася через анонс введення двох окремих функцій:

Перший інструмент може ідентифікувати вже відомі матеріали про сексуальне насильство над дітьми (CSAM). Ця функція працюватиме тільки щодо фотографій, які завантажуються в iCloud. Тобто, якщо власник iPhone відключає завантаження фото у хмарне сховище, захисна функція автоматично вимикається. Саме фото перевірятимуть на збіг так званих відбитків нелегальних фото. Національний центр США у справах безвісти зниклих та експлуатованих дітей веде базу даних відомих незаконних зображень жорстокого поводження з дітьми — вони зберігаються саме в формі цифрових «відбитків» нелегального матеріалу.

Федерігі заявив, що компанія не перевірятиме в iPhone фотографії користувачів та не шукатиме порнографію. Система шукатиме саме відповідність із цифровими «відбитками». Якщо такі знайдуться ㅡ акаунт користувача позначать, щоб можна було переглянути конкретні зображення на пристрої. Але перед тим, як це зроблять, користувач має завантажити приблизно 30 таких фото.

Друга функція Apple стосується фільтрації повідомлень. Зокрема, це буде «батьківський контроль», який користувачі можуть активувати в облікових записах своїх дітей. Ця функція дозволить перевіряти фотографії, надіслані дитиною або дитині, через додаток Apple iMessage. Якщо на фото у повідомленні буде розпізнано голе тіло, його автоматично «розмиють» і з'явиться відповідне попередження. Якщо дитина натисне «переглянути» таке фото, батьки отримають про це сповіщення.

Нагадаємо, 6 серпня компанія Apple повідомила, що планує перевірити фотографії на пристроях користувачів iOS у США, щоб виявити зображення сексуального насильства над дітьми. Для цього використовуватимуть нову технологію, яка буде зіставляти цифрові відбитки зображень в iCloud з базою даних відомих зображень сексуального насильства над дітьми. Частина працівників Apple критично висловились про план компанії перевіряти пристрої на наявність дитячої порнографії. Вони вважають, що цим потенційно можуть користуватись недобросовісні уряди як інструментом цензури.

Фото: ansa.it

ms.detector.media