Google звинуватив користувача у насильстві над дітьми за фото для лікаря

Google звинуватив користувача у насильстві над дітьми за фото для лікаря

13:21,
22 Серпня 2022
1954

Google звинуватив користувача у насильстві над дітьми за фото для лікаря

13:21,
22 Серпня 2022
1954
Google звинуватив користувача у насильстві над дітьми за фото для лікаря
Google звинуватив користувача у насильстві над дітьми за фото для лікаря
Знімки оголеного малюка були зроблені під час карантину, щоб отримати дистанційну консультацію.

Інцидент, про який повідомляє The Verge, стався в лютому 2021 року, коли деякі кабінети лікарів все ще були закриті через пандемію COVID-19. Чоловік на ім'я Марк (прізвище його не розголошується) помітив набряк в області геніталій своєї дитини й на прохання медсестри надіслав зображення проблемної зони. Лікар призначив антибіотики, які вилікували інфекцію.

Через два дні Марк отримав сповіщення від Google, у якому говорилося, що його акаунти заблоковано через «шкідливий вміст», який є «серйозним порушенням політики Google і може бути незаконним». Google позначив фото малюка як матеріали сексуального насильства над дітьми (CSAM). Компанія також подала звіт до Національного центру у справах зниклих і експлуатованих дітей (NCMEC) і ініціювала розслідування поліції.

Як повідомляє видання, Марк втратив доступ до своїх електронних листів, контактів, фотографій і навіть свого номера телефону, оскільки він використовував мобільний сервіс Google Fi. Марк негайно спробував оскаржити рішення Google, але Google відхилив запит Марка. У грудні 2021 року департамент поліції Сан-Франциско, де живе Марк, розпочав розслідування проти Марка та отримав усю інформацію, яку він зберігав у Google. Слідчий у справі зрештою встановив, що інцидент «не містить ознак злочину і злочину не було».

Як і багато інших інтернет-компаній, у тому числі Facebook, Twitter і Reddit, Google використовував хеш-зіставлення за допомогою Microsoft PhotoDNA для сканування завантажених зображень, щоб виявити збіги з відомими CSAM. У 2012 році це призвело до арешту чоловіка, який був зареєстрованим сексуальним злочинцем і використовував Gmail для надсилання зображень молодої дівчини.

У 2018 році Google оголосив про запуск свого набору інструментів Content Safety API AI, який може «завчасно ідентифікувати ніколи раніше не бачені зображення CSAM, щоб їх можна було переглянути та, якщо буде підтверджено, якомога швидше видалити та повідомити про них». Компанія використовує цей інструмент для власних служб і разом із рішенням для зіставлення хешів CSAI Match, розробленим інженерами YouTube, пропонує для використання й іншим.

Критики стверджують, що практика сканування фотографій користувачів безпідставно посягає на їх конфіденційність. Джон Каллас, директор технологічних проєктів EFF, назвав дії Google «нав’язливими». «Це кошмар, яким ми всі стурбовані. Вони скануватимуть мій сімейний альбом, а потім у мене будуть проблеми», — сказала Каллас.

Раніше «MediaSapiens» розповідав про світній проєкт #stop_sexтинг та надавав рекомендації, як захистити дитину у разі виникнення таких ситуацій.

Фото:  Рexels

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду