Facebook вимкнув функцію, яка помилково позначала темношкірих людей «приматами» (ВІДЕО)

Facebook вимкнув функцію, яка помилково позначала темношкірих людей «приматами» (ВІДЕО)

15:41,
4 Вересня 2021
3092

Facebook вимкнув функцію, яка помилково позначала темношкірих людей «приматами» (ВІДЕО)

15:41,
4 Вересня 2021
3092
Facebook вимкнув функцію, яка помилково позначала темношкірих людей «приматами» (ВІДЕО)
Facebook вимкнув функцію, яка помилково позначала темношкірих людей «приматами» (ВІДЕО)
ІТ-гігант вже вибачився за «явно неприпустиму помилку».

Facebook заявила, що вимкнула функцію тематичних рекомендацій після того, як інтернетом почало ширитись відео, на якому соцмережа позначає темношкірих людей «приматами».

Про це пише інформаційна агенція AFP з посиланням на відповідь від Facebook.

Також компанія вибачилась за цю помилку, назвавши її «явно неприпустимою. Представник Facebook додав, що функцію вимкнули, щойно дізнались, як вона працює, щоб визначити причину та запобігти повторенню.

Програми розпізнавання облич і раніше критикувались правозахисниками за те, що вони неоднаково ставляться до людей на фото та відео в залежності від забарвлення їхньої шкіри. 

New York Times раніше писав, що користувачам Facebook, які переглядали відео із зображенням темношкірих чоловіків соцмережа показала автоматично сформований запит, мовляв, чи не вони хотіли б вони «продовжити дивитися відео про приматів».

Відповідне відео під назвою «Білий чоловік викликає поліцію на чорношкірих чоловіків ...» у червні 2020 року опублікував таблоїд Daily Mail. Це відео досі доступне. 

Знімок екрана 2 вересня опублікувала у своєму твіттері колишня менеджерка із дизайну контенту Дарсі Гроувс.

«Ем, ця пропозиція дивитися далі неприйнятна, фейсбуче. Попри те, що публікації понад 1 рік, другу вчора показали цю рекомендацію», – написала вона.

Нагадаємо, що YouTube заблокував канал хорватського шахіста Антоніо Радича за «расизм» під час його розмови з Хікару Накамурою щодо різних стратегій гри.

Штучний інтелект, який навчений шукати ознаки расизму та мову ненависті, порахував контент шкідливим, а комп'ютерні фахівці з Університету Карнегі-Меллона почали розслідування збою

Фото: скриншот з відео

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
Сергій
01:56 / 05.09.2021
Всі люди, за визначенням, примати! .. як і мавпи, до речі. Тому, штучний інтелект не помилився! Ось якби він темношкірих назвав "мавпами" ...
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду