«Чорні проти білих». Штучний інтелект заблокував найпопулярніший канал на YouTube про шахи за «расизм»

«Чорні проти білих». Штучний інтелект заблокував найпопулярніший канал на YouTube про шахи за «расизм»

18:50,
23 Лютого 2021
2312

«Чорні проти білих». Штучний інтелект заблокував найпопулярніший канал на YouTube про шахи за «расизм»

18:50,
23 Лютого 2021
2312
«Чорні проти білих». Штучний інтелект заблокував найпопулярніший канал на YouTube про шахи за «расизм»
«Чорні проти білих». Штучний інтелект заблокував найпопулярніший канал на YouTube про шахи за «расизм»
Автори:
Приводом для тимчасового блокування каналу стала дискусія про чорні і білі фігури, яка заплутала штучний інтелект

YouTube заблокував канал хорватського шахіста Антоніо Радича за «расизм» під час його розмови з Хікару Накамурою щодо різних стратегій гри. Штучний інтелект, який навчений шукати ознаки расизму та мову ненависті, порахував контент шкідливим, а комп'ютерні фахівці з Університету Карнегі-Меллона почали розслідування збою, пише The Independent

Радич, який працює під псевдонімом Agadmator, веде найпопулярніший у світі канал про шахи на YouTube із понад 1 мільйоном підписників. 28 червня 2020 року він був заблокований під час презентації шахового шоу з американським гросмейстером Накамурою, хоча відеоплатформа, що належить Google, не вказала жодної конкретної причини. 

Канал Радича був відновлений через 24 години. Шахіст вважає, що причина у висловлюванні «чорні проти білих», хоча мова йшла про шахи. 

Як пише видання, вчені з Університету Карнегі-Меллона розпочали розслідування збоїв і змоделювали реакцію програми на відео про шахи. Дослідники для цього використали сучасний класифікатор мови, щоб переглянути більше 680 тисяч коментарів з п'яти популярних шахових YouTube-каналів. Це пояснюють тим, що система модерації YouTube заснована на алгоритмах штучного інтелекту, а тому може невірно витлумачити коментарі, не розуміючи контекст.  

Перевіривши вручну вибірку з 1000 коментарів, які штучний інтелект класифікував як мову ворожнечі, вони виявили, що 82% з них були неправильно тлумачені через вживання таких слів, як «чорний», «білий», «атака» та «загроза» — все це зазвичай використовується в шаховій мові.  

Раніше MediaSapiens писав, що дослідники навчили штучний інтелект розрізняти сарказм у Twitter

Фото: freecodecamp.org

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
Щоб додавати коментарі потрібно Авторизуватись.
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду