«Штучний інтелект Facebook поки не вирішує проблему трансляції терактів» — вчений

«Штучний інтелект Facebook поки не вирішує проблему трансляції терактів» — вчений

17:02,
21 Травня 2019
2095

«Штучний інтелект Facebook поки не вирішує проблему трансляції терактів» — вчений

17:02,
21 Травня 2019
2095
«Штучний інтелект Facebook поки не вирішує проблему трансляції терактів» — вчений
«Штучний інтелект Facebook поки не вирішує проблему трансляції терактів» — вчений
Автори:
Відео, яке запускають у прямому ефірі соцмережі, поки ще довго потребуватимуть модерації людьми, вважає провідний вчений, який очолює лабораторію штучного інтелекту Facebook.

Зіткнувшись з важкими питаннями про те, як Facebook буде видаляти терористичний контент, гендиректор компанії Марк Цукерберг пропонує просту відповідь: це робитиме штучний інтелект. Але, за словами керівника лабораторії штучного інтелекту Facebook Яна ЛеКуна, має пройти ще багато років до того, аби така модерація запрацювала в повній мірі, особливо коли йдеться про перегляд відео у реальному часі.

Про це провідний науковець розповів  на виставці лабораторії штучного інтелекту у Парижі, інформує Bloomberg News. Він повідомив, що Facebook знаходиться «за багато років» до використання штучного інтелекту для до модерування живого відео глобально, пише видання.

«Ця проблема дуже далека від вирішення», — сказав ЛеКун, який нещодавно був нагороджений премією Тьюрінга, відомої як своєрідна «Нобелівська премія» для науковців, які займаються обчислювальною технікою.

Приводом для переосмислення принципів трансляції прямих ефірів у Фейсбуці стали терористичні акти у мечетях міста Крайстерч, Нова Зеландія. 15 березня 28-річний бойовик разом зі спільниками вбив 51 людину у мечеті міста Крайстчерч (Нова Зеландія), транслюючи теракт у прямому ефірі на Facebook.

Хоча у Facebook цю трансляцію подивилося, як стверджують у компанії, не більше 200 людей, пізніше люди все ж могли завантажити відео і ділитися ним із іншими.

За словами провідного науковця, такі відео штучний інтелект ідентифікує далеко не завжди. Автоматизовані системи дуже ефективно видаляють контент, який вже був визначений людьми як небажаний, але сам виявляє його складніше.

Однією з проблем, яку ЛеКун окреслив у Парижі, є відсутність навчальних даних для покращення роботи штучного інтелекту.

«На щастя, у нас немає багато прикладів реальних людей, які стріляють в інших», — сказав вчений. За його словами, можна «навчити» системи визначати насильство за допомогою фільмів, але тоді контент, що містить «штучне» насильство, буде випадково видалено разом із справжнім.

Натомість у компанії Facebook зосереджують увагу на використанні автоматизованих систем у якості помічників для працівників-модераторів. Штучний інтелект позначає небезпечний контент «прапорцями», і тоді люди вручну перевіряють його.

Нагадаємо, раніше ми писали про те, що у Facebook змінюють правила прямих ефірів через трансляцію терактів.

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду