ms.detector.media
Володимир Малинка
12.04.2017 13:30
Дмитро Лисицький: Для журналістів штучний інтелект — загроза
Дмитро Лисицький: Для журналістів штучний інтелект — загроза
Штучний інтелект має великий потенціал у сфері впливу на людей: прикладом цього є примітивна технологія таргетування. Про те, чи потрібно боятися штучного інтелекту і як він впливає на журналістику — в лекції Дмитра Лисицького, співзасновника Influ2 — маркетингового рішення на основі штучного інтелекту (AI).

У матеріалі MediaSapiens «Роботи й журналісти — друзі чи вороги?» вже йшлося про те, чи загрожують сучасні програми професії журналіста. На міжнародному форумі інноваційних технологій Innotech Ukraine у Києві Дмитро Лисицький розповів, що штучний інтелект незабаром застосовуватимуть саме для впливу на людей. Відлуння цього можна було бачити під час кампанії Дональда Трампа, в якій використовували дуже сегментовані рекламі меседжі. У майбутньому за подібні повідомлення відповідатиме машина. І не тільки за це, але й за великий масив журналістських матеріалів, — каже пан Лисицький.

Дмитро Лисицький — відомий топ-менеджер у сфері медіа. Свого часу в групі «1+1» він обіймав посаду комерційного директора. Згодом відповідав за злиття bigmir.net, tochka.net, I.ua, Digimedia і Mi6 під егідою UMH Digital. Потім встиг побувати гендиректором центру онлайн-торгівлі All.biz. Тепер опікується компанією Influ2, яка є розробником рішень із використання впливу на основі штучного інтелекту в маркетингу. Ми записали найцікавіше з його лекції «Як технології штучного інтелекту допомагають впливати на нас та чим це небезпечно».

via GIPHY

 Тест Тюрінга не головне

Рано чи пізно людство побудує штучний розум чи якусь машину, яка міркує краще, ніж середньостатистична людина. Можливо, навіть краще, ніж у середньому все людство, разом узяте. Звісно, про це вже знято багато фільмів, згідно з якими все закінчиться апокаліпсисом, але насправді ж це тільки один із можливих сценаріїв. Перш за все, треба зрозуміти, в чому взагалі проблема. Що таке розум? У кібернетиці визначити це не так важко: є тест Тюрінга, ідея якого дуже проста. Якщо ми покладемо щось у коробку, а люди не зможуть зрозуміти, комп'ютер це чи людина (а там буде комп'ютер), то це й буде штучним інтелектом. Тобто він дуже схожий на людину. Поки що до цього далеко. І в найближчі десять років навіть незрозуміло, як цю річ, яку я описав, зробити. Тому хвилюватись особливо не варто.

Та водночас ця система може бути не розумною, тобто не пройде тест Тюрінга, але вона може бути заскладною для нашого аналізу. Це може бути хаотична велика система, з якою людство не розумітиме, як працювати. І побудувати такого роду складну систему можна значно швидше, ніж ту, що пройде тест Тюрінга. Питання в тому, що ця система буде з нами робити і як вона буде з нами «боротися».

Таргетування і потенціал його впливу

Людство усвідомлює недосконалість комп'ютерних систем, тому все життєво важливе, зрештою, керується людиною. Як захистити атомну електростанцію від зламу хакерів? Не підключати її до мережі! Якщо в інтернеті її не видно, хакери не зламають. Так само будуть ставитися й до складніших систем. Уявімо ситуацію, що ви побудували дуже складну систему зі штучним інтелектом. Ми дамо їй керувати ядерними ракетами? Радше за все ні, тому що тут дуже великі ризики.

via GIPHY

 Найбільш імовірно, що складні системи матимуть великі можливості в іншій площині, а саме — впливу на людей. Напевне, багато хто переживав те «прекрасне відчуття», коли ви один раз подивились якийсь телефон в онлайн-магазин, а потім бачите рекламу цього телефона ще дуже довго. Така технологія називається таргетування. Ця примітивна технологія має певну глибину, яку до кінця ще всі не розуміють. Тут закладено певну модель поведінки людини, яка каже таке: якщо людина заходила й дивилася телефон, напевне, вона хоче купити телефон. Це очевидний факт, але насправді це був прорив для реклами. Ця модель у десятки разів збільшує ефективність реклами. Тобто навіть таке просте припущення про поведінку людей дозволяє дуже точно потрапляти в аудиторію і, відповідно, робити продажі.

Тепер уявімо складнішу поведінкову модель. Наприклад, ми знаємо про людину багато інших фактів. Їх дізнатися неважко: автоматично через поведінку в мережі. Уявімо, ми знаємо, що людина працює на вулиці Грушевського, живе в Конча-Заспі, тренується у фітнес-клубі, їздить на закупи тощо. Таких людей достатньо легко знаходити в інтернеті й таргетувати рекламу. І це вже відбувається у світі, в Україні. У нас є конкретні рекламні агентства, які роблять такі речі. У таких випадках уже не є очевидним, чому якусь рекламу показують саме вам. У випадку з телефоном усе було просто: подивилися модель, потім вона за вами «ходить» по сайтах. У цій же ситуації взаємозв’язок із дією й рекламним оголошенням простежити майже неможливо. Я давно займаюся цими питаннями й часто я сам не розумію, як деякі системи таргетують людей.

Чому Клінтон захворіла у фейку

Не обовязково потрібно показувати пряму рекламу. Рекламна індустрія пішла шляхом більш м'яких способів впливу на людей. Вас просто «ловлять» і пропонують почитати певний контент, а насправді збирають інформацію про вас, яка в подальшому використовується для таргетування. Також, мабуть, багато хто бачив фільм «Фокус», де розповідається про фреймування. Тобто коли людина бачить якусь інформацію систематично, вона в подальшому схилиться до вибору саме цього продукту. У фільмі це було конкретне число.

Як це працює в реальному житті? Є така компанія Cambridge Analytica, яка начебто допомагала виграти вибори Дональду Трампу у США. Важко оцінити, чи це завдяки їм Трамп переміг, чи є ще багато інших факторів. Але те, що вони вплинули на вибори — це точно.

Вони застосували просту модель: почали сегментувати користувачів у мережі на різні типи, залежно від поведінки в інтернеті. Оскільки компанія велика й ціна питання теж, то вони виділили дуже багато різних спектрів. Могли досить точно визначити ваш психотип, стать, вік... Сексуальну орієнтацію вони вгадували з вірогідністю 90 %, а колір шкіри — 95 % тощо.

Що відбувалося далі. Наприклад, є білі чоловіки, в яких прибутки нижче середніх. Вони переважно підтримують республіканців і Трампа, тому їм показували повідомлення, що Трамп хоче побудувати стіну з Мексикою. Їм це дуже подобалось і вони пішли за нього голосувати.

Уявімо, є інша група людей: темношкірі жінки, прихильниці демократів. Ці люди принципово голосувати за Трампа не будуть. Але їм показували інше повідомлення, про те, що Гілларі Клінтон хворіє. При тому компанія використовувала фейкові новини. І ці люди не йшли голосувати за Трампа, але й не йшли голосувати за Клінтон. І таких варіантів повідомлень і сегментів було дуже багато, що забезпечувало високу точність.

via GIPHY

 Тепер уявімо, що використовують цю ж технологію, але автоматично. Тобто рішення про те, що показувати сегменту, ухвалює не людина в штабі, а певна система. Ви ж розумієте, що в такому випадку ця система може впливати на поведінку людей. І добре, якщо вона діє в чиїхось інтересах, не дуже — якщо вона почне діяти у своїх.

Потяг усе одно рухається

Нещодавно з’явилася новина, що дає певний орієнтир, як до цього всього ставитися: «Елон Маск інвестує у Neurolink». Neurolink — це дуже секретний стартап, який допомагає поєднати інтерфейс комп’ютера безпосередньо з мозком людини. Тобто ідея в тому, щоб у голову людини встановлювався певний сенсор, який дозволяв би, не натискаючи кнопок, спілкуватися з комп'ютером. Поки що не зрозуміло, чи вийде в них це зробити, чи ні, багато є складних технічних моментів. Але Маск відомий як людина, що вирішує складні питання.

Чому це цікаво в даному контексті? Тому що Маск, який рік тому підписав відкритого листа про те, що «будьте бережні, штучний інтелект наступає», сам інвестує у проекти й займається його розвитком.

Штучний інтелект замість поганих журналістів

Для журналістів штучний інтелект — загроза. Але почнімо з того, що бізнес-модель медіа зламалася — вона зламалася в усьому світі, не тільки в Україні. Коли текстові видання пішли в онлайн, вони роздавали контент безкоштовно і привчили до цього людей. Телеканали ж завдяки тому, що прийшли в інтернет останніми, вже мали розуміння, що подібної ситуації допускати не можна.

У текстових ЗМІ залишилася тільки рекламна модель монетизації. І навіть у таких дуже старих видань, як Washington Post, ідея з paywall (платна підписка на онлайн-видання або будь-яка інша система, при якій частина контенту на сайті доступна лише за певну плату. MS) не дуже працює. За їхніми словами, все непогано, та коли подивитися на цифри, — насправді поганенько. Навіть у них! Тому у левової частки видань paywall — річ безперспективна.

На рекламному ж ринку в інтернеті видання конкурують із сервісними компаніями. Тобто можна розмістити рекламу у Google чи Facebook, а можна — в якомусь українському медіа. Зрозуміло, що у сервісів трафіку дуже багато, тому конкурувати дуже важко.

У медіа ж треба творити контент «живими людьми», а це на сьогодні нерентабельно. Тому що конкурують вони з тими компаніями, які не творять ніякого контенту і їм не потрібні люди, а лише IT-системи.

Для власників видань і головних редакторів одне з фундаментальних завдань — як генерувати цікавий осмислений контент і при цьому дуже дешево. Найкращі з редакторів стежать за SEO-трендами і Google Analytics, завдяки чому вони «вистрілюють» і творять доволі успішні медіапроекти.

Але якщо контент можна генерувати роботами, це різко покращує фінансову модель компанії. І є багато прикладів, коли це вже відбувається. Наприклад, у фінансовій сфері, де є автоматичні системи, які відстежують зміни і генерують новини. А людині достатньо просто подивитися, перевірити. Іноді така новина виходить і без перевірки — у спортивній тематиці вже таке використовується не перший рік.

via GIPHY

 Думаю, генерувати прийнятні тексти роботи зможуть достатньо швидко. Далі, звісно, виникає питання сенсу такого тексту. Але великі сегменти, де сенс легко видобувати з даних, цілком реально автоматизувати. Наприклад, фінансову аналітику. Тож журналістам залишаються дуже гнучкі чи, навпаки, дуже складні питання, де є складний сенс.

Уже тепер неважко побудувати систему, яка зможе нормально генерувати новини. І там буде читабельний текст без помилок, структурований і написаний людською мовою. Тобто людина не відрізнить його від середньостатистичного журналістського матеріалу. Хоча, звісно, публіцистику, огляди, глобальні тренди машина не зробить.

Легко автоматизувати рутинну працю. Роботу хорошого журналіста автоматизувати неможливо.

Але в Україні боятися поки не варто... Водночас у нас потроху ринок заповнюють глобальні компанії. Тобто нині в онлайн-медіа найбільший гравець — Youtube. Найбільший рекламний майданчик — Google. Другим невдовзі буде Facebook. Тому річ не про «злих інопланетян», які прилетять у якийсь день — ми їх фізично не побачимо. Просто глобальні корпорації скажуть: «Окей, тепер буде так», а ми згодом відчуємо тут зміни.

Навіть на Заході всі описані речі відбуваються помалу. Поки що є конкретні сегменти, де використовують автоматичну генерацію тексту. Однак цей рух стрибкоподібний. У якийсь момент іде накопичення сили, а потім раз — і відбувається зміна. Як із відео свого часу було. Всі казали: «Та скільки того відео в інтернеті». А зараз телеканали хвилюються, що в них відбирають гроші.

ms.detector.media