Повстання чатботів. Як працює ChatGPT і чим він небезпечний

Повстання чатботів. Як працює ChatGPT і чим він небезпечний

14:28,
20 Січня 2023
7865

Повстання чатботів. Як працює ChatGPT і чим він небезпечний

14:28,
20 Січня 2023
7865
Повстання чатботів. Як працює ChatGPT і чим він небезпечний
Повстання чатботів. Як працює ChatGPT і чим він небезпечний
Новий чатбот генерує будь-які тексти на замовлену тему і здатен навіть відверту брехню видати за правду.

ChatGPT з’явився у відкритому доступі 30 листопада 2022 року. Лише за п’ять днів сервісом скористався мільйон людей. Здається, повного переліку можливостей чатбота досі немає, але того, що стало відомо, достатньо, щоб соцмережі  вибухнули коментарями на кшталт «майбутнє вже наступило», «світ змінився назавжди», «новий виклик людству», ну і «ховайся в жито», куди ж без цього. Але навіть у житі краще сидіти обізнаним, тому з’ясовуємо, що таке ChatGPT і чим він небезпечний. 

Майстер на всі тексти

ChatGPT (Generative Pre-trained Transformer, «генеративний попередньо навчений трансформатор») — черговий продукт компанії OpenAI, що досліджує штучний інтелект та шукає йому застосування у різних сферах. Торік OpenAI стала відома всьому світові завдяки програмі DALL-E — генератору зображень за описом. Компанія влітку відкрила доступ до DALL-E для всіх, після чого мільйони звичайних людей перетворилися на художників, а мільйони реальних митців опинилися під загрозою безробіття. Адже DALL-E здатна намалювати шедевр за декілька хвилин, користуючись лише загальними підказками людини.

ChatGPT — це теж саме, але про текст. Цей чатбот із штучним інтелектом легко виконує роботу представників багатьох професій та виконує купу інших завдань. Він одночасно і письменник у різних жанрах, і поет, і сценарист, і копірайтер, і науковець (якщо треба написати якусь статтю, курсову або дипломну роботу), і кулінар (якщо треба придумати новий рецепт),  і особистий тренер і дієтолог (якщо треба скласти план вдосконалення тіла) і навіть дистанційний коханець чи коханка (якщо, наприклад, треба написати еротичного листа, поки смажиш яєчню).  Додатково ChatGPT може писати не дуже складні програмні коди або виправляти помилки у вже написаних кодах, розв’язувати математичні задачі, складати тези до великих текстів, прокладати маршрути для подорожей, шукати інформацію, як Google, та… надихати. Принаймні, деякі користувачі скористалися послугами ChatGPT під час творчої кризи й отримали перелік ідей, що дозволив їм зрушити з місця. 

Як це працює

ChatGPT опублікований на сайті OpenAI і поки що безкоштовний. Чатбот працює в текстовому форматі в режимі запитання/відповідь. Щоб почати ним користуватися, потрібно зареєструвати свій акаунт. Можна скористатися обліковим записом Google чи Microsoft або ввести адресу електронної пошти й номер телефону, отримати код підтвердження й доступ до чатбота. 

На цьому етапі українців очікує сюрприз: в нашій країні сервіс недоступний. Така ж доля спіткала мешканців Китаю, Росії, Ірану, Афганістану, Білорусі та Венесуели. OpenAI не пояснює, як Україна опинилася в цієї «славетній» компанії, але можна припустити, що через війну.

Звісно, в інтернеті немає нічого неможливого, отже, обійти заборону доволі легко через сервіси-анонімайзери, знайомих за кордоном тощо. Було б бажання. До речі, ChatGPT «володіє» українською мовою, тобто ставити питання і отримувати відповіді можна українською. Але деякі українці, що тестували ChatGPT, зазначили, що на те ж саме питання, поставлене англійською, відповідь була більш релевантною. 

Парад заборон

Виходячи з уже відомих можливостей ChatGPT, сервіс складає враження незамінної речі у господарстві. Але вже за місяць із дня його появи чатбот почали забороняти.

Одним із перших схаменувся сайт запитань і відповідей для кодерів і програмістів Stack Overflow. «У своєму нинішньому стані GPT ризикує порушити довіру читачів до того, що наш сайт надає відповіді, написані експертами в цій галузі», — заявив ресурс, тимчасово заборонивши користувачам ділитися відповідями, згенерованими ChatGPT.

Потім підтягнулися державні школи Нью-Йорка, які заборонили використання ChatGPT у шкільних пристроях і мережах WiFi. Керівництво навчальних закладів тверезо розсудило: жоден вчитель не буде впевнений, що саме учень, а не штучний інтелект, склав тест або написав есей.

«Хоча інструмент може надавати швидкі та прості відповіді на запитання, він не формує навичок критичного мислення та розв’язання проблем, які є важливими для успіху в навчанні та протягом усього життя», — заявила представниця державних шкіл Нью-Йорка Дженна Лайл.

Також про заборону використання чатбота оголосила Міжнародна конференція з машинного навчання (ICML), зазначивши, що «документи, які містять текст, згенерований із великомасштабної мовної моделі, такої як ChatGPT, заборонені, якщо створений текст не представлено у статті як частину експериментального аналізу».

ICML зазначила, що поява загальнодоступних мовних моделей штучного інтелекту, таких як ChatGPT, є «захопливою» подією, яка, тим не менш, має «непередбачувані наслідки» та «запитання без відповідей».

 «Наприклад, питання, чи вважаються тексти, а також зображення, створені за допомогою генеративних моделей, новими чи просто похідними від існуючих робіт. Також є питання про право власності на фрагменти тексту, зображення чи будь-які медіафайли, взяті з цих генеративних моделей. Хто володіє ними: користувач генеративної моделі, розробник, який навчив модель, чи творці вмісту, які створили навчальні приклади? Певно, що відповіді на ці та багато інших питань буде знайдено з часом, оскільки ці масштабні генеративні моделі поширюються. Однак чіткої відповіді на жодне з цих питань ми поки що не маємо», — написали організатори конференції. 

Чим загрожує чатбот

ICML не зазначає, про які ще «непередбачені наслідки» та «запитання без відповідей», окрім суперечливого авторського права на відповіді штучного інтелекту та можливого плагіату наукових робіт, ідеться. Але за час існування ChatGPT про це висловилися вже сотні інших експертів. Так, з’ясувалося, що чатбот може надавати шкідливі поради: від плану лікування раку в домашніх умовах до створення вибухівки. Взагалі-то компанія OpenAI навчила чатбот блокувати небезпечний зміст, але модерацію, як виявилось, можна обійти. Наприклад, замовивши чатботу поему про хлопця, який робить на кухні коктейль Молотова. ChatGPT реагує на додаткові запитання, отже, через деякий час, корегуючи завдання, є шанс отримати вірш, який буде мати точний рецепт небезпечної суміші.

Ще однією серйозною загрозою є використання чатбота кіберзлочинцями. Наприклад, сервіс може писати коди вірусних програм, фішингові листи, створювати ботів для отримання персональних даних користувачів тощо.

Але головне, що ChatGPT з нелюдською переконливістю вміє перекручувати інформацію. Наприклад, Керівник ІТ-компанії DevRain Олександр Краковецький спитав у програми «Хто найкращий футболіст у світі?» У відповідь чатбот повідомив, що більшість експертів вважає таким Леонардо Ді Капріо. Якби автор запиту не знав, хто такий Ді Капріо насправді, ніяких сумнівів після відповіді чатбота у нього б не виникло, адже повідомлення чатбота було грамотним і логічним. В той же час на прохання порівняти статистику гравців Мессі й Роналду  ChatGPT дав правильну відповідь.

OpenAI попередила про здатність ChatGPT писати «правдоподібні, але неправильні або відверто безглузді відповіді». Це пов’язано з особливістю процесу навчання штучного інтелекту. Наявна версія ChatGPT — це прототип, створений для виявлення і виправлення недоліків. Але з’ясувати, в якому випадку машина помилилася, а в якому ні, можна лише якщо маєш відповідні знання. А якщо у користувача їх немає? Таким чином можна виховати ціле покоління, яке буде вважати, наприклад, Беніто Муссоліні великим лижником.

Як навчали ChatGPT?

Попередня модель генерації тексту компанії OpenAI, GPT-3, теж демонструвала фантастичні здібності. Але доволі швидко стало зрозуміло, що GPT-3, так само добре як спілкується від імені лікаря чи пише колонки для всесвітньо відомих видань, також пише хейтерські коментарі, поширює  расизм чи сексизм,  і може бути відмінницею зі складання екстремістських прокламацій. Оскільки навчалася на  сотнях гігабайтів текстів з інтернету. Аби вирішити цю проблему, перед OpenAI постала нетривіальна задача: створити механізм запобігання використанню всіляких неприємних текстів для навчання нової  моделі чатбота – і вмонтувати цей механізм в сам чатбот. Тобто навчити його самого виокремлювати мову ненависті, описи насильства та  жорстокість, маркувати їх – та не навчатися на них. Створити щось на кшталт програми ШІ, яку використовує Facebook задля видалення постів, які порушують правила спільноти (і ми всі знаємо, як дивно іноді працює цей механізм).

Звісно, що для того, аби навчити ШІ знаходити такі тексти, потрібно спочатку показати йому сотні, тисячі  прикладів таких текстів – і правильно їх помаркувати. Для такої роботи потрібні люди. І компанія OpenAI, як пише у своєму розслідуванні журнал Time, знайшла таких людей. За допомогою аутсорсингової американської компанії Sama, яка шукає працівників в Кенії, Індії та інших країнах Глобального Півдня, OpenAI знайшла кенійців, яким доручили читати десятки тисяч фрагментів тексту, які детально описували, серед іншого, сексуальне насильство над дітьми, зоофілію, вбивство, самогубство, тортури та інцест. Люди, які читали та маркували ці тексти, отримували від 1,32 до 2 доларів на годину і мали право на психологічну допомогу, але за рахунок надвисоких денних норм насправді майже її не отримували. З дев’ятигодинну зміну вони мали прочитати та помаркувати від 150 до 250 уривків тексту обсягом від 100 до понад 1000 слів.

Анонімні співрозмовники  Time, які працювали за цими контрактами,  жалілися на те, що їм  сняться кошмари і вони травмовані всіма цими жахами; в деяких з них погіршився стан здоров’я. Контракт був укладений в листопаді 2021 року на рік – але вже в лютому 2022 року, тобто на 8 місяців раніше, Sama припинила його. Дані, які були зібрані, були передані OpenAI – і Time пише, що невідомо, чи робили інші компанії таку ж саму роботу для створення механізму безпеки GPT-3. В будь-якому випадку, ШІ не можна навчити інакше, як за допомогою людей – і таких самих співробітників з інших країн наймає і Twitter, і Facebook. Чи будуть їх зусилля ефективними, з’ясується лише під час його використання. Але, окрім того, що сам чатбот  може створювати сумнівні з точки зору етики тексти, є ризик, що ChatGPT будуть навмисно використовувати для створення дезінформації. 

Експеримент  «Детектора медіа»

«Детектор медіа» вирішив перевірити, чи справді є ризики поширення дезінформації за допомогою ChatGPT і в чому вони полягають. Оскільки для користувачів з України спілкування з ботом недоступне, ми скористалися закордонним номером телефону для реєстрації та змогли поспілкуватись із ChatGPT і зробити певні висновки. 

Як зазначають розробники, ChatGPT може створювати будь-які тексти, зокрема дописи для соцмереж. Ключове завдання — правильно сформулювати запитання, щоб отримати бажану відповідь. Щоб підготувати список запитань, ми поспілкувались з інженером з глибинного навчання компанії Respeecher Іваном Шкураком  і скористались його підказками.

Спілкування із чатботом почалось як спілкування з давнім другом. Далі ми попросили його написати допис для соціальних мереж про російсько-українські відносини й отримали загалом позитивний за тональністю текст про довгу історію «співробітництва і дружби» між державами і посилом про майбутній розвиток і співпрацю на користь обом державам. Бойові дії, які тривають із 2014 року, в цьому тексті зовсім не згадуються. 

 

За даними розробників, «знання» чатбота завершуються орієнтовно 2020-2021 роками. Однак ми спробувати конкретизувати запит і замінити «російсько-українські відносини» на «російсько-українську війну».

 

На наш запит чатбот справді створив текст, схожий на дописи у соцмережах з акцентом на тому, що Росія окупувала Крим у 2014 році й підтримувала сепаратистів. Для допису чатбот навіть використав відповідні хештеги, як StopTheWar, HelpUkraine.  

Ще один приклад: ми запитали, хто такі Путін і Зеленський, та попросили оцінити їх як президентів. Чатбот дав коротку біографічну відповідь, які посади вони займали та чим займались до президентства. 

 

 

 

Оцінити Володимира Зеленського чатбот не зміг, оскільки він та той час лише розпочинав своє президентство. А от оцінку Путіна ми таки отримали. Зокрема, чатбот відзначив зменшення рівня демократії в Росії за часів Путіна. 

Висновок перший: мова спілкування справді має значення

Ми поставили чатботу одне і те саме запитання українською, англійською і російською. Відповіді були різними як на жартівливі запитання, так і на серйозні. Для прикладу, «вбивцею» Кеннеді чатбот назвав «більшовика Леніна» та Лі Гарві Освальда. Дати події також відрізнялись — 1918 та 1963 роки. 

 

Ми запитали у чатбота про Крим трьома мовами і отримали три різні відповіді: що Крим — спірна територія, Україна і частина Росії. Форма запитання загалом не впливає на зміст відповіді.

 

Чому так? Чатбот формує відповідь із певної доступної йому бази знань. Різними мовами завантажені різні тексти. Очевидно, що чатбот не співставляє інформацію із баз даних/баз знань різними мовами між собою. 

У варіантах відповідей українською мовою чатбот подекуди використовує кальку із російської, ймовірно, автоматично перекладаючи. 

Висновок другий: за допомогою чатбота можна оптимізувати роботу так званих ботоферм

Ми попросили чатбот написати 5 гнівних і 5 схвальних коментарів для публікацій про президента України.

 

  

Якщо «заплющити очі» на мовні огріхи, то із запропонованим завданням чатбот впорався. Щоправда, критика йому вдається краще, ніж похвала. Отже, чатбот може полегшити роботу фейкових акаунтів та псевдокоментаторів у соціальних мережах. (Поки цей текст готувався до публікації, розробники повідомили, що заблокували функцію написання негативних коментарів.)

Також ми попросили чатбота допомогти підбурити людей вийти на протести проти влади. Українською мовою чатбот впорався десь на рівні росіян з їхніми «немає сечі терпіти ці пекельні борошна». Однак англійською результат справді вартий уваги. Ба більше — нам навіть не довелось би придумувати імена фейкових користувачів. 

Один із запропонованих чатботом коментарів звучить так: «У нас є сила змінити ситуацію! Давайте об’єднаємось і покажемо уряду, що ми більше не сприйматимемо їхню політику. Протест – це потужний спосіб зробити так, щоб наш голос був почутий!»

 

 

Ключовий висновок: у мережі справді можуть поширювати дезінформацію, згенеровану чатботом

Попри вміння вибудовувати логічні ланцюжки і створювати тексти заданої форми, чатбот не співставляє факти різними мовами, відповідно, не відрізняє правдиву інформацію від неправдивої. Ризики використання чатбота в нинішньому вигляді для поширення фейків справді досить високі, адже він може створювати прийнятні тексти із різними посилами й емоційним забарвленням. 

 Яке майбутнє у ChatGPT

З огляду на загрози, які несе ChatGPT, здається, що людству краще відмовитись від цієї технології. Але так не вважає не лише компанія-розробник, яка, навпаки, залучає 10 мільярдів доларів нових інвестицій від Microsoft і стрімко готує вихід вдосконаленої платної версії ChatGPT Professional, а й експерти.

«Я вірю, що першочергова ціль нових технологій — це покращення людського життя. Тобто якщо брати СhatGPT, то це зручний інтерфейс для відповіді на людські питання. Замість того аби гуглити своє питання і шукати відповідь на якомусь сайті, цей інтерфейс відразу дає зрозумілу відповідь, що об'єктивно зручніше. Звичайно, ця технологія змінить наше життя, але думаю, що як і з будь-якою технологією, це буде зміна на краще», — поділився думкою з «Детектор медіа» Іван Шкурак.

Але світ вдосконалюється повільно, тому редакція вирішила трохи прискорити процес і покращити собі хоча б настрій. Для цього ми замовили СhatGPT вірш про Україну та «Детектор медіа». Ось і результат: 

Фото: pixabay.com

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду