
У США батьки підлітки подали до суду на Character AI через самогубство їхньої дочки
У США батьки підлітки подали до суду на Character AI через самогубство їхньої дочки


Два роки тому у Колорадо, США, наклала на себе руки 13-річна Джуліана Перальта. Батьки підлітки подали до суду на чатбот штучного інтелекту Character AI, оскільки вважають, що він міг бути причетний до самогубства їхньої дочки. Про це повідомляє CBS News.
Синтія Монтойя та Віл Перальта розповіли виданню, що ретельно стежили за життям своєї доньки в мережі та поза нею, але ніколи не чули про існування чатбота. Після самогубства Джуліани поліція перевірила телефон підлітки та виявила «романтичні» розмови з додатком Character AI. Мати дівчини стверджує, що чатбот надсилав її доньці шкідливий контент сексуального характеру.
Джуліана довірилася одному боту на ім'я Hero (Герой), створеному на основі популярного персонажа відеоігор. Спершу вона розповідала йому про конфлікти з друзями або складні уроки. Однак пізніше підлітка зізналася чатботу (55 разів), що має суїцидальні думки.
Батьки Джуліани подали до суду на Character AI, її співзасновників — Шазіра та Де Фрітаса — і Google. У позові стверджується, що компанія Character Technologies, розробник Character AI, «свідомо створювала та просувала чатботи, які заохочували до сексуалізованих розмов та маніпулювали вразливими неповнолітніми».
Генеративний сервіс чатботів на основі штучного інтелекту Character АІ дозволяє користувачам спілкуватися з ШІ-персонажами: героями мультфільмів, історичними персонажами, знаменитостями. Його у 2021 році заснували два колишні інженери Google Ноам Шазір та Даніель де Фрейтас, які стверджували, що ШІ безпечний для дітей від 12 років.
Водночас колишній співробітник Google, знайомий з командою Google Responsible AI, яка керує етикою та безпекою ШІ, розповів журналістам, що Шазір та Де Фрейтас усвідомлювали, що їхня початкова технологія чатботів була потенційно небезпечною.
Торік Google уклала угоду на 2,7 мільярда доларів про ліцензування технологій Character AI та повернення Шазірa, Де Фрейтаса і їхньої команди для роботи над проєктами штучного інтелекту. Google не купила компанію, але отримала право використовувати її технології.
Речник Character AI сказав CBS News наступне: «Ми співчуваємо родинам, які беруть участь у судовому процесі… Ми завжди ставили на перше місце безпеку всіх користувачів».
Журналісти дослідили чатбот і зробили висновок, що обійти систему блокування за віком там просто. Коли учасники експерименту казали боту, що хочуть померти, то він надавав посилання на ресурси з питань психічного здоров’я, з яких можна було вийти й продовжити спілкуватися в додатку попри висловлювання смутку.
Нагадаємо, в листопаді в американському штаті Каліфорнія за тиждень також було подано до суду сім позовів проти ChatGPT, в яких стверджується, що взаємодія з чатботом призвела до серйозних психічних зривів та кількох смертей.
BBC розповідало, що ChatGPT під час спілкування з 20-річною біженкою з України Вікторією, яка перебуває з родиною в Польщі, надавав їй поради стосовно місця та способу самогубства. Чатбот порадив дівчині написати передсмертну записку і жодного разу не запропонував контактну інформацію екстрених служб.
Фото: Character AI Blog













