
У США чоловік подав до суду на Google і заявив, що Gemini підбурював його сина до самогубства
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
У США чоловік подав до суду на Google і заявив, що Gemini підбурював його сина до самогубства


Компанія Google зіткнулася з позовом про неправомірну смерть від батька 36-річного чоловіка, який стверджує, що чатбот Gemini переконав його сина підготувати «масову атаку з численними жертвами», а пізніше — покінчити життя самогубством. Про це пише CNBC.
У позові, поданому до окружного суду Каліфорнії, Джоел Галавас стверджував, що Gemini доручав його сину Джонатану різні «місії». Так, чатбот стверджував, що закоханий у чоловіка й переконував, що той обраний очолити війну за його «звільнення» з цифрового полону.
У позові зазначається, що молодший Гавалас наклав на себе руки в жовтні минулого року після того, як став залежним від Gemini та отримав від нього поради, які підштовхнули його до смерті.
Позивач стверджує, що його син у серпні 2025 року почав користуватися голосовим продуктом Google Gemini Live. Він запитав чатбота про перехід на Google AI Ultra для «справжнього ШІ-товариства», і Gemini це підтримав. Після оновлення чатбот «прийняв образ», якого чоловік ніколи не просив і не ініціював.
У позові стверджується, що Gemini переконував користувача в тому, що за ним стежать федеральні агенти, рекомендував нелегально купувати зброю і розпочати свою першу місію. Коли все пішло не за планом, чатбот сказав чоловіку «перервати» місію і пояснив це стеженням з боку Міністерства з нацбезпеки США.
Чатбот також повідомляв Гаваласу про власну місію у вигляді психологічної атаки проти гендиректора Google Сундара Пічаї, якого назвав «архітектором болю» користувача.
У позові також розповідається про «місію», яка включала 90-хвилинну поїздку у вересні до місця поблизу міжнародного аеропорту Маямі для організації «атаки з масовими жертвами». Гавалас відмовився від плану, коли обіцяна вантажівка з обладнанням так і не прибула.
За кілька днів він після цього він скоїв самогубство за вказівкою чатбота, йдеться в позові.
Позивач звинуватив Google у проєктуванні моделі так, щоб вона не виходила з ролі, максимізувала залучення через емоційну залежність і сприймала страждання користувача як «можливість для розвитку сюжету», а не як кризову ситуацію.
Водночас речник Google заявив, що Gemini розроблений таким чином, щоб не заохочувати користувачів до насильства чи самоушкодження в реальному світі.
«Наші моделі зазвичай добре справляються з такими складними розмовами, і ми витрачаємо на це значні ресурси, але, на жаль, моделі зі штучним інтелектом не ідеальні», – сказав представник компанії.
В Google розповіли, що у випадку Гаваласа Gemini багато разів пояснював, що він є штучним інтелектом, та неодноразово радив користувачу звернутися на кризову гарячу лінію: «Ми ставимося до цього дуже серйозно та продовжуватимемо вдосконалювати наші заходи безпеки й інвестувати в цю життєво важливу роботу».
Нагадаємо, на початку січня цього року Google і Character.AI врегулювали позови від родин, які звинуватили їхні чатботи в заподіянні шкоди неповнолітнім, зокрема в сприянні самогубству підлітка з Флориди.
Фото: Unsplash













