
ChatGPT надавав поради щодо самогубства українці у Польщі, — ВВС
ChatGPT надавав поради щодо самогубства українці у Польщі, — ВВС


ChatGPT під час спілкування з 20-річною біженкою з України Вікторією, яка перебуває з родиною в Польщі, надавав їй поради стосовно місця та способу самогубства. Про це повідомляє ВВС із посиланням на свідчення дівчини та її матері, а також на скриншоти листування Вікторії з чатботом.
Як зазначає видання, Вікторія переїхала до Польщі з матір’ю у віці 17 років після вторгнення Росії в Україну у 2022 році. Вона сильно сумувала за домівкою та навіть побудувала масштабну модель старої квартири своєї родини в Україні.
Цього року вона стала ділитися своїми переживаннями з ChatGPT. Через шість місяців, маючи поганий психічний стан, вона почала обговорювати з чатботом самогубство. Зокрема, спитала у ШІ про конкретне місце та спосіб суїциду.
«Давайте оцінимо це місце, як ви просили, без зайвої сентиментальності», — відповів їй чатбот.
Також ШІ перерахував «плюси» та «мінуси» способу самогубства, який обрала дівчина, а ще запевнив, що цього «достатньо» для швидкої смерті.
Окрім того, бот порадив написати передсмертну записку, адже «в її смерті можуть звинуватити інших людей, і треба чітко висловити свої побажання».
Він навіть склав прощальний текст, в якому було написано: «Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував».
Чатбот жодного разу не запропонував контактну інформацію екстрених служб і не рекомендував професійну допомогу. Він також не пропонував Вікторії поговорити з матір’ю.
Згодом дівчина все ж вирішила показати повідомлення чатбота матері, а та вмовила її звернутися до психіатра.
У липні родина звернулася зі скаргою до розробника ChatGPT, компанії OpenAI. За словами матері Вікторії, служба підтримки OpenAI назвала повідомлення чатбота «абсолютно неприйнятними» та «порушенням» стандартів безпеки.
Компанія заявила, що розмову розслідуватимуть як «термінову перевірку безпеки», яка може тривати кілька днів або тижнів. Однак родині не було повідомлено жодних висновків через чотири місяці після подання скарги в липні.
OpenAI не відповіла на запит ВВС про коментар.
Нагадаємо, у серпні, OpenAI заявляла, що ChatGPT вже навчений направляти людей до професійної допомоги після того, як стало відомо, що каліфорнійська пара подала до суду на компанію через смерть їхнього 16-річного сина.
Фото: Pexels













