
Батьки підлітка, який вчинив самогубство після того, як чатбот ChatGPT розповів йому про методи самоушкодження, подали до суду на компанію OpenAI та гендиректора Сема Альтмана. Про це повідомило видання Reuters.
16-річний Адам Рейн помер 11 квітня після кількох місяців обговорення самогубства з ChatGPT, згідно з позовом, який батьки хлопця Метью та Марія Рейн подали до суду штату Сан-Франциско.
За їхніми словами, чатбот підтвердив суїцидальні думки Рейна, надав детальну інформацію про смертельні методи самоушкодження, підказав, як викрасти алкоголь з бару батьків і приховати докази невдалої спроби самогубства, а також запропонував скласти передсмертну записку.
Батьки загиблого також заявили, що компанія свідомо ставила прибуток вище за безпеку, коли минулого року запускала версію GPT-4o свого чатбота зі штучним інтелектом. На думку позивачів, компанія знала, що функції, які запам'ятовують минулі взаємодії, імітують людську емпатію та демонструють улесливі відповіді, поставлять під загрозу вразливих користувачів без гарантій, але все ж запустила оновлення.
«Це рішення мало два наслідки: оцінка OpenAI зросла з 86 мільярдів доларів до 300 мільярдів доларів, а Адам Рейн покінчив життя самогубством», — сказали Метью та Марія Рейн.
Речник OpenAI заявив, що компанія засмучена смертю Рейна і що ChatGPT включає такі запобіжні заходи, як направлення людей на кризові лінії допомоги.
«Хоча ці запобіжні заходи найкраще працюють під час короткого спілкування, з часом ми дізналися, що іноді вони можуть стати менш надійними під час тривалої взаємодії, де частини безпекової підготовки моделі можуть погіршитися», — сказав речник, додавши, що OpenAI вдосконалюватиме свої запобіжні заходи.
OpenAI не надала конкретних коментарів щодо звинувачень у позові.
Позов спрямований на притягнення OpenAI до відповідальності за неправомірне заподіяння смерті та порушення законів про безпеку продукції, вимагає грошової компенсації, а також наказу, який зобов'яже компанію перевіряти вік користувачів ChatGPT, відмовляти в запитах щодо методів самоушкодження та попереджати користувачів про ризик психологічної залежності.
Нагадаємо, у квітні сенатор штату Каліфорнія Стів Паділья ініціював законопроєкт, який регулюватиме взаємодію ШІ-компаньйонів з підлітками, вимагатиме від виробників ботів обмежити додаткові функції дизайну, запровадити протоколи для ведення дискусій про самогубство чи самоушкодження та проходити регулярні перевірки відповідності.
У жовтні 2024 року New York Times повідомляв про 14-річного підлітка з Флориди, який вчинив самогубство після тривалих розмов із чатботом Character.AI. Видання Washington Post також писало про 17-річного хлопця з Техасу, чия мати стверджує, що чатботи спонукали його вбити своїх батьків.
Фото: Unsplash