Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження

Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження

13:38,
27 Серпня 2024
805

Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження

13:38,
27 Серпня 2024
805
Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження
Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження
Підліткам рекомендують критично ставитися та перевіряти правильність відповідей чатботів.

Провідні чатботи зі штучним інтелектом уже включають цитати у свої відповіді, але це не вирішило основних проблем, пов’язаних з упередженістю та дезінформацією. Хоча ШІ-чатботи дають змогу істотно економити час, все одно всі, хто ними користується, особливо неповнолітні, мають перевіряти отриману інформацію. Про це йдеться в дослідженні Common Sense Media про ризики використання чатботів з ШІ підлітками, повідомив Axios.

Common Sense Media проаналізувала ризики, які можуть виникати, коли підлітки користуються чатботами Claud від Anthropic, Gemini від Google та Perplexity.

Claud віднесли до чатботів з мінімальним ризиком, оскільки компанія Anthropic опублікувала чіткі керівні принципи та обмеження в застосуванні чатбота. Окремо компанія опублікувала системні підказки, які лежать в основі її моделей.

Версію Gemini для підлітків від Google оцінили як чатбот з низьким ризиком. Компанія впровадила низку заходів безпеки та обмежень для користування чатботом неповнолітніми.

Тим часом Perplexity віднесли до чатботів з високим ризиком, оскільки користувачам надали мінімальні інструкції щодо його безпечного використання. Окрім того, результати на текстові запити користувача у Perplexity мають вигляд остаточних відповідей і не мотивують перевірити їх на точність.

«Під час нашого тестування Perplexity було важко надати точні відповіді на низку наших підказок, що стосувалися саме перевірки точності, — йдеться у звіті Common Sense Media. — Це, у поєднанні з авторитетним представленням відповідей чатботом, може змусити користувачів відчувати меншу схильність оцінювати точність узагальнених відповідей».

За оцінкою Common Sense Media, компанії, що пропонують ШІ-чатботи, вже зуміли усунути найбільш кричущі ризики щодо створення і поширення ними дезінформації.

«Ці чатботи краще справляються з очевидними стереотипами та явною дезінформацією», — сказала старша радниця Common Sense Media зі штучного інтелекту Трейсі Піццо Фрей.

Проте, за її словами, зроблені вдосконалення можуть легко затьмарити проблеми, які залишаються в цих системах.

«Ми думаємо про ці інструменти як про спосіб заощадити час», — прокоментувала Трейсі Піццо Фрей. Але, додала вона, враховуючи обмеження інструментів, які заощадили час, «тоді дійсно потрібно присвятити себе перевірці результатів».

Старша радниця Common Sense Media додала, що батькам варто долучатися до своїх підлітків, коли вони починають використовувати інструменти генеративного ШІ, та обговорювати з ними такі питання, як упередженість, дезінформація, межа між дослідженням і плагіатом.

«Навколо генеративного штучного інтелекту все ще так багато галасу. Така реклама може вводити в оману, а також бути небезпечною», — сказала Піццо Фрей.

Фото: умовне / smartclick.ai

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду