Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Використання популярних ШІ-чатботів несе ризики для підлітків, — дослідження
Провідні чатботи зі штучним інтелектом уже включають цитати у свої відповіді, але це не вирішило основних проблем, пов’язаних з упередженістю та дезінформацією. Хоча ШІ-чатботи дають змогу істотно економити час, все одно всі, хто ними користується, особливо неповнолітні, мають перевіряти отриману інформацію. Про це йдеться в дослідженні Common Sense Media про ризики використання чатботів з ШІ підлітками, повідомив Axios.
Common Sense Media проаналізувала ризики, які можуть виникати, коли підлітки користуються чатботами Claud від Anthropic, Gemini від Google та Perplexity.
Claud віднесли до чатботів з мінімальним ризиком, оскільки компанія Anthropic опублікувала чіткі керівні принципи та обмеження в застосуванні чатбота. Окремо компанія опублікувала системні підказки, які лежать в основі її моделей.
Версію Gemini для підлітків від Google оцінили як чатбот з низьким ризиком. Компанія впровадила низку заходів безпеки та обмежень для користування чатботом неповнолітніми.
Тим часом Perplexity віднесли до чатботів з високим ризиком, оскільки користувачам надали мінімальні інструкції щодо його безпечного використання. Окрім того, результати на текстові запити користувача у Perplexity мають вигляд остаточних відповідей і не мотивують перевірити їх на точність.
«Під час нашого тестування Perplexity було важко надати точні відповіді на низку наших підказок, що стосувалися саме перевірки точності, — йдеться у звіті Common Sense Media. — Це, у поєднанні з авторитетним представленням відповідей чатботом, може змусити користувачів відчувати меншу схильність оцінювати точність узагальнених відповідей».
За оцінкою Common Sense Media, компанії, що пропонують ШІ-чатботи, вже зуміли усунути найбільш кричущі ризики щодо створення і поширення ними дезінформації.
«Ці чатботи краще справляються з очевидними стереотипами та явною дезінформацією», — сказала старша радниця Common Sense Media зі штучного інтелекту Трейсі Піццо Фрей.
Проте, за її словами, зроблені вдосконалення можуть легко затьмарити проблеми, які залишаються в цих системах.
«Ми думаємо про ці інструменти як про спосіб заощадити час», — прокоментувала Трейсі Піццо Фрей. Але, додала вона, враховуючи обмеження інструментів, які заощадили час, «тоді дійсно потрібно присвятити себе перевірці результатів».
Старша радниця Common Sense Media додала, що батькам варто долучатися до своїх підлітків, коли вони починають використовувати інструменти генеративного ШІ, та обговорювати з ними такі питання, як упередженість, дезінформація, межа між дослідженням і плагіатом.
«Навколо генеративного штучного інтелекту все ще так багато галасу. Така реклама може вводити в оману, а також бути небезпечною», — сказала Піццо Фрей.
Фото: умовне / smartclick.ai