OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ

OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ

17:34,
1 Червня 2023
1455

OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ

17:34,
1 Червня 2023
1455
OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ
OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ
Компанія напрацьовує новий метод навчання моделей штучного інтелекту для боротьби з дезінформацією.

Американська компанія OpenAI вирішила боротися зі спотворенням інформації штучним інтелектом (ШІ) і напрацьовує новий метод навчання моделей ШІ для боротьби з дезінформацією. Про це повідомило видання CNBC.

Зазначається, що так звані «галюцинації» ШІ виникають, коли такі моделі, як ChatGPT від OpenAI або Bard від Google повністю фабрикують інформацію, при цьому подаючи її так, ніби це факти. Як приклад, видання наводить ситуації, коли у власному лютневому рекламному відео Google для Bard чатбот зробив неправдиву заяву про космічний телескоп Джеймса Вебба або нещодавно ChatGPT посилався на «підроблені» справи в заяві федерального суду Нью-Йорка.

«Навіть найсучасніші моделі схильні до хибних висновків — вони схильні вигадувати факти у моменти невизначеності, — пишуть дослідники OpenAI у звіті. — Ці галюцинації особливо проблематичні в галузях, що вимагають багатоступінчастого міркування, оскільки однієї логічної помилки достатньо, щоб зірвати набагато масштабніше рішення».

Наразі дезінформація, що виходить від систем ШІ, обговорюється особливо активно на тлі буму генеративного ШІ та за умов підготовки до виборів президента США у 2024 році.

Потенційно OpenAI має навчити моделі штучного інтелекту винагороджувати себе за кожне правильне міркування, коли вони приходять до відповіді, замість того, щоб просто винагороджувати правильний остаточний висновок. Цей підхід називається «нагляд за процесом», на відміну від «нагляду за результатами», і, на думку дослідників, він може привести до кращої роботи систем ШІ. Простіше кажучи, ШІ хочуть навчити дотримуватись підходу, більш схожого на людський ланцюжок «думок».

Коли саме його буде впроваджено, наразі невідомо.

Нагадаємо, нещодавно американська компанія Gorilla Technologies створила бот Superchat на основі технології штучного інтелекту від OpenAI, що дає змогу розмовляти з віртуальними персонажами, зокрема з Шекспіром, Альбертом Ейнштейном, Клеопатрою, Нілом Армстронгом, Білосніжкою, Рапунцель, Дракулою, Шерлоком Голмсом тощо.

Фото: Levart_Photographer / Unsplash
Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду