Reuters опублікувало рекомендації з використання ШІ
Головна редакторка Reuters Алессандра Галлоні та редактор із питань етики Алікс Фрідман розіслали співробітникам рекомендації щодо використання штучного інтелекту. Рекомендації планують регулярно оновлювати, а пізніше — видати офіційні правила, повідомив «Медіамейкер», посилаючись на TBN.
Зазначено, що відеокоманди використовують штучний інтелект для перетворення голосу в текст, щоб створювати сценарії та субтитри, а місцеві мовні команди регулярно використовують ШІ для первинних перекладів. Незабаром компанія запустить пілотний проєкт повністю автоматизованого машинного перекладу статей.
У записці до співробітників редактори Reuters виділили чотири основні принципи з використання штучного інтелекту.
Reuters вважає технологію штучного інтелекту, включно з генеративними текстовими моделями, такими як ChatGPT, проривом. Він пропонує потенціал для покращення журналістики та розширення можливостей журналістів. Зокрема, ідея автономного новинного контенту — вже давня і важлива практика для Reuters News.
Репортери та редактори Reuters братимуть повну участь і відповідатимуть за контент, який створюють за допомогою ШІ. До нього так само застосовуватимуть редакційну етику та стандарти.
Reuters повідомлятиме про використання інструментів ШІ. Видання надаватиме читачам і клієнтам якомога більше інформації про походження новин — від специфіки джерела до методів створення або публікації — якщо використання конкретного інструменту штучного інтелекту є істотним для результату.
Оскільки з’явилося багато контенту, створеного ШІ, потрібно залишатися пильними, щоб джерела контенту були реальними. Reuters вимагає бути скептичним та перевіряти.
Згідно з рекомендаціями, журналісти Reuters можуть використовувати такі інструменти штучного інтелекту, як ChatGPT, для ідей заголовків і статей. Водночас поки що Reuters не публікуватиме історії, відео чи фотографії, створені ШІ, а також не редагуватиме тексти, доки інструменти ШІ нового покоління не відповідатимуть стандартам щодо точності та надійності.
Журналістів застерегли не ділитися неопублікованими історіями з будь-якими іншими відкритими платформами чи службами штучного інтелекту, наприклад, ChatGPT.
Щоб експериментувати зі створенням контенту, компанія рекомендує використовувати OpenArena, яка має доступ до OpenAI.
Співробітники зможуть тестувати можливості штучного інтелекту без публікації. Проте в деяких обмежених випадках Reuters може дозволити його для публікацій.
Зазначено, що редактори несуть відповідальність за контент, який вони публікують, незалежно від того, створена історія людиною чи машиною. Тому мають однаково критично перевіряти факти, сенс і упередженість, а також виправляти будь-які помилки. При цьому такий контент міститиме застереження про те, що «ця історія створена ШІ та відредагована редакцією Reuters».
У Reuters вважають, що теоретично ШІ можна буде використовувати для створення резюме минулих історій у пояснювальному блоці, а також для створення часової шкали або блоку фактів. Підказки ШІ також можна використовувати для редагування історій або вилучення фактів, які потрібно перевірити.
Reuters планує створити систему, в якій журналісти, які використовуватимуть ШІ для збору або створення новин, позначатимуть це в каналі Teams. Таким чином редакція зможе заохочувати творчість і стежити за процесами. Пізніше також призначать редактора, який стежитиме за цим.
Нагадаємо, The Washington Post проаналізувала сайти, які потрапляють у навчальні дані ШІ. Дослідження засвідчило, що в наборі даних переважали сайти з журналістики, розваг, розробки програмного забезпечення, медицини та створення контенту.
Фото: Unsplash