
Найновіша модель ChatGPT від OpenAI почала використовувати Grokipedia Ілона Маска як джерело інформації для відповідей на запити користувачів. Про це повідомляє The Guardian.
Grokipedia — це онлайн-енциклопедія, контент якої повністю генерує штучний інтелект. Користувачі можуть лише надсилати запити на зміни, однак можливості самотужки редагувати статті, як у Вікіпедії, в них немає.
За даними британського видання, нова модель GPT-5.2 дев’ять разів цитувала Grokipedia у відповідях на понад десяток різних запитань. Водночас посилання зʼявлялися не там, де помилки енциклопедії Маска вже обговорювали публічно, а в темах, які є менш відомими загалу. Серед прикладів — твердження про британського історика Річарда Еванса, які раніше вже спростовували в медіа.
Речник xAI, компанії-власниці Grokipedia, назвав цю інформацію «брехнею застарілих ЗМІ».
Водночас за даними видання, GPT-5.2 не єдина ШІ-модель, яка посилається на Grokipedia у своїх відповідях. Як свідчать неофіційні дані, енциклопедію Маска цитує також велика мовна модель Claude від компанії Anthropic.
Речник OpenAI заявив, що вебпошук моделі «має на меті використовувати широкий спектр загальнодоступних джерел і точок зору».
«Ми застосовуємо фільтри безпеки, щоб зменшити ризик появи посилань, пов’язаних із серйозною шкодою, а ChatGPT чітко показує, які джерела вплинули на відповідь, через цитати», — сказав речник і додав, що в OpenAI постійно діють програми для фільтрації інформації з низьким рівнем достовірності та кампаній впливу.
Проникнення даних Grokipedia у відповіді великих мовних моделей викликає занепокоєння в дослідників дезінформації. Ще торік експерти з безпеки звертали увагу, що ворожі структури, включно з російськими пропагандистськими мережами, масово поширюють фейки, щоб наповнити ними ШІ-моделі — так званий LLM grooming.
Дослідниця дезінформації Ніна Янковіц, яка працює з темою LLM grooming, заявила, що цитування ChatGPT матеріалів Grokipedia викликало аналогічні занепокоєння, адже статті цієї платформи, які вона та її колеги переглянули, спиралися на малонадійні джерела або навіть навмисно дезінформували.
На думку Янковіц, посилання ШІ на Grokipedia чи пропагандистські мережі, як-от Pravda, можуть помилково підвищувати їхню довіру в очах користувачів. Люди можуть вирішити: якщо ресурс цитує ChatGPT, то його вже «перевірили», він заслуговує довіри, і продовжать шукати там новини, зокрема про війну в Україні.
Нагадаємо, Ілон Маск анонсував запуск Grokipedia 6 жовтня 2025 року. Тоді він пояснив, що проєкт створений на базі штучного інтелекту Grok і має стати «значним покращенням Вікіпедії» та кроком до мети xAI — «розуміння Всесвіту». Grokipedia запрацювала 28 жовтня. На той момент вона налічувала понад 800 тисяч статей.
Фото: Shutterstock