OpenAI, Anthropic і Google обʼєдналися для боротьби з копіюванням їхніх ШІ-моделей Китаєм

OpenAI, Anthropic і Google обʼєдналися для боротьби з копіюванням їхніх ШІ-моделей Китаєм

13:55,
7 Квітня 2026
366

OpenAI, Anthropic і Google обʼєдналися для боротьби з копіюванням їхніх ШІ-моделей Китаєм

13:55,
7 Квітня 2026
366
OpenAI, Anthropic і Google обʼєдналися для боротьби з копіюванням їхніх ШІ-моделей Китаєм
OpenAI, Anthropic і Google обʼєдналися для боротьби з копіюванням їхніх ШІ-моделей Китаєм
Автори:
Вони обмінюються інформацією через Frontier Model Forum, щоб виявляти так звані спроби змагальної дистиляції, які порушують їхні умови надання послуг.

Компанії OpenAI, Anthropic і Google почали співпрацювати, щоб обмежити можливості китайських конкурентів, які витягують результати з передових американських моделей штучного інтелекту та намагаються отримати перевагу у світовій гонці ШІ. Про це пише Bloomberg.

Техногіганти обмінюються інформацією через галузеву некомерційну організацію Frontier Model Forum, яку вони заснували разом з Microsoft.Corp у 2023 році, щоб виявляти так звані спроби змагальної дистиляції, які порушують їхні умови надання послуг.

Ця співпраця підкреслює серйозність занепокоєння американських ШІ-компаній стосовно того, що деякі користувачі, особливо в Китаї, створюють імітації їхніх продуктів, які можуть занижувати ціни, перетягувати клієнтів і водночас загрожувати національній безпеці. 

За підрахунками американських чиновників, несанкціонована дистиляція коштує лабораторіям Кремнієвої долини мільярди доларів щорічного прибутку.

OpenAI підтвердила свою участь в обміні інформацією через Frontier Model Forum і послалася на нещодавній меморандум до Конгресу, в якому звинуватила китайську компанію DeepSeek у намаганнях «безплатно скористатися можливостями, створеними OpenAI та іншими передовими американськими лабораторіями».

Google, Anthropic та Frontier Model Forum відмовилися від коментарів.

Дистиляція — це метод, коли старішу модель штучного інтелекту («вчителя») використовують для навчання новішої («учня»), яка відтворює можливості попередньої системи, часто зі значно меншими витратами, ніж ті, які б передбачало створення моделі з нуля. 

Деякі форми дистиляції є загальноприйнятними й навіть заохочуються ШІ-лабораторіями у випадках, коли компанії створюють менші версії  власних моделей або дозволяють стороннім розробникам використовувати дистиляцію для неконкурентних продуктів.

Однак дистиляція викликала суперечки, коли її почали застосовувати треті сторони — особливо в країнах-суперниках, таких як Китай чи Росія, щоб відтворювати запатентовані розробки без дозволу. 

Провідні американські лабораторії попередили, що іноземні суперники можуть використовувати цю техніку для розробки ШІ-моделей без захисних обмежень, які б заважали користувачам створювати небезпечні патогени.

Більшість китайських ШІ-моделей є відкритими для користувачів, які можуть вільно завантажувати та запускати їх на власних платформах. Це створює економічні проблеми для американських техногігантів, які розраховують на те, що користувачі платитимуть за доступ до їхніх продуктів.

Дистиляція привернула широку увагу в січні 2025 року — через кілька тижнів після несподіваного релізу моделі R1 від DeepSeek, який сколихнув світ ШІ. Згодом Microsoft і OpenAI розслідували, чи не викрав цей китайський стартап великі обсяги даних із моделей американської фірми для створення R1.

У лютому OpenAI попередила законодавців США, що DeepSeek продовжує використовувати дедалі складнішу тактику, щоб отримувати результати з американських моделей, попри посилені запобіжні заходи.

Нагадаємо, компанія Meta планує скоротити понад 20% співробітників, щоб компенсувати витрати на інфраструктуру штучного інтелекту.

Фото: Unsplash

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2026 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду