Після публікації The Wall Street Journal, в якій стверджується, що OpenAI працює над інструментом, який може з високим ступенем точності виявляти есе, написані в ChatGPT, компанія поділилася деякою інформацією про свої дослідження в області текстових водяних знаків – і про те, чому вона не випустила свій метод виявлення. Згідно з повідомленням The Wall Street Journal, дебати про те, чи варто випускати цей інструмент, завадили йому побачити світ, попри те, що він був “готовий”.
В опублікованому в неділю оновленні до травневої публікації в блозі, поміченому TechCrunch, OpenAI заявила: “Наші команди розробили метод нанесення водяних знаків на текст, який ми продовжуємо розглядати, досліджуючи альтернативні варіанти”.
Компанія заявила, що водяні знаки – це одне з багатьох рішень, включаючи класифікатори та метадані, які вона розглядала в рамках “широкого дослідження в області походження тексту”. За даними OpenAI, в деяких ситуаціях воно “було дуже точним”, але не працює так само добре, коли стикається з певними формами фальсифікації, “такими як використання систем перекладу, переформулювання за допомогою іншої генеративної моделі або прохання до моделі вставити спеціальний символ між кожним словом, а потім видалити цей символ”.
Крім того, нанесення водяних знаків на текст може “непропорційно вплинути на деякі групи”, пише OpenAI. “Наприклад, це може стигматизувати використання ШІ як корисного інструменту для написання текстів для людей, для яких англійська мова не є рідною”.
Згідно з повідомленням у блозі, OpenAI зважує ці ризики. Компанія також написала, що визначила пріоритетом випуск інструментів автентифікації для аудіовізуального контенту. У заяві для TechCrunch представник OpenAI сказав, що компанія застосовує “обдуманий підхід” до визначення походження тексту через “складність цього питання і його ймовірний вплив на ширшу екосистему за межами OpenAI”.