OpenAI: New York Times взломали ChatGPT и сгенерировали фейковые доказательства
Компания OpenAI обвинила издание The New York Times (NYT) во взломе чат-бота ChatGPT. По мнению разработчиков, это сделали ради генерации фейковых доказательств по делу о нарушении авторских прав.
В компании уверяют, что издание заплатило третьей стороне за взлом языковой модели. После этого журналисты вместе с неназванными специалистами использовали «обманчивые подсказки», нарушающие условия использования ChatGPT. С их помощью они заставили чат-бот воспроизвести материалы издания, нарушающие авторские права.
«Утверждения, содержащиеся в жалобе NYT, не соответствуют ее знаменитым строгим журналистским стандартам. Правда, которая откроется в этом деле, заключается в том, что Times заплатила кому-то за взлом продуктов OpenAI», — говорится в заявлении компании.
Юристы издания не отрицают привлечения специалистов для работы с ChatGPT. По их словам, речь идет о промт-инжиниринге (prompt engineering). Это процесс создания и оптимизации текстовых запросов (промптов) для генеративных моделей с целью получения желаемых ответов.
Команда экспертов якобы изучила чат-бот на наличие доказательств о предполагаемом изданием незаконном использовании материалов NYT. Адвокаты не видят проблемы в таком подходе и сравнивают его с так называемой «красной атакой» — имитацией с целью оценки безопасности систем.
В ноябре 2023 года против OpenAI и Microsoft подали иск о нарушении авторских прав. В документах утверждается, что разработчики чат-бота незаконно использовали десятки тысяч статей и научных материалов для обучения языковой модели.
Тем времени OpenAI представила новый сервис для преобразования текста в видео. Продукт под названием Sora пока доступен для художников, дизайнеров и режиссеров. Они должны дать отзывы о том, как усовершенствовать модель, чтобы она была максимально полезной, заявили в компании.
Источник: cryptocurrency.tech