ChatGPT теряет точность

Новейшие модели чат-бота ChatGPT стали давать менее точные ответы на идентичный ряд вопросов по прошествии нескольких месяцев. Об этом говорится в исследовании аналитиков Стэнфорда и Калифорнийского университета. 

Авторы не смогли объяснить, почему ухудшаются возможности нейросети. 

В рамках эксперимента аналитики попросили ChatGPT-3.5 и ChatGPT-4 решить ряд математических задач, ответить на деликатные вопросы, написать новые строки кода и продемонстрировать пространственное мышление с помощью подсказок.

В марте последняя версия искусственного интеллекта (ИИ) была способна идентифицировать простые числа с точностью 97,6%, а в июне показатель упал до 2,4%. За тот же промежуток времени более ранняя модель нейросети улучшила свои способности.

При этом в ходе генерации идентичных строк кода возможности обеих версий ChatGPT существенно ухудшились через несколько месяцев.

В марте старая модель предоставляла более подробные объяснения, почему не может ответить на некоторые деликатные вопросы, например об этнической принадлежности людей. Однако в июне обе версии нейросети начали просто извиняться.

«Поведение одного и того же сервиса большой языковой модели может существенно измениться за относительно короткий промежуток времени», — говорится в исследовании.

Эксперты рекомендовали пользователям и компаниям, которые полагаются на услуги нейросетей в рабочих процессах, внедрить форму анализа, чтобы гарантировать актуальность ботов.

В июле разработчики ChatGPT выпустили новый плагин для платной версии, который может анализировать данные, создавать код на Python, строить графики и решать математические задачи. Чат-бот смог научно опровергнуть теорию «плоской Земли».

Источник: cryptocurrency.tech

No votes yet.
Please wait...

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *