OpenAI випустила інструмент для розпізнавання тексту, згенерованого ChatGPT. Проте він теж помиляється
Тривають дискусії, передусім у сфері освіти, щодо застосування ChatGPT для недобросовісного навчання, списування чи іншого шахрайства. Тим часом OpenAI заявляє, що розуміє цю проблему, і випустила інструмент, який може розпізнавати текст, написаний штучним інтелектом.
Проте сама ж компанія і зазначає, що інструмент не є 100% надійним.
«У наших оцінках на „тестовому наборі“ англійських текстів наш класифікатор правильно ідентифікує 26% текстів, написаних ШІ (істинні позитивні результати), як „ймовірно написані ШІ“, в той час, як неправильно позначає текст, написаний людиною, як написаний ШІ в 9% випадків (помилкові позитивні результати)», — пише OpenAI у блозі.
«Наш класифікатор — це мовна модель, налаштована на наборі даних пар тексту, написаного людиною, і тексту, написаного штучним інтелектом, на одну тему. Ми зібрали цей набір даних із різних джерел, розділили кожен текст на підказку та відповідь. На ці підказки ми генерували відповіді з різних мовних моделей, навчених нами та іншими компаніями. Для нашої програми ми регулюємо поріг достовірності, щоб підтримувати низький рівень хибних спрацьовувань; іншими словами, ми позначаємо текст як імовірно написаний ШІ, лише якщо класифікатор дуже впевнений», — також пояснили в OpenAI.
Компанія закликає надати зворотний зв’язок через форму.
1 коментар
Додати коментар Підписатись на коментаріВідписатись від коментарів