OpenAI видалила з політики використання заборону на використання ChatGPT у військових цілях
Цього тижня компанія OpenAI непомітно видалила зі своєї політики використання ChatGPT формулювання, що прямо забороняють використання її технології у військових цілях. Про це повідомляє The Intercept.
До 10 січня сторінка «Політика використання» OpenAI містила заборону на «діяльність, яка має високий ризик фізичної шкоди, включаючи, зокрема, «розробку зброї» і «військові дії». У новій політиці зберігається заборона «використовувати наші послуги для заподіяння шкоди собі або іншим» і наводиться приклад «розробки або використання зброї», але зникла повна заборона на використання «у військових цілях і для ведення воєнних дій».
Неанонсована редакція є частиною великого редагування політики використання, яке, за словами компанії, має на меті зробити документ «зрозумілішим» і «більш читабельним». Також ця редакція містить багато інших суттєвих змін у термінології та форматі.
«Ми прагнули створити набір універсальних принципів, які легко запам’ятати й застосовувати, тим більше, що наші інструменти тепер використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT», — сказав представник OpenAI Ніко Фелікс в електронному листі до The Intercept. «Такий принцип, як „Не нашкодь іншим“, є широким, але легко зрозумілим і актуальним у багатьох контекстах. Крім того, ми спеціально навели зброю і поранення інших людей як наочні приклади».
Фелікс відмовився сказати, чи поширюється розпливчаста заборона «шкоди» на військове використання, написавши: «Будь-яке використання нашої технології, в тому числі військовими, для „[розробки] або [використання] зброї, [заподіяння] шкоди іншим або [знищення] майна, або [участі] в несанкціонованій діяльності, яка порушує безпеку будь-якої служби або системи“, заборонено».
Експерти з кібербезпеки коментують, що нова політика, схоже, робить акцент на законності, а не на безпеці. Хоча ChatGPT не може маневрувати дроном або запускати ракету, існує безліч завдань, пов’язаних із війною, які можуть бути виконані за допомогою ChatGPT. Наприклад, написання коду або обробка замовлень на закупівлю.
Також огляд спеціальних ботів на базі ChatGPT свідчить про те, що американські військові вже використовують цю технологію для прискорення документообігу.
5 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів