OpenAI видалила з політики використання заборону на використання ChatGPT у військових цілях

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Цього тижня компанія OpenAI непомітно видалила зі своєї політики використання ChatGPT формулювання, що прямо забороняють використання її технології у військових цілях. Про це повідомляє The Intercept.

До 10 січня сторінка «Політика використання» OpenAI містила заборону на «діяльність, яка має високий ризик фізичної шкоди, включаючи, зокрема, «розробку зброї» і «військові дії». У новій політиці зберігається заборона «використовувати наші послуги для заподіяння шкоди собі або іншим» і наводиться приклад «розробки або використання зброї», але зникла повна заборона на використання «у військових цілях і для ведення воєнних дій».

Неанонсована редакція є частиною великого редагування політики використання, яке, за словами компанії, має на меті зробити документ «зрозумілішим» і «більш читабельним». Також ця редакція містить багато інших суттєвих змін у термінології та форматі.

«Ми прагнули створити набір універсальних принципів, які легко запам’ятати й застосовувати, тим більше, що наші інструменти тепер використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT», — сказав представник OpenAI Ніко Фелікс в електронному листі до The Intercept. «Такий принцип, як „Не нашкодь іншим“, є широким, але легко зрозумілим і актуальним у багатьох контекстах. Крім того, ми спеціально навели зброю і поранення інших людей як наочні приклади».

Фелікс відмовився сказати, чи поширюється розпливчаста заборона «шкоди» на військове використання, написавши: «Будь-яке використання нашої технології, в тому числі військовими, для „[розробки] або [використання] зброї, [заподіяння] шкоди іншим або [знищення] майна, або [участі] в несанкціонованій діяльності, яка порушує безпеку будь-якої служби або системи“, заборонено».

Експерти з кібербезпеки коментують, що нова політика, схоже, робить акцент на законності, а не на безпеці. Хоча ChatGPT не може маневрувати дроном або запускати ракету, існує безліч завдань, пов’язаних із війною, які можуть бути виконані за допомогою ChatGPT. Наприклад, написання коду або обробка замовлень на закупівлю.

Також огляд спеціальних ботів на базі ChatGPT свідчить про те, що американські військові вже використовують цю технологію для прискорення документообігу.

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Понабилось мне подобрать цвет для нод на графе для рашки и хуйла, одним этим комментом чатжпт отработал месячный фи:

The concept of a “most disgusting color” can be subjective and vary from person to person. However, there has been a particular color that was identified through research as being especially unappealing to many people. This color, often referred to as “Pantone 448 C,” is a dark brown hue, sometimes described as “olive green.”

To represent this color in web design or digital art, you can use its hexadecimal color code. The hex code for Pantone 448 C is approximately #4A412A. This code is a representation of the color in RGB color space used in digital displays and designs.

Keep in mind that individual perceptions of color can vary, and what may be unappealing to one person might not be to another. Pantone 448 C became notably known as an unappealing color in the context of packaging design, especially for products like tobacco, where it was used to minimize the attractiveness of the product.

Чогось дкмав що завжди була закрита версія скайнету для військових

Реклама для біднiх. Військові все вже давно використовують, ще раніше, ніж ця модель стала публічною

Типу я маю повірити вже не застосовують цю технологію роками. Він занадто «кастрований», що натякає що відповідні кейси вже кимось розглядалися і розглядалися довго. Гпт 3 навіть про різницю moa і mil не відповідав))) 4й відповідає.

Задумано звісно як рекламний хайп, черговий задля розкрутки продукту. Щодо відкриття скрині пандори, за якою SkyNet — то можете не переймайтесь. Уся тема штучного інтелекту як така з самого початку розроблялась саме для військових та поліцейських та спец службових потреб в першу чергу. Особливо image recognition. Над великими мовними моделями точно працювала АН СРСР в першу чергу для створення автоматичного перекладу між різними мовами, в тому числі коли супротивник буде використовувати скажімо мову ірокезів якою говорять північноамериканскі індіанці, що під час другої світової призвело до колапсу радіоперехоплення Японцями. Потім систем автоматично керованої зброї і т.д. Людина яка створила ChatGPT (науковий керівник) теж не просто так з Нижнього Новгорода. А що конкретно є зараз в Пентагону ми гадки не маємо, може нічого — а може і цілі загони термінаторів, авио-керовані дрони які діють самостійно без оператора і т.д. Код в тебе бюджет у 810 мільярдів доларів на рік, можна дуже багато чого собі дозволити (хоча і усе просрати в нікуди попилючи бюджет і не отримуючи жодного результату теж можна і легко в корпоративному світі таке бачів неодноразово).

Підписатись на коментарі