Anthropic відмовили Пентагону: коли етика важить більше за контракт
UPD: www.axios.com/...-supply-chain-risk-claude
res.cloudinary.com/.../l3o0c1×3rb9c6g3a41nv.png
Anthropic — компанія, що створює Claude, заявила, що не може добросовісно відмовитися від ключових обмежень у використанні своїх технологій, навіть під тиском Пентагону (Department of War)
Anthropic доводить, що:
- їхні моделі Claude вже використовується у критичних національних операціях — від розвідки до кібероперацій;
- компанія відмовилася від сотень мільйонів доларів контрактів з фірмами, пов’язаними з Китаєм, та зупинила кібератаки на свої сервіси;
- дві сфери застосувань є недопустимими без чітких обмежень:
— масове внутрішнє стеження (mass domestic surveillance);
— повністю автономні озброєння (без контролю людини).
Anthropic вважає, що ці випадки мають серйозні етичні ризики і поза межами того, що нинішні системи можуть робити безпечно.
Пентагон, у свою чергу, вимагає «будь-якого законного використання» без обмежень, погрожуючи:
- розірванням контракту;
- маркуванням Anthropic як ризик для ланцюга постачання;
- застосуванням Defense Production Act (військовий правовий механізм для примусу використання технологій).
Ця суперечка — не просто юридичний конфлікт між компанією та урядом США. В ній кристалізуються суттєві питання про:
- ліміти оборонного застосування ллмок;
- роль приватних технологічних фірм у національній безпеці;
- баланс між свободами та безпекою в епоху ШІ.
Рішення цього протистояння може стати прецедентом для всього ринку ллмок. Від себе хочу додати, що дуже сподіваюсь, що воно стане ним
33 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів