Meta може припинити розробку AI-систем, адже вважає їх ризиковими
Нещодавно в своєму новому документі під назвою Frontier AI Framework Meta повідомила, що є сценарії, при яких вони можуть припинити розробку своїх AI-систем, адже ризики завеликі.
Якщо система підпадає під «високий ризик», Meta обмежить до неї доступ і не випустить її, доки не буде впроваджено заходи безпеки. У випадку «критичного ризику», компанія призупинить розробку та застосує додатковий захист, щоб запобігти витоку системи.
Джерело — Frontier AI Framework
Що думаєте про такий підхід від Meta?
2 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів