Meta може припинити розробку AI-систем, адже вважає їх ризиковими

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Нещодавно в своєму новому документі під назвою Frontier AI Framework Meta повідомила, що є сценарії, при яких вони можуть припинити розробку своїх AI-систем, адже ризики завеликі.

Якщо система підпадає під «високий ризик», Meta обмежить до неї доступ і не випустить її, доки не буде впроваджено заходи безпеки. У випадку «критичного ризику», компанія призупинить розробку та застосує додатковий захист, щоб запобігти витоку системи.

Джерело — Frontier AI Framework

Що думаєте про такий підхід від Meta?

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Здається, що єдина причина, по якій така контора як Meta, щось припинить розробляти- це неможливість витримати конкуренцію чи продукт нафіг нікому не потрібний булщіт. Я думаю, що в цьому випадку перше. Особливо на фоні загострення питання з китайськими моделями.

Схоже на шнягу дня маніпуляції акціями компанії. Не можуть нічого зробити, так хоч полякають

Підписатись на коментарі