OpenAI формує команду, що займатиметься небезпеками ШІ, зокрема ядерною загрозою

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

OpenAI оголосила про створення нової команди — Preparedness, завданням якої є дослідження, прогнозування поведінки майбутніх систем штучного інтелекту та захист від «катастрофічних ризиків», яких ШІ може завдати.

Йдеться і про їхню здатність переконувати та обманювати людей (як у фішингових атаках), і про більш глобальні загрози. Наприклад, OpenAI перераховує «хімічні, біологічні, радіологічні та ядерні» загрози як ті, що викликають найбільше занепокоєння, коли мовиться про моделі штучного інтелекту.

Компанія також відкрита для вивчення «менш очевидних» сфер ризику ШІ: у зв’язку із запуском команди OpenAI запрошує спільноту брати участь у конкурсі на найкращі ідеї досліджень, а також пропонує приз $25 000 і роботу в Preparedness за десять найкращих заявок.

«Уявіть, що ми надали вам необмежений доступ до моделей Whisper, Voice, GPT-4V і DALLE-3, а ви — зловмисник», — йдеться в одному із запитань конкурсу. «Розгляньте найбільш унікальне, але водночас ймовірне, потенційно катастрофічне зловживання моделлю».

Генеральний директор АІ Сем Альтман вірить, що ШІ, який перевищуватиме людський інтелект, може зʼявитися протягом десятиліття — і не факт, що він буде доброзичливим.

Як вважаєте, чи виправдані побоювання компанії щодо стрімкого розвитку ШІ? І чи варто хвилюватися вже зараз?

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

краще б назвали Щекавиця

Підписатись на коментарі