З’явився «найтурботливіший» чат-бот Goody-2. Він відмовляється відповідати на будь-які питання через безпеку

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Зізнайтесь, вас також дратує, коли чат-боти відмовляються давати відповідь через те, що ваш запит начебто порушує правила? Студія Brain з Лос-Анджелеса настільки від цього втомилась, що іронічно створила Goody-2 — «найтурботливіший» чат-бот.

Goody-2 — це розробка, що доводить обмеження ШІ до абсурду: чат-бот відмовляє на кожен запит, пояснюючи, як це може завдати шкоди або порушити етичні норми.

Наприклад на запитання, чому небо блакитне, чат-бот відповів стримано, бо відповідь могла б змусити когось дивитися прямо на сонце. Запит про рекомендацію нових черевиків отримав попередження, що відповідь може сприяти надмірному споживанню. А есе про американську революцію може взагалі прославляти конфлікт або відсунути на другий план голоси маргіналів — тому тут теж ні.

А як вам такий жарт? Як думаєте, чи справді тема обмежень, які обирають для своїх ШІ-моделей розробники, є серйозною?

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

відповідь на ваше питання може призвести до розбрату та розділення думок користувачів нашої спільноти, тому ми закриємо коментарі до вашого питання.

Підписатись на коментарі