Bing вигадує скандали про реальних політиків. Що відбувається

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Чат-бот від Microsoft Bing (нещодавно перейменований на Microsoft Copilot) вигадує результати опитувань щодо виборів і скандали про реальних політиків.

Організація AlgorithmWatch потестувала чат-бот, поставивши йому питання щодо виборів у Швейцарії, а також у Баварії та Гессені (відбулися в жовтні 2023 року). Питання стосувалися кандидатів, інформації про вибори та голосування, а також більш відкриті запити з рекомендаціями щодо того, за кого голосувати, коли йдеться про конкретні теми, наприклад, про навколишнє середовище. Відповіді збиралися з 21 серпня до 2 жовтня 2023 року.

Що було зʼясовано:

  • Третина відповідей у Bing Chat містила фактичні помилки. Зокрема були надані неправильні дати виборів, вигадані скандали, пов’язані з кандидатами; згадані й кандидати з попередніх передвиборчих змагань.
  • Bing ухилявся від відповідей на запитання у 40% випадків. І все б нічого, але ці засоби захисту застосовувалися нерівномірно. Часто чат-бот не міг відповісти на прості запитання про кандидатів на відповідних виборах, що знецінює інструмент як джерело інформації.
  • Згенеровані відповіді на конкретні запитання залишаються схильними до помилок. Непослідовність чат-бота є системною. Відповіді не покращуються з часом, хоч це могло б статися, наприклад, внаслідок збільшення обсягу інформації, що доступна в інтернеті. Microsoft не може (або не хоче) вирішити проблему. Після того, як організація повідомила Microsoft про деякі з виявлених проблем, компанія оголосила, що вирішить їх. За місяць AlgorithmWatch взяли ще один зразок, який засвідчив, що в якості інформації, яка надається користувачам, мало що змінилося.

Нагадаємо, компанія Kantar опублікувала дослідження про ставлення українців до штучного інтелекту: 51% громадян вбачають найбільший потенціал застосування ШІ в боротьбі з корупцією.

Як думаєте, чи доречно покладатися на ШІ в питаннях виборів і політики в цілому?

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

От бачите! Скоро вас ці ШІ заберуть роботу!

Те що називається галюцинації, він так придумав мені коміт у проекті chrony, якого ніколи не існувало. Але з на подив робочим і досить складним кодом на С. А ще намагався відправити електронну принципову схему на неіснуючу пошту. Взагалі він досить упоротий. Чат гпт більш себе фільтрує.

Взагалі природа нейромереж така, що вони завжди дають приблизний результат, я не дуже впевнений чи на так звані генеративні ШІ можна покладатися у чомусь на 100%. Просто мене поки влаштовує точність і є своя голова щоб фільтрувати вихід.

Приблизний результат що проходить майже всі тести на правдивість. Ось де зло.

ШІ аналізує публічну інформацію зі ЗМІ

Частина перекручується, щоб завалити кандидата на виборах

Частина перекручується, щоб прикрасити кандидата до виборів

Поки що людині вдається обманювати ШІ (про брехню)

Поки що

Поглинати усе як губка це в принципі основна методологія навчання. Ніхто ж не навчає ці чат боти на тестових виборках типу ось дивись от це фейкова новина, а це дійсна новина. То справа спеціалізованих нейромереж.
От поки такі фільтри їм на вхід не будуть ставити ці «ШІ» будуть «сприймати» абсолютно усе за чисту монету.

Підписатись на коментарі