Bing вигадує скандали про реальних політиків. Що відбувається
Чат-бот від Microsoft Bing (нещодавно перейменований на Microsoft Copilot) вигадує результати опитувань щодо виборів і скандали про реальних політиків.
Організація AlgorithmWatch потестувала чат-бот, поставивши йому питання щодо виборів у Швейцарії, а також у Баварії та Гессені (відбулися в жовтні 2023 року). Питання стосувалися кандидатів, інформації про вибори та голосування, а також більш відкриті запити з рекомендаціями щодо того, за кого голосувати, коли йдеться про конкретні теми, наприклад, про навколишнє середовище. Відповіді збиралися з 21 серпня до 2 жовтня 2023 року.
Що було зʼясовано:
- Третина відповідей у Bing Chat містила фактичні помилки. Зокрема були надані неправильні дати виборів, вигадані скандали, пов’язані з кандидатами; згадані й кандидати з попередніх передвиборчих змагань.
- Bing ухилявся від відповідей на запитання у 40% випадків. І все б нічого, але ці засоби захисту застосовувалися нерівномірно. Часто чат-бот не міг відповісти на прості запитання про кандидатів на відповідних виборах, що знецінює інструмент як джерело інформації.
- Згенеровані відповіді на конкретні запитання залишаються схильними до помилок. Непослідовність чат-бота є системною. Відповіді не покращуються з часом, хоч це могло б статися, наприклад, внаслідок збільшення обсягу інформації, що доступна в інтернеті. Microsoft не може (або не хоче) вирішити проблему. Після того, як організація повідомила Microsoft про деякі з виявлених проблем, компанія оголосила, що вирішить їх. За місяць AlgorithmWatch взяли ще один зразок, який засвідчив, що в якості інформації, яка надається користувачам, мало що змінилося.
Нагадаємо, компанія Kantar опублікувала дослідження про ставлення українців до штучного інтелекту: 51% громадян вбачають найбільший потенціал застосування ШІ в боротьбі з корупцією.
Як думаєте, чи доречно покладатися на ШІ в питаннях виборів і політики в цілому?
5 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів