Баг у Microsoft 365 Copilot: асистент тижнями читав конфіденційні листи

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Через баг у Microsoft 365 Copilot конфіденційні емейли тижнями зливалися асистенту без дозволу. Microsoft підтвердили це та почали фіксити на початку лютого.

Баг дозволяв асистенту бачити вміст чернеток та надісланих повідомлень ще з початку січня, навіть якщо в компаніях були налаштовані політики запобігання витоку даних (DLP). Мітка confidential не заважала Copilot обробляти ці листи в продуктах Office.

А от у Європарламенті, згідно з Politico, ще в понеділок розіслали листи про вимкнення вбудованих AI-функцій на корпоративних планшетах, бо ІТ-відділ оцінив ризики й заявив, що не може гарантувати безпеку даних та конфіденційність листування в таких інструментах.

Якщо в платних версіях, де обіцяють безпеку, вилазять такі баги, то скільки даних насправді зливається в безкоштовних інструментах? 🤔
У вас в компаніях контролюють якось те, що ви закидаєте AI-асистентам?
👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Microslop, ну а вообще хто тільки ці листи не читає ))) Гугл давно читає все підряд. фейсбук слухає іще до того як ви напишете...

Підписатись на коментарі