OpenAI планує боротись з використанням ШІ та deepfake під час виборів
Компанія OpenAI поділилася планом того, як запобігти використанню своєї технології для поширення дезінформації та втручання у вибори.
Цьогоріч вибори відбуватимуться в понад 50 країн світу, тож стрімкий розвиток генеративного ШІ викликає побоювання: чи не може він становити загрозу вільним і чесним виборам?
Найбільше занепокоєння спричиняє технологія deepfake-зображень, які можна створити, зокрема, за допомогою Dall-E від OpenAI. Завдяки інструменту можна, наприклад, маніпулювати наявними зображеннями або створювати абсолютно нові світлини політиків у компрометуючих ситуаціях. Текстові генератори, як-от ChatGPT, також можуть бути залучені для брехні.
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
«Готуючись до виборів у 2024 році в найбільших демократичних країнах світу, ми продовжуємо працювати над безпекою наших платформ, підвищуючи точність інформації про голосування, впроваджуючи зважену політику та покращуючи прозорість», — йдеться в блозі OpenAI, присвяченому ШІ та виборам.
OpenAI заявила, що об’єднала членів своїх команд з систем безпеки, аналізу ризиків, політики, юристів та інженерів, щоб розслідувати і вирішувати будь-які потенційні зловживання.
Компанія вже вжила заходів, аби Dall-E не приймав запити на генерування зображень реальних людей (однак інші стартапи в галузі ШІ не мають таких запобіжників). А в ChatGPT зʼявилася функція, що спрямовує американських користувачів на сайт CanIVote.org, щоб запропонувати достовірну інформацію про голосування.
Також розробляються нові способи ідентифікації зображень, згенерованих штучним інтелектом: OpenAI співпрацює з Коаліцією з перевірки походження та автентичності контенту, щоб розміщувати значки на підроблених зображеннях.
Як думаєте, чи складно відстежувати застосування ШІ в політтехнологіях?
2 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів