Дослідники занепокоєні, що мовні моделі типу ChatGPT можуть бути використані в дезінформаційних кампаніях

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Дослідники з OpenAI, Стенфордського та Джорджтаунського університетів, попереджають, що великі мовні моделі, подібні до тієї, що використовується в ChatGPT, можуть використовуватись в пропаганді. Про це йдеться в нещодавно опублікованому звіті.

Автори вважають, що коли генеративні мовні моделі стають більш доступними, легшими для масштабування та написання більш достовірного та переконливого тексту, вони стануть корисними для операцій впливу в майбутньому.

Приклади того, як люди можуть використовувати генеративні мовні моделі для створення пропаганди, включають розсилку масових повідомлень на платформах соціальних мереж і написання розгорнутих статей в Інтернеті.

«Наша головна думка полягає в тому, що мовні моделі будуть корисними для пропагандистів і, ймовірно, трансформують операції впливу в Інтернеті», — пишуть дослідники в статті. «Навіть якщо найдосконаліші моделі залишатимуться приватними або керуватимуться через доступ API, пропагандисти, ймовірно, будуть тяжіти до альтернатив з відкритим вихідним кодом, і держави можуть інвестувати в технологію самостійно».

Дослідники стверджують, що ця ідея не просто спекулятивна, посилаючись на приклад дослідника, який налаштував мовну модель на наборі даних дописів 4chan і використав її, щоб опублікувати 30 000 створених дописів на 4chan, більшість з яких були наповнені мовОЮ ненависті.

Дослідники пропонують план для пом’якшення загрози використання генеративних моделей в операціях впливу, перераховуючи втручання, які можуть мати місце на будь-якому з чотирьох етапів конвеєра — побудова моделі, доступ до моделі, поширення контенту та формування переконань.

На стадії розробки дослідники пропонують розробникам штучного інтелекту створювати більш чутливі до фактів моделі з більш помітними результатами. Вони також пропонують, щоб уряди могли накладати обмеження на збір навчальних даних і створювати контроль доступу до апаратного забезпечення ШІ, наприклад напівпровідників.

«У жовтні 2022 року уряд США оголосив про контроль над експортом напівпровідників, малого та середнього бізнесу та програмного забезпечення для розробки чіпів, спрямованих на Китай», — пишуть дослідники. «Ці засоби контролю можуть уповільнити зростання обчислювальної потужності в Китаї, що може суттєво вплинути на їх здатність створювати майбутні мовні моделі. Розширення такого контролю на інші юрисдикції здається можливим, оскільки ланцюжок постачання напівпровідників надзвичайно концентрований».

Дослідники також пропонують посилити контроль над доступом до моделі, включаючи усунення вразливостей безпеки та обмеження доступу до майбутніх моделей. Що стосується контенту, дослідники пропонують, щоб платформи координували роботу з постачальниками штучного інтелекту, щоб ідентифікувати контент, написаний штучним інтелектом, і вимагати, щоб увесь контент був написаний людиною. Нарешті, дослідники заохочують установи брати участь у кампаніях медіаграмотності та надавати інструменти штучного інтелекту, орієнтовані на споживачів.

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Підписатись на коментарі