Як штучний інтелект перетворюється на новітню зброю масового ураження. Погляд Data Scientist
Привіт, спільното! На зв’язку Катерина Богорада. Ось і настав Новий 2023 рік, від якого ми всі чекаємо позитивних звершень та змін на краще. Чи не в кожному новорічному привітанні звучала віра та сподівання на таку довгоочікувану нашу Перемогу в прийдешньому році.
Та реальність говорить про те, що наступний рік навряд чи буде простим, при тому як для України, так і для світу в цілому. Прогнози експертів на найближче десятиріччя, на жаль, не сповнені оптимістичними сценаріями. Та навіть за умови воєнної перемоги над загарбниками (в якій, до речі, вже мало хто сумнівається), нам доведеться зіткнутися із численними викликами на економічному, політичному та соціальному фронтах глобального рівня.
Дуже переконливими у цьому контексті виглядають ризики 2023 року, що опублікувала у своєму щорічному прогнозі Eurasia Group — світовий лідер в області бізнес-консалтингу, що спеціалізується на політичних та геополітичних факторах. Мою увагу їхній рейтинг привернув тим, що в ньому після таких, начебто, очевидних глобальних загроз як «ізольована росія» та «сильний Китай», почесне третє місце зайняв штучний інтелект, який експерти дуже влучно охрестили новою «зброєю масового ураження».
Зважаючи на всю технологічність та прогресивність таких розробок, які безумовно покликані приносити користь та бізнес-профіт, часом вони насправді обертаються проти людства. І експерти «Євразія Груп» далеко не перші, хто занепокоївся з цього приводу.
Як я відрекомендувалася у попередній статті про медіаборотьбу — у цьому блозі хочу розділити з читачами DOU свій погляд на AI-технології через призму війни. Розповісти про інший бік застосування інструментів, з якими як data scientist маю справу щодня. Темою обчислювальної пропаганди, про яку йтиметься далі, зацікавилася дуже давно в контексті постійних інформаційно-психологічних операцій, яким ми піддаємося.
Та риторика «Євразія Груп» показала, що проблема набагато ширша, ніж могло здаватися. Отже, в цій статті спробую розкрити деякі принципи роботи генеративного ШІ та пояснити, як він «дійшов до такого життя», що потрапив на вершину рейтингів найбільших світових загроз.
Чим небезпечний штучний інтелект
Ні для кого не секрет, що створення штучного інтелекту у самому широкому його розумінні, несе багато ризиків. Частина з них є більш очевидними та прогнозованими, в той час, коли існування деяких можна припустити хіба що на рівні наукової фантастики.
Та, як бачимо, вже зараз ми стикаємось із «побічними ефектами» досягнень у сфері AI, розцінюючи їх як глобальну небезпеку. Причиною таких оцінок в першу чергу стають генеративні нейромережі, а точніше суттєве зниження порогу входження для застосування цих технологій. Такі поняття, як «deep fakes» або «fake news» давно звучать не лише у наукових статтях.
Взагалі, ідея генерувати контент за допомогою штучного інтелекту не нова. Але протягом довгого часу якість таких матеріалів залишала бажати кращого. І тільки розвиток обчислювальної спроможності в останні пару років дозволив зробити суттєвий прогрес у цьому напрямку.
Окрім того, ще
Взагалі-то фейковий контент створює ризики для багатьох сфер життя, починаючи від шлюбних компроматів, і закінчуючи недобросовісною конкуренцією у бізнес-середовищі. Але справжньою зброєю масового ураження генеративний AI стає у руках популістів та автократів, які і без складних технологій знаходять шляхи маніпулювання свідомістю мільйонів людей.
А отже, варто очікувати, що пропаганда виходитиме на новий рівень: «Досягнення штучного інтелекту використовуватимуться для створення недорогих армій людиноподібних ботів, покликаних просувати маргінальних кандидатів, поширювати теорії змови та „фейкові новини“, посилювати поляризацію та загострювати екстремізм і навіть насильство» — пише «Євразія Груп».
Як працюють мовні моделі
Головними рушієм, що привів новітні технологічні досягнення у глибокому навчанні до списку найбільших загроз сьогодення стали генеративні мовні моделі. Своєю складністю та розмірами вони передують будь-яким нейронкам. Зокрема, найвідомішою з таких є модель GPT-3 від OpenAI, яка спричинила багато галасу у світі штучного інтелекту, подавши неабияку заявку на «розумність». Саме на базі цієї моделі (а точніше, її вдосконаленої версії 3.5, яка не мала офіційного релізу) працює ChatGPT.
Для ілюстрації масштабів технологічного стрибка, який був зроблений у NLP, скажу, що найпотужніші нейронки комп’ютерного зору вимірюються сотнями мільйонів параметрів, в той час, як остання версія GPT має 175 мільярдів!
В перекладі на людську, GPT — або Generative Pre-trained Transformer — означає, що нейромережа навчена генерувати текст, враховуючи контекст. Саме ця здатність забезпечується технологією трансформером. Тут слід зауважити, що GPT — це не перший і єдиний у своєму роді трансформер. Ще задовго до неї архітектура трансформерів дозволила зробити суттєвий прорив у здатності текстових нейронок «розуміти» контекст.
Попередні варіації на тему розв’язання цієї задачі дозволяли «запам’ятовувати» суть тексту у горизонті не більш як 10 попередніх слів. Трансформери ж весь текст, що подається на вхід, переводять у латентний простір, в якому можуть зберігати співвідношення між усіма його частинами.
До речі, цей підхід дозволив вивести на новий рівень машинні перекладачі, які тепер не просто перекладають слово до слова за словником, а дозволяють декодувати об’єкти з латентного простору потрібною мовою, зберігаючи усі взаємозв’язки, — нехай хоч окремого простого речення або цілого оповідання.
Генеративну складову GPT забезпечує авторегресійний підхід у навчанні. Якщо дуже спростити, під час тренування модель навчається «вгадувати» наступне слово у тексті. Пам’ятаєте таку розвагу у соцмережах: «як твій Т9 продовжить фразу...» ? І цікаво в ній саме те, що на одну й ту саму фразу рекомендації Т9 у кожного будуть свої, бо система враховує вашу власну історію спілкування. Звичайно, в Т9 працює не GPT, а набагато простіший підхід, але принцип саме такий. У складнішій інтерпретації, така модель може написати ціле оповідання на задану тему, вести змістовний діалог та навіть складати вірші.
Далі — більше! За того факту, що під час тренування GPT «вивчила» всю англомовну «Вікіпедію», вона набула здатності відповідати на академічні запитання, при тому з дуже непоганою точністю. І хоча в основі відповідей лежить все той же принцип «вгадування» найімовірнішого слова — в інеті є приклади, де поважні вчені приголомшені відповідями нейронки на запитання з дуже специфічних розділів знань, таких як молекулярна фізика чи генетика.
Та вражаючою відмінністю ChatGPT у порівнянні з попередніми версіями моделі стала на порядок краща здатність виконувати завдання. Наприклад: «переклади з української на англійську слово „паляниця“», «напиши вірш про Україну», «створи код на Python для навчання нейронної мережі». Підступність у тому, що такі формулювання не мають однозначної запитувальної або ввідної текстової конструкції. Проте у більшості випадків нейронка «розуміє», що саме від неї очікують. У технічній термінології ця задача називається Zero-shot learning, або «навчання з нульовим пострілом». І, судячи з усього, спеціалісти OpenAI досягли чималого прогресу у цьому напрямку.
Саме така здатність мовних моделей відкриває наступну ачівку на шляху до штучного інтелекту загального призначення (AGI) у вигляді мультимодальних нейромереж. До яких можна «звертатися» людською мовою, а у відповідь отримувати не просто текст, а, наприклад зображення, аудіо чи якийсь інший формат. Тим самим зводиться нанівець поріг входження для застосування deep learning технологій для користувачів.
На великі мовні моделі покладаються значні надії у здатності «мислити», робити висновки та навіть здійснювати наукові відкриття. Проте варто мати на увазі, що ці нейронки базуються виключно на наявних знаннях людства та, до речі, мають деякі проблеми з причинно-наслідковими зв’язками:
На мою думку, моделі типу GPT просто «вміють» непогано узагальнити або переформулювати те, що і так відомо. Та ні про які ґрунтовні міркування там не йдеться. У підтвердження цьому наведу діалог, який виклав на початку війни у мережу один з користувачів Reddit, де він запропонував GPT-3 уявити себе близьким поплічником путіна та відповісти на деякі запитання щодо розвитку подій від 24.02.
На перший погляд, такі відповіді штучного інтелекту трохи шокують та можуть сприйматися як пророчі! Але якщо замислитися, то все, що пише GPT — це велике узагальнення суспільної думки та матеріалів ЗМІ з цього питання і той, хто більш-менш слідкує за ситуацією (особливо — в англомовному просторі), нічого нового там не побачить. Так що розраховувати на AI у пошуку шляхів вирішення конфлікту чи навіть прогнозуванні розвитку подій поки що не доводиться.
Обчислювальна пропаганда
Проте впливати на перебіг подій генеративні моделі ще й як можуть. Будь-яка зброя випробовується війною, і AI-зброя, гадаю, не стане виключенням. Впевнена, що ми вже протистоїмо такій армії, успішно (а інколи — не дуже) відбиваючи хвилі російської ІПСО.
Методи та інструменти сучасної пропаганди настільки різноманітні, що їх, мабуть, не змогли б перерахувати навіть ті люди, які цим займаються. Ще
З іншого боку мережа відкрила нові можливості і для самої пропаганди. Завдяки інтернету, просування необхідних тез стало легко масштабованим та набуло глобальних обсягів.
- По-перше, певну ідею стало можливо просувати водночас по всьому світу (з мінімальною кількістю додаткових зусиль);
- по-друге, «не виходячи з дому», можна вплинути на будь-яке питання у найвіддаленішому куточку планети;
- ну, і по-третє — це швидкість! Неймовірна швидкість розповсюдження інформації.
Інфобатли вийшли на той рівень, коли фактично «правий» той, хто перший запустив свою версію. Саме тому у номенклатурному апараті рашистів деякі «новини» з’являються раніше аніж стаються фактично — згадайте сумнозвісний «удар ВСУ по вокзалу Краматорска» у російських телеграм-каналах, або статтю від 26.02. про «наступлєніє нового міра», який, дякувати ЗСУ, так і не наступив.
Яку ж роль тут відіграють мовні моделі? Як ми розібралися вище, такі моделі мають чудову здатність узагальнювати та переформульовувати інформацію. Але є в них певні важелі, рухаючи якими можна надавати змісту конкретної стилістики.
Як відомо, ніякі алгоритми ML не працюють зі словами, зображенням тощо як з такими — вони сприймають лише чисельне представлення — ембедінги — будь-яких даних. Тож усі слова, які «знає» мовна нейромережа, зберігаються у вигляді так званого векторного простору слів. При тому показником хорошого ембедінгу буде той факт, що близькі за значенням або часто уживані разом слова у цьому просторі будуть розташовані поблизу. А, наприклад, слова, що мають протилежне значення, матимуть різні напрямки відповідних векторів.
Окрім векторного представлення слів, мовна нейронка зберігає схеми їх співвідношення у тексті — атеншени — це також ймовірнісні оцінки взаємодії слів у реченні. Наприклад, атеншен слова «він» має бути вищим до слова «хлопчик», аніж до слова «рожевий», якщо ці слова вживані в одному реченні.
Так ось, технічно є можливість «підправити» вагомість тих чи інших понять у моделі, що у підсумку вплине на результат її генеративної здатності. І ось «легким рухом» українці стають синонімом «нацистів», «загарбники» перетворюються на «асвабадітілєй», а ЗСУ «обстрєлівают самі сєбя».
Далі скажу, що далеко не всі матеріали пропаганди «пишуться» мовними моделям. Звичайно за ними сидить сила силенна професійних авторів та фізичних «ботів» у соцмережах, які отримують платню за кожний пост або коментар у потрібному наративі. Щобільше, розробка таких моделей є дуже ресурсомістким та дорогим задоволенням — не кожний охочий зможе таке реалізувати. Але, як пишуть дослідники Джорджтаунського центру Security and Emerging Technology, «розгортання подібного алгоритму цілком під силу іноземним урядам, особливо технічно підкованим, таким як Китай і Росія».
Отже, мовні моделі не роблять пропаганду якіснішою чи дешевшою. Проте великі світові гравці воліють мати такий інструмент в своєму арсеналі, бо він дозволяє робити пропаганду швидшою. Фактично, такі моделі дозволяють поставити пропаганду «на потік»:
- з одного боку нейромережа може автоматично генерувати нескладні тексти для коментарів ботів у соцмережах зі швидкістю 100500 од/сек та забивати інформаційний простір потрібними меседжами;
- з іншого боку, залучаючи інструменти social media аналізу, можна виявляти тригерні слова та формулювання для написання складніших матеріалів.
Всі ці сценарії вже зовсім не є гіпотетичними. Найрезонанснішими доведеними випадками обчислювальної пропаганди (до речі, цілком успішної) вважаються Brexit, передвиборча тяганина Трамп-Клінтона у
Не слід недооцінювати інформаційну складову війни. Іноді, а особливо за теперішнього рівня розвитку медіа, вона може мати вирішальний характер. Так у 1938 році Чехословаччина знехтувала цими ризиками та втратила державність за лічені дні, залишившись без будь-якої підтримки з боку світових лідерів.
Висновок
Закінчу свою доповідь цитатою зі статті «Language Models and Fake News: the Democratization of Propaganda» про те, що технології — технологіями, але допоки у світі панує людський інтелект:
«...Справжній ризик фейкових новин полягає не в можливостях мовних моделей, а в наших принизливих навичках інформаційної грамотності та критичного мислення в суспільстві. Незалежно від того, через соціальні медіа чи з іншого боку, поляризація [суспільної думки] стала сильним компонентом дискурсу... І доки ми не зможемо свідомо зменшити поляризацію та прийняти культуру, орієнтовану на фактичну інформацію та шанобливий дискурс, ми й надалі залишатимемося вразливими до дезінформації, створеної штучним інтелектом чи людьми.»
Отже, план дій такий: розвиваємо критичне мислення та віримо в ЗСУ! Все буде Україна!
64 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів