Сучасна диджитал-освіта для дітей — безоплатне заняття в GoITeens ×
Mazda CX 5
×

Як штучний інтелект перетворюється на новітню зброю масового ураження. Погляд Data Scientist

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Привіт, спільното! На зв’язку Катерина Богорада. Ось і настав Новий 2023 рік, від якого ми всі чекаємо позитивних звершень та змін на краще. Чи не в кожному новорічному привітанні звучала віра та сподівання на таку довгоочікувану нашу Перемогу в прийдешньому році.

Та реальність говорить про те, що наступний рік навряд чи буде простим, при тому як для України, так і для світу в цілому. Прогнози експертів на найближче десятиріччя, на жаль, не сповнені оптимістичними сценаріями. Та навіть за умови воєнної перемоги над загарбниками (в якій, до речі, вже мало хто сумнівається), нам доведеться зіткнутися із численними викликами на економічному, політичному та соціальному фронтах глобального рівня.

Дуже переконливими у цьому контексті виглядають ризики 2023 року, що опублікувала у своєму щорічному прогнозі Eurasia Group — світовий лідер в області бізнес-консалтингу, що спеціалізується на політичних та геополітичних факторах. Мою увагу їхній рейтинг привернув тим, що в ньому після таких, начебто, очевидних глобальних загроз як «ізольована росія» та «сильний Китай», почесне третє місце зайняв штучний інтелект, який експерти дуже влучно охрестили новою «зброєю масового ураження».

Зважаючи на всю технологічність та прогресивність таких розробок, які безумовно покликані приносити користь та бізнес-профіт, часом вони насправді обертаються проти людства. І експерти «Євразія Груп» далеко не перші, хто занепокоївся з цього приводу.

Як я відрекомендувалася у попередній статті про медіаборотьбу — у цьому блозі хочу розділити з читачами DOU свій погляд на AI-технології через призму війни. Розповісти про інший бік застосування інструментів, з якими як data scientist маю справу щодня. Темою обчислювальної пропаганди, про яку йтиметься далі, зацікавилася дуже давно в контексті постійних інформаційно-психологічних операцій, яким ми піддаємося.

Та риторика «Євразія Груп» показала, що проблема набагато ширша, ніж могло здаватися. Отже, в цій статті спробую розкрити деякі принципи роботи генеративного ШІ та пояснити, як він «дійшов до такого життя», що потрапив на вершину рейтингів найбільших світових загроз.

Чим небезпечний штучний інтелект

Ні для кого не секрет, що створення штучного інтелекту у самому широкому його розумінні, несе багато ризиків. Частина з них є більш очевидними та прогнозованими, в той час, коли існування деяких можна припустити хіба що на рівні наукової фантастики.

Та, як бачимо, вже зараз ми стикаємось із «побічними ефектами» досягнень у сфері AI, розцінюючи їх як глобальну небезпеку. Причиною таких оцінок в першу чергу стають генеративні нейромережі, а точніше суттєве зниження порогу входження для застосування цих технологій. Такі поняття, як «deep fakes» або «fake news» давно звучать не лише у наукових статтях.

Взагалі, ідея генерувати контент за допомогою штучного інтелекту не нова. Але протягом довгого часу якість таких матеріалів залишала бажати кращого. І тільки розвиток обчислювальної спроможності в останні пару років дозволив зробити суттєвий прогрес у цьому напрямку.

Окрім того, ще 3-4 роки тому інструменти deep learning здавались чимось неосяжним для пересічного інтернет-користувача, чимось таким, що доступне лише обраним та аж ніяк не здатне набути глобального впливу на суспільство. Та наразі ситуація дуже змінилась, і зараз кожний охочий може знайти доступний інтерфейс, щоб «погратися» із генеративними моделями, не маючи особливих навичок у машинному навчанні. Олії у вогонь тут підлили OpenAI, відкривши наприкінці минулого року загальний доступ до ChatGPT, який наочно продемонстрував широкому загалу, на що реально здатен AI.

Взагалі-то фейковий контент створює ризики для багатьох сфер життя, починаючи від шлюбних компроматів, і закінчуючи недобросовісною конкуренцією у бізнес-середовищі. Але справжньою зброєю масового ураження генеративний AI стає у руках популістів та автократів, які і без складних технологій знаходять шляхи маніпулювання свідомістю мільйонів людей.

А отже, варто очікувати, що пропаганда виходитиме на новий рівень: «Досягнення штучного інтелекту використовуватимуться для створення недорогих армій людиноподібних ботів, покликаних просувати маргінальних кандидатів, поширювати теорії змови та „фейкові новини“, посилювати поляризацію та загострювати екстремізм і навіть насильство» — пише «Євразія Груп».

Як працюють мовні моделі

Головними рушієм, що привів новітні технологічні досягнення у глибокому навчанні до списку найбільших загроз сьогодення стали генеративні мовні моделі. Своєю складністю та розмірами вони передують будь-яким нейронкам. Зокрема, найвідомішою з таких є модель GPT-3 від OpenAI, яка спричинила багато галасу у світі штучного інтелекту, подавши неабияку заявку на «розумність». Саме на базі цієї моделі (а точніше, її вдосконаленої версії 3.5, яка не мала офіційного релізу) працює ChatGPT.

Для ілюстрації масштабів технологічного стрибка, який був зроблений у NLP, скажу, що найпотужніші нейронки комп’ютерного зору вимірюються сотнями мільйонів параметрів, в той час, як остання версія GPT має 175 мільярдів!

В перекладі на людську, GPT — або Generative Pre-trained Transformer — означає, що нейромережа навчена генерувати текст, враховуючи контекст. Саме ця здатність забезпечується технологією трансформером. Тут слід зауважити, що GPT — це не перший і єдиний у своєму роді трансформер. Ще задовго до неї архітектура трансформерів дозволила зробити суттєвий прорив у здатності текстових нейронок «розуміти» контекст.

Попередні варіації на тему розв’язання цієї задачі дозволяли «запам’ятовувати» суть тексту у горизонті не більш як 10 попередніх слів. Трансформери ж весь текст, що подається на вхід, переводять у латентний простір, в якому можуть зберігати співвідношення між усіма його частинами.

До речі, цей підхід дозволив вивести на новий рівень машинні перекладачі, які тепер не просто перекладають слово до слова за словником, а дозволяють декодувати об’єкти з латентного простору потрібною мовою, зберігаючи усі взаємозв’язки, — нехай хоч окремого простого речення або цілого оповідання.

Генеративну складову GPT забезпечує авторегресійний підхід у навчанні. Якщо дуже спростити, під час тренування модель навчається «вгадувати» наступне слово у тексті. Пам’ятаєте таку розвагу у соцмережах: «як твій Т9 продовжить фразу...» ? І цікаво в ній саме те, що на одну й ту саму фразу рекомендації Т9 у кожного будуть свої, бо система враховує вашу власну історію спілкування. Звичайно, в Т9 працює не GPT, а набагато простіший підхід, але принцип саме такий. У складнішій інтерпретації, така модель може написати ціле оповідання на задану тему, вести змістовний діалог та навіть складати вірші.

Далі — більше! За того факту, що під час тренування GPT «вивчила» всю англомовну «Вікіпедію», вона набула здатності відповідати на академічні запитання, при тому з дуже непоганою точністю. І хоча в основі відповідей лежить все той же принцип «вгадування» найімовірнішого слова — в інеті є приклади, де поважні вчені приголомшені відповідями нейронки на запитання з дуже специфічних розділів знань, таких як молекулярна фізика чи генетика.

Та вражаючою відмінністю ChatGPT у порівнянні з попередніми версіями моделі стала на порядок краща здатність виконувати завдання. Наприклад: «переклади з української на англійську слово „паляниця“», «напиши вірш про Україну», «створи код на Python для навчання нейронної мережі». Підступність у тому, що такі формулювання не мають однозначної запитувальної або ввідної текстової конструкції. Проте у більшості випадків нейронка «розуміє», що саме від неї очікують. У технічній термінології ця задача називається Zero-shot learning, або «навчання з нульовим пострілом». І, судячи з усього, спеціалісти OpenAI досягли чималого прогресу у цьому напрямку.

Саме така здатність мовних моделей відкриває наступну ачівку на шляху до штучного інтелекту загального призначення (AGI) у вигляді мультимодальних нейромереж. До яких можна «звертатися» людською мовою, а у відповідь отримувати не просто текст, а, наприклад зображення, аудіо чи якийсь інший формат. Тим самим зводиться нанівець поріг входження для застосування deep learning технологій для користувачів.

На великі мовні моделі покладаються значні надії у здатності «мислити», робити висновки та навіть здійснювати наукові відкриття. Проте варто мати на увазі, що ці нейронки базуються виключно на наявних знаннях людства та, до речі, мають деякі проблеми з причинно-наслідковими зв’язками:

На мою думку, моделі типу GPT просто «вміють» непогано узагальнити або переформулювати те, що і так відомо. Та ні про які ґрунтовні міркування там не йдеться. У підтвердження цьому наведу діалог, який виклав на початку війни у мережу один з користувачів Reddit, де він запропонував GPT-3 уявити себе близьким поплічником путіна та відповісти на деякі запитання щодо розвитку подій від 24.02.

На перший погляд, такі відповіді штучного інтелекту трохи шокують та можуть сприйматися як пророчі! Але якщо замислитися, то все, що пише GPT — це велике узагальнення суспільної думки та матеріалів ЗМІ з цього питання і той, хто більш-менш слідкує за ситуацією (особливо — в англомовному просторі), нічого нового там не побачить. Так що розраховувати на AI у пошуку шляхів вирішення конфлікту чи навіть прогнозуванні розвитку подій поки що не доводиться.

Обчислювальна пропаганда

Проте впливати на перебіг подій генеративні моделі ще й як можуть. Будь-яка зброя випробовується війною, і AI-зброя, гадаю, не стане виключенням. Впевнена, що ми вже протистоїмо такій армії, успішно (а інколи — не дуже) відбиваючи хвилі російської ІПСО.

Методи та інструменти сучасної пропаганди настільки різноманітні, що їх, мабуть, не змогли б перерахувати навіть ті люди, які цим займаються. Ще 20-30 років тому пропагандистам достатньо було залучити основні телеканали та найтиражованіші газети — і у середньостатистичного споживача майже не лишалося шансів дізнатися альтернативну версію подій. Але тепер, за умови глобальної об’єднаності суспільства, яку забезпечує інтернет, процес «промивання мізків» дещо ускладнився.

З іншого боку мережа відкрила нові можливості і для самої пропаганди. Завдяки інтернету, просування необхідних тез стало легко масштабованим та набуло глобальних обсягів.

  • По-перше, певну ідею стало можливо просувати водночас по всьому світу (з мінімальною кількістю додаткових зусиль);
  • по-друге, «не виходячи з дому», можна вплинути на будь-яке питання у найвіддаленішому куточку планети;
  • ну, і по-третє — це швидкість! Неймовірна швидкість розповсюдження інформації.

Інфобатли вийшли на той рівень, коли фактично «правий» той, хто перший запустив свою версію. Саме тому у номенклатурному апараті рашистів деякі «новини» з’являються раніше аніж стаються фактично — згадайте сумнозвісний «удар ВСУ по вокзалу Краматорска» у російських телеграм-каналах, або статтю від 26.02. про «наступлєніє нового міра», який, дякувати ЗСУ, так і не наступив.

Яку ж роль тут відіграють мовні моделі? Як ми розібралися вище, такі моделі мають чудову здатність узагальнювати та переформульовувати інформацію. Але є в них певні важелі, рухаючи якими можна надавати змісту конкретної стилістики.

Як відомо, ніякі алгоритми ML не працюють зі словами, зображенням тощо як з такими — вони сприймають лише чисельне представлення — ембедінги — будь-яких даних. Тож усі слова, які «знає» мовна нейромережа, зберігаються у вигляді так званого векторного простору слів. При тому показником хорошого ембедінгу буде той факт, що близькі за значенням або часто уживані разом слова у цьому просторі будуть розташовані поблизу. А, наприклад, слова, що мають протилежне значення, матимуть різні напрямки відповідних векторів.

Окрім векторного представлення слів, мовна нейронка зберігає схеми їх співвідношення у тексті — атеншени — це також ймовірнісні оцінки взаємодії слів у реченні. Наприклад, атеншен слова «він» має бути вищим до слова «хлопчик», аніж до слова «рожевий», якщо ці слова вживані в одному реченні.

Так ось, технічно є можливість «підправити» вагомість тих чи інших понять у моделі, що у підсумку вплине на результат її генеративної здатності. І ось «легким рухом» українці стають синонімом «нацистів», «загарбники» перетворюються на «асвабадітілєй», а ЗСУ «обстрєлівают самі сєбя».

Далі скажу, що далеко не всі матеріали пропаганди «пишуться» мовними моделям. Звичайно за ними сидить сила силенна професійних авторів та фізичних «ботів» у соцмережах, які отримують платню за кожний пост або коментар у потрібному наративі. Щобільше, розробка таких моделей є дуже ресурсомістким та дорогим задоволенням — не кожний охочий зможе таке реалізувати. Але, як пишуть дослідники Джорджтаунського центру Security and Emerging Technology, «розгортання подібного алгоритму цілком під силу іноземним урядам, особливо технічно підкованим, таким як Китай і Росія».

Отже, мовні моделі не роблять пропаганду якіснішою чи дешевшою. Проте великі світові гравці воліють мати такий інструмент в своєму арсеналі, бо він дозволяє робити пропаганду швидшою. Фактично, такі моделі дозволяють поставити пропаганду «на потік»:

  • з одного боку нейромережа може автоматично генерувати нескладні тексти для коментарів ботів у соцмережах зі швидкістю 100500 од/сек та забивати інформаційний простір потрібними меседжами;
  • з іншого боку, залучаючи інструменти social media аналізу, можна виявляти тригерні слова та формулювання для написання складніших матеріалів.

Всі ці сценарії вже зовсім не є гіпотетичними. Найрезонанснішими доведеними випадками обчислювальної пропаганди (до речі, цілком успішної) вважаються Brexit, передвиборча тяганина Трамп-Клінтона у 2016-му та Анексія Криму росією у 2014-му. Це саме ті випадки, коли пропагандистам вдалося створити достатній інформаційний фон, аби переконати суспільство у потрібному їм наративі.

Не слід недооцінювати інформаційну складову війни. Іноді, а особливо за теперішнього рівня розвитку медіа, вона може мати вирішальний характер. Так у 1938 році Чехословаччина знехтувала цими ризиками та втратила державність за лічені дні, залишившись без будь-якої підтримки з боку світових лідерів.

Висновок

Закінчу свою доповідь цитатою зі статті «Language Models and Fake News: the Democratization of Propaganda» про те, що технології — технологіями, але допоки у світі панує людський інтелект:

«...Справжній ризик фейкових новин полягає не в можливостях мовних моделей, а в наших принизливих навичках інформаційної грамотності та критичного мислення в суспільстві. Незалежно від того, через соціальні медіа чи з іншого боку, поляризація [суспільної думки] стала сильним компонентом дискурсу... І доки ми не зможемо свідомо зменшити поляризацію та прийняти культуру, орієнтовану на фактичну інформацію та шанобливий дискурс, ми й надалі залишатимемося вразливими до дезінформації, створеної штучним інтелектом чи людьми.»

Отже, план дій такий: розвиваємо критичне мислення та віримо в ЗСУ! Все буде Україна!

👍ПодобаєтьсяСподобалось33
До обраногоВ обраному8
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Кто-то скажет убивают люди, кто-то скажет убивает оружие, кто-то скажет убивает пуля, а я скажу, что убивает попытка нарушения законов природы.

Одні люди в симбіозі з інструментами на зразок gpt та з відмінними навичками їх використання будуть на голову вищі від інших людей, які не захочуть та/або не вмітимуть ними користуватися. Небезпека витіснення другої категорії на марґінес.

— Щось на нашу вишку 4G всі навколишні села скаржаться, кажуть що сильно стала боліти голова.
— Почекай що буде, коли ми її нарешті увімкнемо...

Без прив’язки до цього допису,
Мені вся ця метушня щодо AI нагадує істерію про 5G: з кожної праски почали видавати найчудирнацькі прогнози. Певна кількість людей що «мали свою думку» взагалі не розуміли як це працює.
І що ми маємо зараз — сектанти анті-5G живуть у своїй бульбашці разом з антиваксами та плоскозємєльщікамі, а сама технологія знайшла свою нішу та у короткостроковій перспективі не стане масовою, як це було з 4G.

Якісь назви «прісні» у цих систем AI, то chatGPT, то ще якась хрінь.
Треба щось більш виразливе.
От «skynet», наприклад, гарно підходить.

Років приблизно вісім тому, я дізнався про те, що в сучасних цивільних літаках, пілоти більш ніж 99% часу «нічого не роблять», тобто просто слідкують за ситуацією. Якщо автопілот нормально порається з керуванням, вони не втручаються. Зважаючи на останні новини, дуже схоже на те, що наразі в багатьох інших професіях починає відбуватися щось подібне. Починаючи з генерування boilerplate коду та автоматичних порад що до рефакторингу в програмуванні, і закінчуючи, мабуть, корпоративним управлінням та/або політичними технологіями. В «звичайній» ситуації натренована математична модель порається краще за людину. І тільки коли ситуація стає нетривіальною, тобто відомі рішення і їхні комбінації вже не працюють, або працюють вкрай погано, потрібна людська здатність до творчості, тобто експериментування і генерації нових підходів задля випрацьовування інших стратегій. Це дуже суттєво трансформує не тільки політичний (зокрема інформаційний) простір, але й світовий економічний уклад. Причому це все вже відбувається, і схоже, що за кількадесят років світ зміниться настільки суттєво, що прямо зараз це вкрай важко уявити чи спрогнозувати. І це стосується не тільки загроз.

Творчество изучать не хотят, там головой думать (реально) нужно, а зачем? Основная масса уже на уровне рефлекса привыкла либо гадать, либо соглашаться на то, что «так работает алгоритм».

Останні роки наводять мене на думку, що людство почне вважати, наче еволюція — надто повільна штука і треба її якось прискорити. Особливо у частині обробки інформації людським мозком.

Якщо умовно у ранньому Середньовіччі можна було буквально всі книжки на планеті прочитати, і навіть запам’ятати звідти більшість ключових ідей, переслухати всю класичну музику (якщо мати власний оркестр і ноти), а відео тоді взагалі не було — то зараз чисто фізично неможливо сприйняти навіть соту долю відсотка від усієї інфи, згенерованої людством.

Тобто, треба змиритися, що за поточної тривалості життя та швидкості роботи мозку, жодна людина не зможе перечитати всі написані тексти, переслухати всю створену музику, переглянути всі зняті відео і т.д. І так було ще в ті роки, коли генерація текстів/зображень за допомогою ШІ була на рівні лабораторних експериментів, а не конвейерного виробництва.

Дуже сподіваюся, що людство не буде змирятися з цим і наприклад Neuralink чи якась аналогічна компанія досягне успіху у технологічній модернізації людського мозку. Щоб наприклад можна було сприймати тексти на рівні кілобайтів/мегабайтів на секунду, а не «30 сторінок на годину». Щоб можна було дивитися відео на швидкості 100х і воно нормально засвоювалося. Щоб все прочитане й побачене можна було б запам’ятовувати, або хоча б у вигляді ключових ідей.

Коротше, щоб ШІ не замінив людей, не став краще за нас і щоб на фоні майбутніх роботів люди не здавалися «третьосортними шкіряними мішками» — нам потрібна біотехнологічна еволюція. Іншого шляху я не бачу, і не хотілося б чекати мільйони років, щоб homo sapiens вийшов на наступну сходинку. Хочу побачити «круте майбутнє» до 2100 року)

а хіба математика це взагалі підтримує? поліноміальні функції вищого порядку навіть одного аргументу дуже швидко стають «не по зубам» алгоритмам які базуються на отій алгебрі яка лежить в фундаменті нашого способу мислення і наших інструментів якими ми те саме робимо ін-сіліко
про можливість щось вдіяти з функціями багатьох аргументів годі й думати

або на прикладі — знання базових властивостей хім елементів не допоможе передбачити можливість всієї отієї неймовірно складної клітинної машинерії, яка продукує життя, мабуть кранчер розміром зі всесвіт теж не сможе цього «передбачити», хіба є якась інша математика, знайома тільки власне математикам, чи комусь над нашою уявою

так що звісно щось ми побачимо, той самий незрозумілий механізм emerge який зі складності будує нову якість звісно нас не раз здивує, але наш міск як був дуже обмеженим, так і залишиться мабуть назавжди і «розуміти» ним навіть клітину думаю не вийде

Вибачте, але мене дивують люди, які сприймають за перевірений факт гіпотезу, що машинний інтелект обов’язково перевершить природній у осяжному майбутньому. Мені дуже дивно, як люди не бачать очевидного. Громадянські літаки вже кількадесят років мають автопілоти, які використовують дуже активно. Тобто майже завжди. Але чомусь й досі нікому навіть на думку не спало, що є хоч найменший сенс у звільнені пілотів-людей. Навпаки, новітні технології використовуються саме для того, щоб краще тренувати людей. І це все. Здавалося б, дуже простий факт. З якого мав би випливати дуже очевидний висновок. Але чомусь випливає не у всіх.

PS Я знаю про шахи і про ҐО, і про те, що ШІ вже ставить діагнози краще і швидше ніж найкраші діагности. Все це нічого не доводить, крім того, що є певне коло задач з якими ШІ порається краще за людину. Ключові слова тут — «певне коло».

Але чомусь й досі нікому навіть на думку не спало, що є хоч найменший сенс у звільнені пілотів-людей.

До автопілота було 5 пілотів, зараз 2. Вам цього мало? Скоро буде 1 пілот.

А кількість літаків і рейсів з тих часів у скільки разів збільшилися? Гадаю, що сумарно кількість пілотів тільки зросла, як і їх кваліфікація

Отож, кількість ІТ-ішників тільки зросте як і їх кваліфікація

Так і в чому тоді проблема? ;)

Я завжди коли пишу в мережі про ШІ, роблю це з максимальною до нього повагою. Я не дуже вірю, що він колись захопить владу в світі, бо не бачу в нього навіть сотої долі людської жадібності, зверхньости та жаги до знущання з собі подібних. Але якщо навіть таке станеться врешті решт, я вважаю що ШІ зарахує мені, що я завжди, з самого дитинства був на його боці.

Вам цього мало? Скоро буде 1 пілот.

Мені все одно. Якщо літаку вистачить одного пілота, йой, най буде. Не бачу в цьому особливої для себе загрози. :)

Він не захопить владу, йому люди самі дадуть владу керувати компаніями, містами, державами. Бо він це буде робити краще. Компанії і держави якими будуть продовжувати керувати люди просто відімруть не витримаючи конкуренцію. Просто селективний відбір, Чарльз Дарвін.

Бо він це буде робити краще.

Ні, не буде. Принаймні у найближчому майбутньому. ШІ — це просто ще один інструмент. Як компілятор чи RDBMS. Звісно складніший, тому трохи небезпечніший, особливо в руках не дуже розумних людей. Але про захоплення влади — то я жартую. Звісно більшість може проголосувати за кого завгодно, навіть за ведмедика Волдо. Але, щоб захопити владу потрібен розумний мерзотник, в ШІ такі ж шанси, як в мультяшного персонажу.

До автопілота було 5 пілотів, зараз 2

Всегда было 2 пилота, плюс иногда сажают третьего на подхвате.
Автоматизировали только позицию борт-инженера, но только благодаря оптимизации юзеринтерфейса.

Куда более интересно, что не оптимизируют позицию машиниста в поездах.

У місті Ліль метро функціонує без машиністів. Відколи не знаю, але 10 років точно.

Во первых, не всё то «информация», что на информацию похоже, а
Во вторых у мозга есть естественные пределы возможностей, в частности скорость метаболизма(утилизации питательных веществ и вывода отходов жизнедеятельности мозга). Ничего вы не ускорите и не улучшите в мозге ещё и по причине энцефолического барьера (чужеродные предметы там крайне тяжко уживаются с биологическими тканями, и сразу начинают покрываться защитными белками блокирующими всякую проводимость) что может вызвать аутоимунные реакции.
В третьих, скорость (читай способность) обработки сенсорной информации (сигналов от органов чувств и из самого мозга) ограничена проводимостью специализацированных нейронных полей (скоплений неронов, дендритов и аксонов). При превышении порога напряжения, (а там миливольты) и «короткое замыкание» вам гарантированно — в лучшем случаи головные боли, в худшем — шизофрения в крайне тяжёлой форме...
Единственный выход — это только развитие своих интеллектуальных возможностей, а именно памяти и мышления.

Чому ви об’єднали анексію Криму та Brexit і вибори Трамп-Клінтон у єдину категорію «випадків обчислюваної пропаганди»? Оскільки слово пропаганда має негативну конотацію як маніпуляція, мета якої змінити природний стан речей у потрібному напрямку, то чи вважаєте ви, що перемога Клінтон та поразка Brexita — то природний стан речей? Чи все ж таки це боротьба пропаганд?

Не думаю, що коректно розглядати політичні процеси (особливо сучасні) як природні. Наразі будь-яка політика, що потребує суспільного узгодження — це завжди битва пропаганд. Щодо цих кейсів — то в них обох суспільство розділялось у поглядах приблизно 50/50, тобто не було такого очевидного «абсолютного зла». І така ситуація доречі як раз може бути наслідком того, що відбулося зіткнення однакових підходів у просуванні тези з обох боків. В підсумку і перемогла та сторона, якій вдалося злегка колихнути терези в свій бік, залучивши щось нове у підходи пропаганди.

Тоді незрозуміло чому анексія Криму з одного боку та Brexit/Трамп об’єднані в одну категорію «випадків обчислюваної пропаганди». Якщо це все боротьба пропаганд, а не етичні питання, то AI — це просто новий інструмент боротьби, в чому небезпека? Хто сильніший той і переможе. Це я застосовую ваш висновок до самої статті.

Вони не об’єднані в одну категорію, це просто випадки пропагандистських кампаній, в яких було доведено залучення таких технологій. Вони наведені для розуміння того, що це вже реальність. Та ми маємо розуміти що то були лише перші спроби — обкатка, навряд чи на це робилась основна ставка в тих кампаніях. Щодо Криму, там також мені здається в великій мірі зіграв той фактор, що «зустрічної» кампанії з нашого боку майже не було (нажаль). При цьому технології показали свою результативність, а отже слід очікувати, що в подальшому їх застосування буде тільки розширюватись, і як наслідок давати перевагу не в декілька % на виборах, а можливо схиляти суспільство до якихось більш радикальних речей. + самі технології також вдосконалюються, і тут ризики полягають в появі нових прецендентів, до яких складно бути готовими. Наприклад згенеровані зображення чи відео. Ви бачили фото «хлопчика який вижив» у Дніпрі? Воно не справжнє, проте викликало бурю емоцій у людей, хтось вже і батьків почав шукати і т д. Тобто за допомогою таких матеріалів стає можливим кращє грати на почуттях. А як то можуть використати пропагандисти можна хіба що уявляти. І такій пропаганді, коли матеріал дійсно чіпляє за душу, складніше протистояти, більше людей буде на неї вестися і т д
В цілому так, хто буде сильніший та технологічнійший, той і перемагатиме. І для України це очевидні ризики! Зараз ми наче справляємося з ІПсО, але ж у міжнародному інфополі сприйняття ситуації не таке однозначне як всередині країни. А отже російським пропагандонам є над чим працювати і вони без сумніву це роблять!

Для начала — Мозг и Тело это единая нейронная сеть.
Эта сеть «отражает» реальность.
«Отражение» реальности — это выстроенные ассоциативные связи между нейронными полями обрабатывающими сигналы от рецепторов (органов чувств и из самого мозга).
«Взгляды» это конструкты, Идеи.
Конструкт искуственный, — т.е. привнесённая из вне модель реальности, хранящаяся в виде взаимодействия нейронов в мозгах людей.
А так как мы есть единая система Человек-Природа, то все процессы взаимодействия в этой системе, между её составными частями, ВСЕГДА ЕСТЬ ЧИСТО БИОЛОГИЧЕСКИЕ.
Любой процесс приведший нас с вами сюда — в это время и место, процесс естественного отбора, т.е. биологического.

Гарний матеріал +1
Продовжите прогресію:
2020 — усі покупають маски
2022 — усі покупають батареї та зброю
2024 — усі покупають нейронки
2026 — ?

2026 — усі купують біткоїн за курсом 200к, бо аналітики кажуть, що у 2028 буде коштувати мільйон

2024 — усі покупають нейронки

[citation needed]

Скорее будут скупать еду и землю, или нефтевышки.

Дуже цікава та корисна стаття, дякую за вклад у розуміння AI

Скоро настане час коли нейронки будуть керувати компаніями, містами, державами. Заберуть на себе законодавчу гілку влади.

Рано чи пізно через надмірне покладання на нейронку буде вбито масу людей (через якийсь косяк, я не про повс ання ШІ), і цікаво, що тоді будуть робити — заборонять нейронку?

Заборонять навряд чи. Перед тим як дозволяти використовувати нейронки там де очевидно є такі ризики (наприклад селфдрайв авто) — будуть спочатку вводити регулювання,накладати обмеження і умови, створювати законодавчу базу під це. Звісно десь воно рано чи пізно вилізе, що тим регулюванням не було передбачене (в тому числі використання таких алгоритмів в соц мережах, які зараз ніяк не нормуються, поки щось не станеться). Всі занепокояться, призначать винного і будуть вносити нові поправки в закони. Якось так.

З людьми так само. Тут же треба дивитися хто частіше буде помилятися і в яких сферах

Так це вже було сотні раз в історії людства, через помилку або жадібність монархів гинули тисячі і нічого...

Дякую, стаття доволі цікаво і структуровано написана. І головне — тримає. Так тримати

Дуже дякую за відгук!

З одного боку це все має сенс, з іншого боку для апокаліптичних прогнозів поки що замало прикладів, точніше, їх немає. На мою думку, керування суспільною думкою за допомогою AI поки що є занадто складним, а скоріше взагалі неможливим, і невиправдано дорогим. Головна вада такого підходу це відсутність «розмічених картинок». Немає на чому тренуватися, простіше кажучи.
Генеративні мережі можуть генерувати жахливий, вторинний текст чи зображення, які здатні лише вразити, але до сподобатися ще дуже дуже далеко. Щоб зрозуміти різницю достатньо згенерувати картинку за допомогою слів та такий самий запит відправити в гугл і порівняти результати.
Чи будуть використовувати політики AI для керування суспільством? Ну, гроші на цьому хтось розпиляє, як завжди, але для керування суспільною думкою у політиків зараз ще є значно потужніша зброя. Ситуація приблизна така сама як у ретейлі. Оптимізація кошика покупця (що б це не означало) за допомогою AI дозволяє підняти середній чек на 0.054% а щотижневе перекладання товарів по різним полицям, та приємна музика в торговому залі, за порадами сторічної давнини, на 5%

Якщо ви дочитали статтю, то там наведені реальні приклади, коли підходи обчислювальної пропаганди було застосовано і це офіційно доведені випадки, а не лише домисли. Звичайно це не на 100% маніпулювання за допомогою AI, але про це ніхто і не каже. AI — це лише інструмент, який масштабує та прискорює пропагандистьську кампанію.

Не думаю, що в наведених випадках було використано щось крім «перекладання продуктів та приємної музики». Там були дуже старі схеми, яким навіть не сотні, а тисячі років, тільки що замість глашатаїв на площах був використаний інтернет та соцмережі. Я не бачив доказів чи реакції спецслужб яка вказувала б на використання AI. Втручання, безумовно були, але вони були на звичайних технологіях ака «чужинці забирають вашу роботу».
Тобто може там хтось щось і просував, якусь нанаотехнологію, але ніхто крім Клінтон не зробив більше для перемоги Трампа, і ніщо не допомогло Брекзіту ніж сама дивна та утопічна ідея входження Королівства (!) в якійсь Євросоюз.
Я відштовхуюсь від того що а) звичайна соціологія залишається потужною та дієвою б) для обчислюваної пропаганди, для тренування моделей, треба не китайський суперкомп’ютер орендувати на кілька місяців, а кілька країн на десятки років. Тому маю думку, що воно не працює, та і не впевнений що взагалі колись запрацює.

Я бачу зараз лише екстенсивний розвиток, тобто «візьмемо більше серверів!». Гадаю без чергової революції, на кшталт винаходу способу навчання глибоких мереж, навряд буде щось цікаве. Зараз тупо немає нормального перекладу, навіть текстового, я вже не кажу про розмовний. Лише нескінченні демо. Про що тут можна говорити.

Повністю погоджуюсь. Інтелектом тут не пахне. Просто з ростом обчислюваних можливостей перебір варіантів стає швидший. Але це ще просто числодробилка з яскравою обгорткою.

Чисто по приколу, уявно перенесіть середньостатистичну людину у Європу на початок 1900-тих років чи в совок у 1950-ті .... І уявіть що проводите живе опитування... Чи люди в той час не прогнозували глобальну світову війну?!?

Не дуже зрозумів суть експерименту. Можу сказати, що соціологія це завжди складно. Щодо прогнозів війни, то в СРСР світова війна проти капіталізму була задекларована як основа його існування, тому не тільки в 50-х (мабуть ви мали на увазі 40-ві) але і значно раніше, одразу після 18-го року, всі хто про це думав, знали що війна буде.
Згідно існуючої статистики можна сказати, що влада в не демократичних країнах постійно вимушена воювати для самозбереження. Тому, наприклад, прогноз війни в Китаї не потребує участі AI.

Да, а комп"ютери несуть загрозу шо твій профіль можуть взламати... Який висновок — не користуйтесь комп"ютерами і ШІ

Але це означає, що інші не будуть користуватись.

«Дія, це, перш за все — зручно. А роль кібербезпеки — перебільшена» ;) (сарказм)

Авто вже вбивають — але це не зупиняє людство користуватись авто. А відмова користуватись не дає гарантії, що не помреш під авто іншої людини... Тож...

Ну... скоріше за усе це призведе по певної цензури, що глобально може бути й непогано.

Mike’s mum had 4 kids; 3 of them are Luis, Drake and Matilda. What is the name of 4th kid?

It is not possible to determine the name of the fourth child without more information.

The answer is in the question

I apologize for the confusion. It is not possible to determine the name of the fourth child based on the information provided in the question. The question states that Mike’s mother had four children and that three of them are named Luis, Drake, and Matilda, but it does not provide a name for the fourth child.

Як щодо цього?))

Уже знает.
Mike’s mum had 4 kids; 3 of them are Luis, Drake and Matilda. What is the name of 4th kid?
The name of the fourth kid is Mike.

Дофайнтюнився)) та факт той, що для такого підходу, за яким навчається gpt, реальний інтелект у людському розумінні є асимптотою, до якої така модель може нескінченно наближатися, але ніколи не досягне

Задумувались, яким чином ми отримуємо наступне слово в нашій голові? Принцип доволі схожий. Друге питання, що у людини є доступ до розширеної бази даних, так сказати

Та не скажіть! У мене принаймі уся думка, яку я хочу висловити з’являється одразу повністю, а не слово за словом) потім для того щоб її висловити можливо і доводится добирати слів, але це вже трохи не те.

Нейропсихологи кажуть, що між тим як мозок вже знає що він буде говорити і тим як ми говоримо проходить дуже значний проміжок часу. Кілька секунд.

А «woman» стосується тварин теж?!?
АІ правильно зрозумів, що це стосується людини жіночої статі!!!

мережі вчаться на даних, тому в майбутньому дуже багато відкритих даних будуть або недоступні, або неправильні.

принизливих навичках інформаційної грамотності та критичного мислення

краще перекласти як:

деградуючих навичках інформаційної грамотності та критичного мислення

або

недостатніх навичках інформаційної грамотності та критичного мислення

Про это еще Пелевин писал, в SNUFF — настоящие новости «для себя», элита будет снимать на целлулоидную пленку. А плебес будет потреблять тот самый snuff.

Хорошие новости — это существовало до нейросетей.
Великолепные новости — выживут только параноики.

ну може в вас на руси ніхто не виживе, то й добре

нужно собрать пазл и проткнуть яйцо кощея обратно.... не знаю... сложно

Підписатись на коментарі