Психоісторія Азімова з LLM, OSINT та Agentic RAG: Заміна емоційних геополітичних прогнозів наукою (іноді галюцинаціями)
У юності, читаючи цикл «Фундація» Айзека Азімова, я був захоплений концепцією Психоісторії — статистичної науки, що використовується для передбачення майбутнього. Метою було не визначення точних дат чи дій окремих осіб, а апроксимація ширших часових рамок та траєкторій розвитку цілих цивілізацій. Персонажі Азімова досягали цього, об’єднуючи величезні масиви людських знань у єдину прогностичну модель.
Психоісторія працює шляхом застосування вищої математичної статистики до великих людських популяцій, що аналогічно кінетичній теорії газів. Хоча дії окремого індивіда непередбачувані, колективна поведінка мільйонів стає статистично обчислюваною.

Натхнення: Статті та коментарі
(Вічні спекуляції на DOU про майбутнє та очікування, що базуються на особистих відчуттях, а не на реальних активах, науково доведених методах чи використанні експертних звітів із петлею зворотного зв’язку):
- dou.ua/forums/topic/57354
- dou.ua/...rums/topic/57291/#3045868
- dou.ua/forums/topic/57167
- dou.ua/forums/topic/52764
- dou.ua/forums/topic/56827
- dou.ua/forums/topic/56766
Сьогодні фірми з оцінки політичних ризиків, такі як Eurasia Group або Stratfor, намагаються робити щось подібне. Однак їхні моделі значною мірою покладаються на привілейовану «інсайдерську» інформацію поряд із публічними даними. Не маючи доступу до таких закритих мереж, я вирішив відтворити цю прогностичну здатність, використовуючи інший ресурс: дані на основі відкритих джерел (OSINT), заповнюючи прогалини інсайдерської інформації експертними звітами через RAG.
Результатом став OSINT Agentic RAG Geopolitical Prediction Pipeline — система, розроблена для прогнозування суспільних трендів з використанням виключно загальнодоступних даних та просунутої архітектури ШІ.

Щоб побудувати надійний прогностичний рушій (prediction engine), який уникає простого вгадування, pipeline інтегрує кілька індустріальних практик ШІ та використовує Gemini 3 Pro як LLM (код на Python, виконується це все в Colab).
RAG (Retrieval-Augmented Generation / Пошуково-доповнена генерація)
Визначення: RAG — це техніка, яка оптимізує вихідні дані LLM, посилаючись на авторитетну базу знань за межами її тренувальних даних перед генерацією відповіді.
Застосування: Замість того, щоб покладатися на внутрішню пам’ять LLM (яка може бути застаріла або схильна до галюцинацій), ця система витягує конкретні, актуальні дані з поглинутих відкритих джерел перед спробою прогнозу. Система наповнюється історичним датасетом, що охоплює до 25 років для деталізованих даних і 50 років для великих геополітичних подій.
Ключові джерела: World Bank Open Data, Yahoo Finance, CIA World Factbook, IMF World Economic Outlook.
Заземлення промпту (Prompt Grounding)
Визначення: Це передбачає прив’язку відповідей моделі виключно до наданого контексту або отриманих даних.
Застосування: Якщо модель не може знайти доказів у отриманих документах (наприклад, у наданих даних Світового банку), вона має інструкцію повідомляти про «недостатність даних», а не вигадувати правдоподібний економічний прогноз. Це гарантує, що результат базується на фактах, а не є творчою фікцією.
Оптимізація промптів
Визначення: Систематичне вдосконалення структур промптів для максимізації метрик ефективності — зокрема Precision (точність релевантних прогнозів), Recall (здатність знайти всю релевантну інформацію) та F1 Score (середнє гармонічне точності та повноти).
Застосування: Промпти не були написані один раз, вони еволюціонували через покоління тестувань на тренувальному датасеті (історичні події), щоб гарантувати, що ШІ «мислить» у спосіб, який статистично корелює з точними історичними наслідками.
Каскад промптів (Prompt Waterfall / Chaining)
Визначення: Техніка послідовної обробки, де вихідні дані одного промпту стають вхідним контекстом для наступного. Замість того, щоб ставити одне складне питання («Яке майбутнє країни X?»), завдання розбивається на етапи.
Застосування: Система декомпозує завдання:
- Перший промпт: Підсумувати сирі дані для кожного агента.
- Другий промпт: Зібрати тактичні прогнози (1 рік).
- Третій промпт: Зібрати циклічні прогнози (3 роки).
- Четвертий промпт: Зібрати стратегічні прогнози (10 років).
Рушій міркувань «5 Чому» (The «5 Whys» Reasoning Engine)
Визначення: Ітеративна техніка опитування, що використовується для дослідження причинно-наслідкових зв’язків певної проблеми.
Мета — визначити першопричину дефекту або проблеми, повторюючи питання «Чому?».
Приклад у pipeline:
Спостереження: Валюта країни X обвалилася.
- Чому? Вичерпано золотовалютні резерви.
- Чому? ЦБ витратив резерви на захист фіксованого курсу.
- Чому? Інфляція зростала, роблячи експорт неконкурентним.
- Чому? Уряд друкував гроші для фінансування дефіциту бюджету.
- Чому (Першопричина): Політичний тиск задля збереження субсидій перед виборами.
Результат: ШІ прогнозує майбутню волатильність на основі виборчого циклу (Першопричина), а не просто технічних графіків.
Логічний рушій (Logic engine): «Чому нації занепадають»
Щоб запобігти галюцинаціям LLM або переходу до загальних інтернет-мудростей, система використовує Логічний Рушій, заснований на роботі Дарона Аджемоглу та Джеймса А. Робінсона «Чому нації занепадають» (Why Nations Fail), відзначеній Нобелівською премією використовуючи і класифікуючи знайдені дані.
Визначення: Модель обмежена аналізом націй через призму Інклюзивних проти Екстрактивних інститутів. Вона не може просто вгадати, що країні «стане краще», вона повинна перевірити, чи є політичні інститути інклюзивними (дозволяють участь та стимулюють успіх) або екстрактивними (концентрують владу та багатство в руках небагатьох).
Застосування: Якщо ШІ виявляє екстрактивні політичні інститути, він зобов’язаний правилами прогнозувати економічну стагнацію або нестабільність у довгостроковій перспективі, незалежно від короткострокового зростання фондового ринку.
Агентна архітектура
Щоб уникнути «Розмивання контексту» (Context Dilution) — це коли LLM забуває інструкції через занадто довгий або складний промпт — навантаження розподіляється між спеціалізованими агентами. Кожен агент діє як окрема персона з конкретним фокусом.
a) Демограф (The Demographer)
Фокус: Статево-вікові піраміди, міграційні тренди, народжуваність та участь робочої сили.
Мета: Прогнозує соціальні заворушення або економічну стагнацію на основі старіння населення або надлишку молоді (youth bulges).
b) Економіст (The Economist)
Фокус: Суверенний борг, бюджетний дефіцит, ріст ВВП та інфляція.
Мета: Визначає фіскальні обриви (fiscal cliffs) та монетарну стійкість.
c) Геостратег (The Geostrategist)
Фокус: Безпека кордонів, розподіл природних ресурсів, військові альянси та відносини з сусідами.
Мета: Прогнозує зовнішні конфлікти або важелі впливу.
d) Інституціоналіст (The Institutionalist)
Фокус: Верховенство права, індекси корупції та логічний рушій «Чому нації занепадають».
Мета: Визначає стабільність правлячого режиму та можливості виконання контрактів.
e) Мета-синтезатор (The Meta-Synthesizer)
Вхід: Отримує ізольовані звіти від чотирьох спеціалізованих агентів.
Вихід: Об’єднує ці суперечливі або доповнюючі погляди в єдину ймовірнісну часову шкалу. Цей агент зважує вхідні дані (наприклад, «Економіка сильна, але інституційна деградація висока»), щоб надати фінальний прогноз «Психоісторії».
Відомі обмеження:
- Визначення ймовірностей. Система не розглядає майбутнє як бінарне (відбудеться/не відбудеться), а як розподіл ймовірностей, що оновлюються вхідними доказами. Методологія є обчислювальним застосуванням Баєсового висновування та Зваженої оцінки доказів (WES) на основі джерела інформації. Проте ймовірності НЕ слід інтерпретувати як абсолютні числа, а як відносні ймовірності прогнозів (наприклад, усі прогнози з ймовірністю 60 і нижче є радше спекуляціями, малоймовірними подіями або галюцинаціями; ймовірності 50 і нижче краще ігнорувати).
- Часові галюцинації та плутанина горизонтів. LLM часто мають труднощі з часовим заземленням тверджень. Фрагмент, що каже «Проект розпочнеться у 2027» (опублікований у 2023), та фрагмент «Проект відкладено до 2028» (опублікований у 2025), описують одну сутність, але різні реальності.
- Сліпота до негативних доказів (Negative Evidence Blindness). Системи RAG оптимізовані для пошуку підтверджень існування (наприклад, «Знайди дату запуску»). Їм важко працювати з негативним існуванням (наприклад, «Знайди докази, що запуск не відбувся»).
- Лаг даних. Доступні дані мають часові затримки (кілька років у випадку World Data Bank), що робить короткострокові (1 рік) прогнози потенційно неточними, якщо сталася якась значна подія, або ж система може прогнозувати події, які насправді вже відбулися. Це менша проблема для горизонтів у 3 та 10 років.
- Чорні лебеді — це непередбачувані події з величезними наслідками, які... неможливо передбачити, інакше вони не були б Чорними лебедями.
Чим це відрізняється від звичайного промпту?
Нащо городити складний pipeline з RAG та агентів, якщо можна просто завантажити PDF-звіти в LLM з контекстним вікном у 2 мільйони токенів? Відповідь криється в трьох фундаментальних обмеженнях, які неможливо вирішити простим збільшенням контексту.
- Проблема розмивання уваги (Context Dilution). Коли ви «годуєте» модель сотнями сторінок макроекономічних звітів, спрацьовує ефект Lost in the Middle. Модель схильна усереднювати інформацію, фокусуючись на загальних фразах і гублячи критичні деталі (наприклад, специфічний спред по бондах) у шумі. Агентна архітектура вирішує це через декомпозицію: агент-«Демограф» бачить лише цифри народжуваності, а «Економіст» — лише боргові зобов’язання. Це гарантує, що жоден сигнал не буде проігноровано.
- Подолання RLHF-обмежень. Публічні моделі натреновані (Reinforcement Learning from Human Feedback) бути максимально безпечними, нейтральними та «ввічливими». На пряме запитання про майбутнє кризової країни «гола» модель видасть дипломатичне есе: «Існують різні точки зору, ситуація складна...». Використання жорстких логічних фреймворків (наприклад, критеріїв Аджемоглу) та спеціалізованих персон (Personas) змушує систему ігнорувати «політкоректність» і видавати холодний, часто цинічний прогноз ризиків.
- Перехід від System 1 до System 2. Звичайний промпт запускає інтуїтивне мислення моделі — вона передбачає наступне найбільш вірогідне слово. Впровадження інструментів на кшталт «5 Чому» (5 Whys) та ланцюжків міркувань (Chain of Thought) змушує систему емулювати повільне, аналітичне мислення: шукати першопричини, а не просто переказувати тренди.
Тобто звичайний промпт генерує правдоподібний текст, а такий pipeline генерує висновок на основі даних і затребуваної логіки.
Формат виводу: [Ймовірність у %] — [РИЗИК або МОЖЛИВІСТЬ]: Опис
Пояснення: Коротке пояснення
Сигнал: Сигнали розвитку подій
Прекурсор: Що спричинить/спричиняє це
Приклади (перед тим як читати приклади треба прочитати і усвідомити відомі обмеження системи)
Upd: Оскільки редактор ДОУ не дозволяє створювати спойлери, приклади виводу будуть в коментарях.

46 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів