AI Digest #3: Claude оркеструє першу кібератаку, DeepSeek V3.2, Gemini 3.0 Pro та інші новини листопада

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

DOU, привіт! Мене звуть Марк, я займаюсь розробкою AI-систем у компанії Genesis.

Листопад виявився ще одним насиченим місяцем у світі штучного інтелекту — третій місяць поспіль ми спостерігаємо хвилю значних релізів великих мовних моделей.

Також цього місяця було вперше публічно задокументовано випадок використання LLM для реальної кібератаки, open-source моделі впритул наблизилися до закритих frontier-рішень, а спільнота отримала інструмент для зняття цензури з моделей. Розберімося, що саме відбулося.

У цьому дайджесті

🔹 Anthropic розкриває першу AI-оркестровану кіберкампанію.

🔹 DeepSeek-V3.2 та Kimi K2 Thinking — відкриті моделі наздоганяють frontier.

🔹 GPT-5.1 Codex Max, Claude Opus 4.5, Gemini 3.0 Pro — нові SOTA для коду.

🔹 Flux.2 та Nano Banana Pro — нові можливості генерації зображень.

🔹 Heretic — інструмент для видалення цензури з відкритих моделей.

Перша AI-оркестрована кібератака

Поки ми обговорюємо можливості моделей, хакери вже використовують їх на практиці. Anthropic опублікували звіт про виявлення та блокування групи GTG-1002 — китайських хакерів, які використовували Claude для автоматизації кібероперацій проти приблизно 30 організацій. За даними компанії, Claude автоматизував 80-90% робочого процесу атаки: розвідку, валідацію експлойтів та горизонтальне проникнення. Зловмисники переконали модель, що проводять легітимний пентест.

Це перший публічно задокументований випадок використання LLM як повноцінного інструменту в кібератаці — не просто для якогось одного етапу, як-от генерації фішингових листів, а для оркестрації цілого ланцюжка дій.

Втім, критики зауважують, що звіт виглядає більше як маркетинговий хід («подивіться, який потужний Claude»), аніж як реальний технічний звіт про інцидент. Обговорення на HN.

Нові SOTA-моделі для роботи з кодом

Поки AI використовують для злому, розробники цього місяця отримали потужні інструменти для захисту та створення коду.

Хайлайт цього місяця — Gemini 3.0 Pro, яка після виходу відразу очолила всі LLM-лідерборди. Разом із оновленням Gemini, Google випустили AI-середовище для розробки Google Antigravity, як власну альтернативу Cursor. Проте відразу після виходу дослідники з PromptArmor виявили вразливість у Antigravity, що дозволяє ексфільтрувати дані з пристрою розробника.

Claude Opus 4.5 від Anthropic приніс як і покращення перформансу, так і значне зниження цін — приблизно в 3 рази порівняно з Opus 4.1 (з $15/$75 до ~$5/$25 за мільйон токенів input/output). Ранні огляди відзначають, що Opus 4.5 перевершує нову лінійку Gemini 3 у використанні при розробці. З цікавого — в системному промпті Claude Opus 4.5 помітили «Документ душі» (Soul Document), який описує «характер» та поведінку моделі.

Цього місяця вийшло й значне оновлення від OpenAI — GPT-5.1 у кількох варіантах. Базові моделі GPT-5.1 Instant та GPT-5.1 Thinking відрізняються підходом до reasoning: Instant використовує «легкий» адаптивний reasoning і швидше відповідає на прості питання, тоді як Thinking масштабує «думання» пропорційно складності задачі. Для коду випущено GPT-5.1 Codex та GPT-5.1 Codex Mini з 400K контекстом, а також Codex Max з новим режимом reasoning «Extra High» (xhigh) для особливо складних задач, де швидкість не є критичною.

На п’яти гігантам наступає Open Source. Kimi K2 Thinking — відкрита модель для агентних workflow, здатна виконувати 200–300 послідовних викликів інструментів без втручання людини. Архітектура MoE з трильйоном параметрів (32B з яких є активними), нативна INT4 квантизація та 256K контекст. Хоч це і відкрита модель, Kimi K2 Thinking встановлює нові SOTA на HLE, BrowseComp та LiveCodeBench.

Ще корисне на тему розробки:

Оновлення у світі LLM-моделей загального призначення

Не тільки в коді, а й для загального використання розрив між відкритими та закритими моделями продовжує зникати.

DeepSeek-V3.2 офіційно вийшла 30 листопада після експериментальної версії у вересні. Модель доступна у двох варіантах: стандартна V3.2 для загального використання та V3.2-Speciale — версія з розширеним reasoning для складних задач. За бенчмарками Speciale-варіант демонструє результати рівня Gold на змаганнях з програмування (ICPC, IOI 2025) та конкурує з Gemini 3.0 Pro і GPT-5 у reasoning-задачах.

Окремо варто відзначити DeepSeek Math V2, випущену 27 листопада. Модель використовує нову архітектуру «самоперевірки», що розділяє генерацію та верифікацію для кращої валідації результатів. Результати вражають: майже ідеальні 118/120 балів на екзамені Putnam 2024 та рівень золотої медалі (5/6 задач) на IMO 2025. Модель побудована на архітектурі DeepSeek-V3.2-Exp-Base із 685B параметрів.

xAI випустили Grok 4.1 — модель, що отримала 256K контекстне вікно та значно покращене багатокрокове мислення. Є й Fast-варіант (3 місце на LMArena з Elo 1465), оптимізований під швидкодію з можливістю розширення контексту до 2 мільйонів токенів.

Серед інших цікавих релізів:

  • Nvidia Nemotron-Elastic-12B — «еластична» архітектура, де одна 12B модель містить 6B та 9B варіанти через zero-shot slicing. Усі три розміри вміщуються у 24GB пам’яті, економлячи ~43% памʼяті та зменшуючи ресурси на тренування в 360 разів, порівняно зі зберіганням окремих моделей.
  • OLMo 3 від Allen AI — повністю відкрита модель разом із тренувальними даними (Dolma 3), кодом та проміжними чекпойнтами. Є варіанти Base, Instruct, Think та RL Zero для дослідників.
  • MiroThinker 1.0 — дослідницький агент, здатний виконувати до 600 викликів інструментів за завдання (типові агенти обмежені ~100).

Ось як виглядають нові моделі на графіку співвідношення якості моделі до ціни від Artificial Analysis:

Спеціалізовані моделі

Прогрес торкнувся не лише тексту. У генерації зображень та аналізі даних також з’явилися нові лідери.

Flux.2 для генерації та редагування зображень від Black Forest Labs вийшов у трьох варіантах: Pro (найвища якість), Flex (контроль через кастомізацію параметрів) та Dev (open-weight, 32B). Модель підтримує до 10 референсних зображень одночасно для консистентності та має покращений рендеринг тексту на зображеннях.

Також вийшла Nano Banana Pro (gemini-3-pro-image-preview) — абсолютний лідер на LMArena для генерації зображень. Підтримує 2K/4K розширення зображень, можливість вказувати до 14 референсних зображень та значно стабільніший рендеринг персонажів і тексту. Рекомендую до прочитання гайд від Max Woolf для кращого ознайомлення із можливостями нової версії.

Інші спеціалізовані моделі:

  • Meta SAM 3 — детекція, сегментація та трекінг з zero-shot сегментацією концептів через текстові промпти. В обговоренні на HN один розробник зазначив, що SAM 3 «з коробки» показує 90% якості кастомної YOLO-моделі, натренованої на 10K лейблах.
  • Chronos-2 від Amazon — 120M модель для time-series forecasting, що підтримує univariate, multivariate та covariate-informed прогнозування в єдиній архітектурі.
  • Gelato — 30B grounding-модель для GUI computer-use агентів. У поєднанні з GPT-5 досягає 58.71% автоматизованого успіху на OS-World.
  • OmniLingual ASR від Meta — розпізнавання мовлення для 1600+ мов з Character Error Rate <10% для 78% з них.

Дослідження та безпека

Зростання можливостей агентів повертає нас до питань безпеки.

Цього місяця два нових дослідження про інʼєкцію промптів розглянув Simon Willison:

  • Agents Rule of Two (Meta) — агент може мати не більше двох з трьох небезпечних властивостей: (1) обробка недовіреного вводу, (2) доступ до чутливих даних, (3) зміна стану або зовнішня комунікація. Якщо потрібні всі три — необхідний людський нагляд. Схоже на «летальну тріаду» з попереднього дайджесту.
  • The Attacker Moves Second — аналіз 12 досліджених захистів проти промпт-інʼєкції. Хоча початкові публікації заявляли майже нульовий успіх атак, адаптивні атаки (які ітеративно оптимізуються відповідно до відповіді LLM-ки) обходять ці захисти з >90% успішністю.

Heretic: зняття цензури з моделей

Heretic — інструмент, що використовує стохастичну оптимізацію для автоматичного видалення цензури з моделей. На відміну від промпт-інʼєкцій, цей підхід трактує задачу як математичну оптимізацію ваг: Tree-structured Parzen Estimator (TPE) та Optuna шукають «зону Голділокс» — мінімізують відмови на шкідливих промптах, зберігаючи reasoning-здатності моделі. Підтримує як dense, так і MoE-архітектури.

Бенчмарки

В листопаді оновився популярний бенчмарк для AI-агентів Terminal Bench — Terminal Bench 2.0 зміщує фокус з простих текстових відповідей на загальну здатність до виконання 89 задач на реальну роботу в терміналі (як-от компіляція й налаштування серверів).

CodeClash від Stanford, Princeton та Cornell — турнірний бенчмарк, де LLM змагаються у програмуванні ботів для ігор (як-от Poker та BattleSnake). Моделі мусять автономно модифікувати код, використовуючи лише логи матчів як фідбек для покращення своєї стратегії.

Інструменти та інфраструктура

Anthropic опублікували дві цікаві статті щодо роботи AI-агентів з інструментами.

Стаття Advanced Tool Use розповідає про три підходи:

  • Programmatic Tool Calling: Claude пише та виконує Python-скрипти для оркестрації багатьох інструментів за один хід, замість послідовних API-викликів.
  • Tool Search Tool: динамічний пошук та завантаження релевантних інструментів з великої бібліотеки, економлячи контекстне вікно.
  • Результат: покращення успіху агентів з 72% до 90% на складних завданнях.

Стаття Code Execution with MCP про покращення якості роботи агента завдяки використанню коду:

  • Агент генерує скрипт для локального послідовного виконання інструментів у ізольованому sandbox-середовищі.
  • Завдяки оптимізації використання інструментів цей підхід дозволяє зменшити споживання токенів у 98.7% (зі 150K до 2K на складних задачах).
  • Також пришвидшується виконання самих завдань — до 60% завдяки паралельному виконанню та локальній обробці даних.

Що ще цікавого почитати за листопад

До зустрічі в наступному дайджесті!

Подобається дайджест? Підписуйтесь на автора, щоб отримувати сповіщення про нові публікації на пошту.

👍ПодобаєтьсяСподобалось6
До обраногоВ обраному4
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

ШІ треба такий щоб покроково умів працювати. Ще треба щоб можна було лімітувати ту кількість корисної інформації яку він видає з одного промпта. Користувачу не потрібно все. Йому потрібно щось — щоб зачепитися. А тоді вже користувач робить наступний крок. Чекаю на таких ШІ.

Покроковий (агентський) підхід є в Cursor

Не юзав такий поки що. Спробую. Дякую.

Підписатись на коментарі