CLI-агенти: Новий стандарт для програмування з AI
Привіт! Мене звати Володимир, я Microsoft MVP та працюю в beeDynamics на позиції розробника Business Central. Я регулярно пишу технічні статті в своєму блозі. Також підтримую декілька open-source проєктів, детальніше в профілі github.
У цій статті пропоную розглянути, як еволюціонували AI інструменти для програмування. Ми поговоримо про AI чати, автодоповнення, IDE-агентів і, звісно,
Зміст
Еволюція AI інструментів для програмування
Насправді еволюція інструментів для програмування почалася задовго до того, як LLM стали популярними. Було все: від ручного введення програм на перфокартах, до інструкцій вищого рівня через асемблер, чи появи компіляторів та інтерпретаторів і так далі. Ми не будемо заглиблюватися в це тут, адже це виходить за межі цієї статті. Натомість зосередимося на більш релевантній історії того, як розвивалися сучасні AI-інструменти, не занурюючись надто глибоко в деталі.
Одним із найближчих до AI інструментів для допомоги в програмуванні був класичний autocomplete, наприклад IntelliSense. Спираючись на статичний аналіз, бібліотеки мови та можливості Language Server Protocol (LSP), він пропонував підказки для доповнення коду. Ми й досі постійно користуємося цим інструментом у розробці.
Згодом ця ідея еволюціонувала в інструментах на кшталт TabNine, які доповнили статичний аналіз новим підходом: deep learning. Це було одним із перших реальних застосувань AI для полегшення життя програмістам, де почав мати значення поточний контекст коду. Інструмент усе ще був дуже обмеженим, але це був початок.
І, звісно, AI automcomplete — коли GitHub Copilot з’явився у
Однак, якщо чесно, кожна моя спроба користуватися AI code automcomplete закінчувалася тим, що я вимикав ці функції, бо вони мене лише дратували. Я знаю, що багато хто думає інакше, але це мій погляд. Я не хочу, щоб інструмент вгадував за мене, що я намагаюся зробити — принаймні доки ці інструменти не навчаться читати думки.
Потім настала ера AI chat, яка почалася з ChatGPT. Чат-інтерфейс досі є найпопулярнішим способом взаємодії з LLM. AI-чати використовують для багатьох різних задач, зокрема й для програмування. Використання AI-чату для програмування — це зовсім інша парадигма: ми ставимо конкретне запитання і просимо конкретне рішення, намагаючись надати LLM достатньо контексту, щоб отримати точнішу відповідь. Однак у використанні чату для програмування є певні проблеми, і далі ми їх розглянемо.
Наступним етапом цієї еволюції став AI, інтегрований безпосередньо в IDE, де Copilot у VS Code або IDE на кшталт Cursor — хороші приклади. Вони усунули найочевидніші недоліки використання AI-чату для програмування. Більше не потрібно копіювати код у чат, почав враховуватися контекст проєкту, а також стали використовуватися фідбек від компілятора та лінтера. Усі ці фактори ще більше покращили досвід розробки, це був крок, що перевів процес в якісно новий рівень.

І нарешті ми входимо в епоху agentic AI. На цьому етапі ми отримуємо максимальну автономність і якість. Ми можемо передати задачу на кілька годин і отримати результат. Agentic AI-системи самі себе коригують, проактивно досліджують контекст проєкту та підтримують паралелізацію задач. Загалом це ще один якісний крок уперед в еволюції AI-інструментів для програмування. Хороші приклади: Claude Code, Codex або інші не-CLI агенти по типу Google Jules.
Звісно, ця класифікація досить приблизна, і ті самі IDE також можуть містити елементи agentic AI. Однак загальна закономірність еволюції є очевидною.
CLI-агенти для програмування
Я часто використовував інтегровані AI в IDE, зокрема Cursor та Copilot у VS Code. Найбільше мені подобалась гнучкість, можливість перемикати моделі «на льоту» під час роботи з кодом. Дуже зручно порівнювати новий Gemini 3 Pro з Claude 4.6 Opus або ChatGPT 5.2 на реальних задачах. Крім того, ці інструменти вже дають певний рівень автономності, як я згадував раніше, сучасні IDE вже містять agentic-елементи.
Однак останнім часом я використовую інтегрований AI в IDE дедалі рідше, і причин для цього багато. Одна з головних — ціна. Візьмімо Cursor як приклад: він надзвичайно дорогий, і проблема навіть не в ціні за токен, а в тому, як ці токени витрачаються. Cursor витрачає токени абсолютно неефективно. Корінь проблеми в тому, що його tool calling досить специфічний і далекий від оптимального. Друга причина — якість. Після багатьох порівнянь я переконався, що агент і tool calling у Cursor насправді знижують якість роботи деяких LLM.
По суті, CLI-агенти, це асистенти, які «живуть» у вашій command line та дають гнучкий спосіб налаштовувати й використовувати AI.
Зрештою я можу сказати, що
- Дешевші, головним чином завдяки ефективнішому tool calling
- Якісніші, знову ж завдяки ефективнішому tool calling
- Більш автономні, значно стабільніші та передбачувані
- Краще паралелізують задачі
- Надають прямий доступ до terminal

До речі, у моєму попередньому дописі про AI я порівнював кілька моделей на практичній задачі з Business Central. Мій висновок тоді був такий: новий на той момент Claude 4.5 показав себе доволі слабко. Виявляється, це було не лише моє враження. Anthropic справді визнали проблеми та детально написали про них. Це ще раз підкреслює, наскільки AI інструменти нестабільні, тому не можна довіряти своєму попередньому досвіду. Розвиток інструментів настільки активний, що необхідний постійний моніторинг.
Claude Code
Саме тому я перейшов на CLI-агенти для програмування. На мій погляд, зараз це найкращі AI-інструменти для розробника. І якщо подумати, це логічно: саме творці моделей будують найкращих агентів поверх власних LLM. Оскільки я вважаю моделі Anthropic найкращими для програмування, я переважно використовую Claude Code.
Перш за все, вам потрібна хороша консоль для роботи з AI
Як і більшість розробників Business Central, я працюю на Windows, і історично вбудована консоль була не надто хорошою. Але все змінилося. Microsoft розробили чудовий термінал — Windows Terminal, який доступний за замовчуванням у Windows 11, а в Windows 10 його потрібно встановити вручну:
apps.microsoft.com/detail/9n0dx20hk701

Далі нам потрібно встановити сам Claude Code — це доволі легко зробити однією командою в терміналі. Детальнішу інформацію також можна знайти в документації.
irm https://claude.ai/install.ps1 | iex
Тепер скористаймося нашим
cd "C:\Users\Drakonian\Documents\AL\BCApps"
Після цього ми можемо запустити сесію Claude Code простою командою:
claude
Якщо ми хочемо продовжити попередню сесію з цієї папки, використаємо таку команду Claude Code:
/resume

Це наш інтерфейс для взаємодії з LLM. Ми просто пишемо свої запити прямо в терміналі. Також можемо вказувати конкретні файли або папки через @, щоб надати точніший контекст. Ще можу порадити комбінацію Ctrl+G, щоб набирати промпт у редакторі на кшталт нотатника, якщо він досить великий (хоча в такому разі автоматична @-функція не працюватиме).
У майбутньому дописі я детальніше напишу про те, як ефективно використовувати Claude Code. Там доволі багато тем для обговорення, наприклад, що таке claude.md і як налаштовувати MCP. А поки що давайте просто обговоримо, що таке MCP і чому про це необхідно знати, особливо для
MCP
MCP — це не магія!
Я помітив, що деякі терміни й технології, пов’язані з AI, часто огорнуті якимось туманом таємничості, магії або навіть шаманізму. Насправді ж вони доволі прості й зрозумілі, якщо виділити час і розібратися. Звісно, якщо ми не хочемо зануритись в глибину розробки самих LLM.
MCP — це протокол взаємодії між LLM і зовнішнім світом. Саме він дозволяє моделі отримувати фідбек із зовнішніх джерел. У свою чергу, це дає можливість AI-агенту коригувати свої дії залежно від контексту та того, як середовище реагує на попередні дії агента.
Саме тому використання MCP настільки важливе. По суті, воно суттєво покращує та прискорює роботу AI-агента. Нам більше не потрібно вручну вказувати конкретні дані в наших запитах. AI-агент тепер може самостійно дослідити ці дані або навіть сам викликати потрібні дії до зовнішніх ресурсів.
Отже, додаючи правильні MCP, ми отримуємо кращу автономність, вищу якість і швидшу продуктивність.
Хороший приклад — нещодавно випущений Business Central MCP, який дозволяє взаємодіяти з даними Business Central через API-сторінки. Тобто AI-агент може проактивно виконувати будь які CRUD операції чи навіть дії вищого порядку.
Підсумок
Для мене головний висновок: найкращий спосіб використовувати AI для програмування сьогодні, це
Для розробників Business Central це особливо корисно. Ми й так багато працюємо зі скриптами, API та автоматизацією, тож додавання
Наступного разу ми детальніше розглянемо налаштування Claude Code, використання MCP, поговоримо про вікно контексту та його менеджмент, подивимось на sub-агентів та інше.
Сподобалась стаття? Підписуйтесь на автора, щоб отримувати сповіщення про нові публікації на пошту.
15 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів