Розробники почали оптимізувати нейронні мережі для роботи з агентами
Великі мовні моделі (LLMs) зазвичай оптимізуються для відповідей на запитання користувачів. Однак зараз почав популяризуватися тренд на їхню оптимізацію для інтеграції в агентні робочі процеси, пише Andrew Ng, засновник DeepLearning.AI.
Зазначається, що більша частина даних для налаштування моделей була орієнтована на відповіді на запитання та інструкції. Така поведінка характерна для користувацьких інтерфейсів, таких як: ChatGPT, Claude або Gemini.
Однак, останнім часом з’явився тренд на використання нейронних мереж саме в агентних робочих процесах. Така тенденція лише зростатиме найближчими роками, і як наслідок, розробники LLM будуть оптимізувати свої моделі для подібних цілей.
Навіть зараз є вже певні новації в напрямку агентного навантаження:
- Використання інструментів (або виклик функцій):
Якщо LLM запитує інформацію про поточну погоду, вона не зможе витягти дані зі своєї бази. Замість цього модель може згенерувати запит на виклик API для отримання даних. До появи GPT-4 з підтримкою виклику функцій, розробники використовували складні підказки (наприклад, ReAct), щоб навчити модель генерувати такі виклики. Тепер, з нативною підтримкою виклику функцій, моделі можуть виконувати такі завдання, як пошук інформації, виконання коду, надсилання листів, розміщення замовлень і багато іншого. - Управління комп’ютером:
Нещодавно Anthropic представила модель, здатну керувати комп’ютером через кліки мишею і натискання клавіш (у віртуальній машині). Це великий крок уперед у сфері автоматизації процесів (RPA), який допоможе багатьом розробникам.
Також Andrew проаналізував типовий процес налаштування агента в процесі розробки та дійшов певних висновків:
- Спонукання LLM до агентної поведінки через підказки:
Багато розробників використовують підказки, щоб підказати моделям виконувати потрібні агентні дії, що дає змогу швидко тестувати різні підходи. - Тонке налаштування для критично важливих додатків:
У випадках, де важливо забезпечити високу надійність виконання функцій (наприклад, правильний виклик функцій), розробники вдаються до донавчання моделей. Однак найчастіше підказок буває достатньо, і тільки після їх ретельного налаштування варто переходити до донавчання.
- Вбудовування затребуваних можливостей у моделі:
Якщо якась функція, як-от використання інструментів або керування комп’ютером, стає цінною для розробників, постачальники LLM починають інтегрувати її у свої моделі.
«Я впевнений, що значні покращення продуктивності агентів у цьому напрямку будуть досягнуті в найближчі кілька років», — заявив Andrew.
Немає коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів