Робимо свiй Copilot з Azure AI Studio

Усі статті, обговорення, новини про DevOps — в одному місці. Підписуйтеся на DOU | DevOps!

Хто зараз не користується ChatGPT? Хто не чув про OpenAI? Зізнавайтесь :) Впевнений, що багато з вас хоч раз пробували користуватись цими технологіями. Але дуже часто нам не вистачає свіжих знань у цих моделях, або специфічних знань саме з нашої теми, за якою ми хочемо спілкуватися з моделлю, наприклад, нашої бази знань.

Вітаю. Мене звати Віктор. У цій статті я розгляну, як можна створити власну модель, засновану на технології ChatGPT, використовуючи інструменти Azure AI Studio.

Azure AI Studio — це інтегроване середовище розробки та розгортання моделей та програм штучного інтелекту (ШІ) на платформі Microsoft Azure.

Вона надає широкий спектр інструментів та сервісів, що спрощують процес створення, навчання та розгортання ШІ-моделей, разом з такими функціями, як:

  1. Інтегроване середовище розробки (IDE). Azure AI Studio надає зручний та інтуїтивно зрозумілий інтерфейс для розробки моделей ШІ. Це включає можливості для написання коду, візуалізації даних, налаштування параметрів моделей і багато іншого.
  2. Хмарні ресурси. Azure AI Studio дозволяє легко масштабувати обчислювальні ресурси для навчання та розгортання моделей. За допомогою хмарних обчислень ви можете швидко та ефективно обробляти великі обсяги даних та запускати обчислення у реальному часі.
  3. Візуалізація та моніторинг. Студія надає інструменти для візуалізації результатів навчання моделей та моніторингу їхньої продуктивності в реальному часі. Це допомагає розробникам краще розуміти поведінку моделей та оптимізувати їхню роботу.
  4. Інтеграція з іншими сервісами Azure. Azure AI Studio тісно інтегрована з іншими сервісами та інструментами платформи Azure, як-от Azure Machine Learning, Azure Cognitive Services та Azure Data Lake. Це дозволяє створювати комплексні рішення ШІ, використовуючи різні сервіси та інструменти на платформі Azure.

За допомогою Azure AI Studio розробники можуть легко створювати, навчати та розгортати різноманітні моделі та програми ШІ — від класичних алгоритмів машинного навчання до глибоких нейронних мереж та додатків обробки природної мови.

У рамках статті ми зробимо наступні кроки:

  1. Створення проєкту в Azure AI Studio. Ми почнемо зі створення нового проєкту в Azure AI Studio та налаштування його для розробки нашої моделі.
  2. Створення та вибір моделі. Ми виберемо модель в Azure AI Studio, з якою працюватимемо.
  3. Додавання тестових PDF-документів. Ми завантажимо кілька тестових PDF-документів, які будуть використовуватись для тестування працездатності нашої моделі. Ці документи можуть містити різні типи текстової інформації, щоб перевірити, наскільки добре модель може обробляти різноманітні дані.
  4. Тестування роботи з новими даними. Ми проведемо тестування нашої моделі, використовуючи завантажені PDF-документи, та перевіримо, як модель обробляє запити на основі цих даних та надає відповіді.
  5. Розгортання програми в Azure Web App. Після успішного тестування ми розгорнемо нашу програму в Azure Web App, щоб зробити її доступною для використання з веббраузера. Ми продемонструємо процес розгортання та налаштування програми у хмарі Azure.

Завершивши всі ці кроки, ми отримаємо застосунок, що повністю працює, здатний обробляти запити на основі PDF-документів з використанням моделі, і вебінтерфейсу.

Як почати працювати з AI Studio

Все дуже просто — реєструємося або входимо з обліковим записом Microsoft на сайт.

Зайшовши в Azure AI studio, ми зможемо створити новий проєкт, натиснувши на кнопку New project. Інтерфейс загалом доволі зручний та інтуїтивно зрозумілий.

Для створення нового проєкту нам знадобиться новий хаб. Hub — це середовище для співпраці вашої команди, де ви можете ділитися проєктною роботою, кінцевими точками моделей, обчислювальними ресурсами, підключеннями та налаштуваннями безпеки.

Вибираємо підписку, ресурс-групу, ім’я проєкту. На цьому етапі нам поки що не потрібний Azure search.

Створюємо проєкт. І переходимо до інтерфейсу проєкту.

Для подальшого тестування нам необхідна модель, яку ми будемо використовувати. Для її вибору переходимо в каталог моделей, і-і-і-і... у вас можуть розбігтися очі, тут їх дуже багато:

Почнімо з gpt-4o:

Переходимо на модель та натискаємо deploy:

Після деплою моделі ми вже можемо з нею взаємодіяти перейшовши в чат, і, наприклад, спробувати дізнатися, як у неї справи:

Який наступний крок? Давайте додамо нашу інформацію для обробки моделлю, для цього нам треба додати джерело даних:

Після цього необхідно додати, як саме ми будемо отримувати свої дані. Є кілька варіантів: це і звичайні файли, які можна завантажити, і блоби тощо. Я вибрав найпростіший варіант — завантажив своє резюме у pdf-форматi:

Ми можемо додати дані, на які ви хочете, щоб генеративний ШІ посилався — для того, щоб він міг базувати свої відповіді на вашій конкретній інформації. Наші дані будуть інтегровані в Індекс, що дозволяє моделі генеративного ШІ швидко та точно знаходити інформацію для нашого конкретного випадку використання.

Наразі підтримуються лише такі типи файлів: .doc(x), .htm, .html, .md, .pdf, .ppt(x), .py, .txt та .xls(x). Максимальний розмір файлу — 16 МБ.

Тепер нам необхідно створити Azure AI Search service. Ви можете використовувати поточний або створити новий, так само можна вибрати ім’я індексу і машину, на якій буде здійснюватися — run indexing jobs:

Зразкова схема рішення, яке ми будуємо:

Додавання векторного пошуку підтримує: Гібридний (векторний + пошук за ключовими словами), Гібридний + Семантичний (найточніші результати пошуку для застосунків генеративного ШІ), Векторний, Семантичний та пошук за ключовими словами. Гібридний буде встановлено за замовчуванням, і його можна змінити під час виконання у середовищі playground.

Без додавання векторного пошуку підтримуються: Пошук за ключовими словами та Семантичний пошук. Пошук за ключовими словами буде встановлено за замовчуванням, і його можна змінити під час виконання у середовищі playground. Додавання векторного пошуку вимагає використання моделі вбудовування Azure OpenAI.

Натискаємо далі, і вже ми можемо спостерігати, як наші дані індексуються та потрапляють до AI search:

Після того, як Azure AI Studio додасть наші дані, ми можемо спробувати запитати в чаті вже додану нами інформацію.

Тепер ми можемо сміливо задеплоїти нашу модель у застосунок, і це робиться однією кнопкою — натискаємо deploy to a webapp:

Нам необхідно вибрати підписку, ресурс групи, а також хостинг план для нашої програми.

І можна переходити та насолоджуватися мінімалістичним інтерфесом:

Висновки

У цій статті ми розглянули процес створення та розгортання власної моделі на основі технології OpenAI із використанням Azure AI Studio. Ми розпочали роботу з моделлю відразу після її деплою, потім додали нові тестові документи для перевірки роботи моделі з різноманітними даними. Після успішного тестування ми розгорнули нашу програму в Azure Web App, що дозволило нам зробити її доступною для використання з веббраузера.

Приклади використання:

  1. Створення бази знань. Ми можемо використовувати нашу модель на основі Gpt-4o для створення бази знань на основі нашої бібліотеки матеріалів. Користувачі можуть ставити запитання на основі текстових документів, а модель надаватиме відповідні відповіді на основі наших даних.
  2. Підтримка клієнтів. Наша модель може бути використана для автоматизації відповідей на запитання клієнтів у різних галузях, таких як технічна підтримка, обслуговування клієнтів та консультації щодо продуктів чи послуг.
  3. Автоматичне аналізування документації. Ми можемо використовувати модель для автоматичного аналізу та обробки текстової документації, що дозволить значно скоротити час на пошук необхідної інформації та покращити процес роботи з документами.

Загалом створення та розгортання власної моделі в Azure AI Studio відкриває широкі можливості для створення інтелектуальних застосунків та автоматизації процесів на основі обробки текстових даних.

Сподіваюся, це був корисний матеріал для інженерів, які хотіли б зайнятися AI. Також у нас є канал про Azure в телеграм: доєднуйтесь до спільноти.

👍ПодобаєтьсяСподобалось2
До обраногоВ обраному4
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Скільки воно коштує?

Головний ліміт таких RAG чатботів це пошук інформації а не сама LLM, а саме знаходження релевантних документів в яких може міститися відповідь за запит користувача, і передати цей контекст в LLM. І якщо передати туди говно (нерелевантний контекст), навіть chatgpt 4o згенерує говно ). А генерувати відповідь по гарному контексту навіть маленькі відкриті моделі на 7-8b параметрів можуть, не говорячи вже про 70b моделі.

До чого я веду, такий чатбот можна безкоштовно за тиждень у себе розвернути, якщо маєш досвід, за місяць якщо не маєш. І він буде не гірший, а то і кращий, так як можеш під свої дані тюнюнгувати алгоритми і можеш добавляти інші джерела інформації, не тільки документи. Доведеться, правда, одноразово раскошелитесь на відеокарти. Тип і кількість залежить від кількості юзерів.

Дякую за ваш коментар. Так, ви праві, що можна створити свій RAG і розмістити модель локально на серверах. Мета статті — показати, як це можна зробити швидко і в хмарі Azure. Не всі завжди хочуть розміщувати все локально в дата-центрі, особливо якщо у вас вже є інфраструктура в Azure. Щодо вартості, то все залежить від запитів. Активне використання моделі обійшлося мені приблизно в 10 доларів на день.

$10 на день це при використанні одним користувачем?

Щось дороговато виходить. Бізнес ліцензія copiltot коштує 30 доларів на користувача в місяць, і без всяких лімітів, і з коробки індексує приватні файли. Але знову ж таки, немає тієї гнучкості яку дає свій RAG.

Технічно це не створення а розгортання

Підписатись на коментарі