Це не проект від llama, meta etc.
Це просто назва, розробник Jerry Liu
А самі моделі можна використовувати від різних платних провайдерів, OpenAI як одна з опцій
Привіт
1) так, це особистий ключ, взятий на сайті OpenAI. Буде працювати з моделлю у хмарі. Можна також юзати локальні моделі або моделі не від OpenAI. Лінк на доку:
docs.llamaindex.ai/...e_guides/models/llms.html
2) в requirements.txt ці ліби є, тому в статті і написав першим кроком зробити
pip install -r requirements.txt
)))
3) по
ImportError: cannot import name ’LLM’ from ’llama_index.llms.base’
теж треба було робити сетап через requirements.txt, там вказана конкретна версія llama-index. Коли ви самі встановили без вказівки версії, встановилась остання, де цей модуль оновлений і перенесений.
Рекомендую все таки запустити pip install -r requirements.txt в корні проекту rags
Якщо ж команду встановлення requirements.txt запускали, перевірте чи ви інші команди виконуєте в тому ж віртуальному середовищі де її запускали.
В екосистемі LlamaIndex багато прикладів no-code чи low code) наприклад базовий приклад зі статті. Тому прям якогось особливого знання python не потрібно)
LlamaIndex може працювати і з зображеннями, і можна побудувати агента який буде відповідати на питання про них. Для цього будується multi-modal RAG
Приклади:
1) blog.llamaindex.ai/...ex-and-neo4j-a2c542eb0206
2) github.com/...red_image_retrieval.ipynb
Якщо іде розмова про заповнення картки продукта, то вже будуємо фреймворк який може, наприклад, отримати інпут від юзера, прогнати його та покращити через LLM, та оновити опис в БД за допомогою custom function call (platform.openai.com/...s/guides/function-calling)
Схожий приклад такого фреймворку:
1) lionagi.readthedocs.io/en/latest/index.html
2) llamahub.ai/.../tools-shopify?from=tools
Тут також використовується custom function call. Тобто Вам треба реалізувати необхідну логіку та комбінувати з застосуванням чат-боту
В Levi9 робили мобільний застосунок-асистент з харчування. За допомогою чатботу генерувався план харчування на тиждень (зберігався в БД), і за допомогою чатботу можна було внести зміни в цей план
Дякую за статтю! Робота з даними то складно, адже і менеджмент має бути максимально залучений та розуміти ціль.
Дуже добре всі необхідні трансформації описані в ddama dm book, але не варто її сприймати прямо як біблію для даних)
Можливо. Використовуючи LlamaIndex, TextToSql. Базові доки для дослідження:
docs.llamaindex.ai/...indices/SQLIndexDemo.html
docs.llamaindex.ai/...ther/structured_data.html
Також в блозі своєму вони писали на цю тему.
Девелоперам нема сенсу в цій сертифікації. Вона більше підходить менеджерам або трейні левам
Левам рекомендую одразу йти на associate level, досвідченим — на professional
В інструкції до екофлов пишуть не заряджати при температурі нижче нуля
Згадується січень — лютий 2022: підуть не підуть, можливість нападу і... Колосальне збільшення патронів на патреоні Повернись живим. Тому закликаю донатити як тоді, або більше!
savelife.in.ua/...#donate-army-card-monthly
Або зручний вам фонд)
Продовження доступне тут:
dou.ua/forums/topic/36362
Поки стекхолдери не можуть ставити нормально вимоги ми в безпеці
Дякую за відгук!
Я для себе вивчав Python та Machine Learning, тому вже був деякий досвід саме з мовою програмування. Також ми на проекті активно використовували AWS та я готувався до сертифікації — це дало необхідний бекграунд по самим сервісам. І, звісно, допомога дата архітектів з Levi9, які ревювили мої рішення та допомогали.
На мій погляд, потрібно підготувати технічний бекграунд,а потім змінити стек з яким працюєте. І це, звісно, буде простіше зробити на поточному місці роботи, якщо можливо.
Якщо Вас цікавлять матеріали які допоможуть розібратися в темі — напишіть, я Вам відправлю
В нашому випадку аналітика в реальному часі потрібна була для аналізу спеціальних пропозицій від партнерів. Так, звичайної гугл аналітики та таг менеджеру було замало)
Звісно, компресія типу gzip, lzop або bzip2 ще більше зменшать розмір файлу, але якщо початковий файл в parquet форматі він буде все одно легший за аналогічний в csv, навіть використовуючи стиснення. Ще важливо враховувати де файли застосовуються, наприклад які формати та стиснення підтримує Redshift та Athena. Про це буде більше в другій частині статті
Згоден, в плані ціни можна оптимізувати (наприклад, не використовувати API Gateway), але тут також накладаються внутрішні вимоги клієнта щодо розробки та, подекуди, необхідність залучення девопса, якщо піднімати все самостійно
Доброго дня1-погано, 10-добре
Треба дивитися безпосередньо на дані. На мій погляд це можливо, якщо долати боту додатковий контекст:
1) як соціально-економічні параметри району впливають на безпечність району? Типу задати йому правила що, умовно кажучи,
2) чи є дані про школи та парки та їх координати в датасеті? Якщо так, і знову таки задати правило як визначити, то бот може це робити
Якщо даних в датасеті немає, то можна побудувати агента, який буде шукати ці дані в інтернеті
Загалом, боти нормально працюють на числових даних, якщо є вказівки як з ними працювати