AI Digest #1: публічний доступ до Gemini Pro, Stable Zero123, власний сайт Midjourney
Усім привіт!
Я радий повернутись на сторінки DOU та знов знайомити вас з останніми новинами та цікавими матеріалами зі світу ШI.
Для тих, з ким ми ще не знайомі, — мене звати Дмитро Сподарець, зараз я працюю DevOps архітектором у компанії Grid Dynamics, а також є засновником Data Phoenix.
Перед тим, як ми перейдемо до найцікавішого, трішки розповім про дайджест. Виходити ми будемо щотижня: знайомитимемося з останніми новинами, цікавими статтями та подіями, а також корисними порадами. Якщо ви хочете запропонувати матеріал для наступного випуску чи долучитись, щоб разом вести цей дайджест — пишіть мені в телеграм або тут у коментарях.
Останні новини
🤖 OpenAI Startup Fund анонсував відкриття прийому заявок для шеститижневої програми Converge 2.
🤖 Stability AI випустила нову генеративну модель під назвою Stable Zero123, що перетворює звичайне зображення у 3D-об’єкт, та анонсувала пакети членства, стандартизуючи комерційні права на використання їхніх основних моделей.
🤖 За тиждень після представлення Gemini Google анонсував публічний доступ до Gemini Pro через Gemini API.
🤖 Google DeepMind представила новий метод пошуку рішень у математиці та інформатиці — FunSearch, який працює на основі попередньо навченої LLM.
🤖 Midjourney розпочала тестування alpha-версії свого власного сайту, який дозволить користувачам створювати зображення безпосередньо на ньому замість використання Discord.
🤖 Microsoft Research випустив Phi-2 — нову версію своєї SLM (small language model), цього разу на 2,7 мільярди параметрів.
🤖 ЄС розширить підтримку ШI стартапів та відкриває доступ до власних суперкомп’ютерів для прискорення розвитку штучного інтелекту.
Цікаві статті та пейпери
🤖 Evaluating RAG Applications with RAGAs. Створити пілотний RAG аплікейшену легко, але важко підготувати його до продакшену. Ця стаття пропонує фреймворк з показниками та даними, згенерованими LLM, щоб допомогти вам оцінити продуктивність вашого RAG-пайплайну.
🤖 Deploy a Custom ML Model as a SageMaker Endpoint. Розробка моделей машинного навчання містить різні кроки: від збору даних до розгортання моделі. Ця стаття охоплює основні кроки, необхідні для розгортання вашої
🤖 Improve your Stable Diffusion prompts with Retrieval Augmented Generation. Ви коли-небудь замислювалися, як створювати промти для генерації високоякісних зображень? У цій статті пояснюється, як використовувати RAG для покращення підказок, надісланих до Stable Diffusion. Створіть власного AI-помічника для швидкої генерації промтів за допомогою LLMs.
🤖 Mastering Customer Segmentation with LLM. Яка ваша стратегія щодо наступного проєкту сегментації клієнтів? Будете покладатися на K-Means чи K-Prototype, чи спробуєте використовувати LLM? Який підхід найбільш ефективний? Прочитайте цю статтю, щоб дізнатися, чому модель, створена за допомогою LLM, виділяється.
🤖 ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation. Score distillation sampling (SDS) чудово підходить для перетворення тексту в 3D, але вона страждає від проблем перенасичення, згладжування та низької різноманітності. ProlificDreamer — це новий підхід до розв’язання цих проблем за допомогою variational score distillation (VSD) та інших методів.
🤖 PromptBench: A Unified Library for Evaluation of Large Language Models. PromptBench — це уніфікована бібліотека для оцінювання LLM. Вона розроблена як відкрита, загальна та гнучка кодова база для дослідницьких цілей, яка може сприяти оригінальним дослідженням у створенні нових бенчмарків, розгортанні застосунків і розробці нових протоколів оцінювання.
🤖 EdgeSAM Prompt-In-the-Loop Distillation for On-Device Deployment of SAM. EdgeSAM — це прискорений варіант моделі Segment Anything Model (SAM), оптимізований для ефективного виконання на периферійних пристроях з мінімальними втратами в продуктивності. EdgeSAM досягає
🤖 Generative Powers of Ten. Generative Powers of Ten — це новий метод, який використовує модель text-to-image для генерації послідовного контенту в різних масштабах зображення, що дає змогу екстремально семантично масштабувати сцену. Він забезпечує глибші рівні масштабування, ніж традиційні методи надвисокої роздільної здатності.
🤖 Amphion: An Open-Source Audio, Music and Speech Generation Toolkit. Amphion — це новий інструмент з відкритим вихідним кодом, що дає змогу створювати мовлення, звуки та пісні. Його мета — запропонувати платформу для вивчення перетворення будь-яких вхідних сигналів у загальний звук.
Цікаві події
21 грудня: офлайн DOU АІ Meetup
Теми:
- «Large Language Models (LLM): практичне застосування, виклики та майбутнє», Роман Кислий, Applied Data Scientist та ведучий AI HOUSE Podcast.
- «Microsoft Copilot Stack: створюємо власні копілоти», Краковецький Олександр, CEO at DevRain, Ph.D., Microsoft RD/AI MVP.
- «Efficiency in AI: практичні поради з оптимізації ШІ», Полухін Андрій, ML Engineer at Data Science UA and Samba.TV, Ph. D. Student, ментор в Projector Mentorship Platform, Teacher of Machine Learning at Hillel IT School.
25 січня: вебінар A Whirlwind Tour of ML Model Serving Strategies (Including LLMs)
Разом з Ramon Perez, який працює Developer Advocate у компанії Seldon, ми поговоримо про різні стратегії розгортання
Порада тижня
Якщо ви хочете автоматизувати тренінг ваших моделей, та знайти бюджетні GPU, рекомендую подивитись на open-source інструмент — dstack. Після того, як ви описали, що потрібно запустити у YAML-файлі, dstack самостійно розгорне потрібне середовище, виконає завдання, а після цього все видалить.
Наприклад, ми хочемо натренувати модель у AWS. Нам потрібно створити в директорії проєкту файл .dstack.yml
type: task commands: - pip install -r requirements.txt - python train.py
Та запустити тренінг, використовуючи команду dstack run. Звичайно, ще потрібно не забути встановити та налаштувати сам dstack
для роботи з AWS.
Дякую, що дочитали цей випуск до кінця. Сподіваюся, кожен знайшов для себе щось корисне. А якщо ви хочете ще цікавинок, приєднуйтесь до Data Phoenix-спільноти, а також підписуйтесь на мене в LinkedIn. До зустрічі за тиждень!
2 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів