Найменша VLM: Hugging Face оголосила про створення двох суперлегких моделей

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Hugging Face оголосила про створення двох нових моделей. Розробники «релізнули» два нових доповнення для сімейства SmolVLM: на 256M та 500M параметрів відповідно. Модель 256M стала найменшою VLM у світі. Модель 500M дає суттєве прирощення продуктивності порівняно із 256М, залишаючись напрочуд легкою.

На питання, для чого потрібні такі маленькі моделі, автори проєкт відповіли:

«Після успіху SmolVLM 2B ми прагнули зробити модель ще доступнішою для пристроїв із обмеженими ресурсами, споживчих ноутбуків і навіть браузерного виконання. Нові моделі також значно дешевші у використанні для великих обсягів даних», — йдеться у повідомленні.

У коментарях зазначають, що можливо самі по собі моделі не мають широких можливостей для використання. Втім, можна створювати цілі ланцюжки із спеціалізованих, дуже нішевих агентів — і це може бути дуже потужним та «легким» рішенням. Пропускна здатність SmolVLM256M дозволить таким системами бути дуже швидкими:

За словами розробників, початком процесу стало зменшення двох 80B моделей до 8B. Після цього почали роботу над сімейством SmolVLM — наступним кроком було зменшення 2B моделі. І їм це вдалося: моделі на 256M та 500M параметрів продемонстрували себе відмінно на бенчмарках.

Для зменшення моделі обрали більш компактний енкодер зображень SigLIP base. Більший енкодер надавав ну дуже несуттєву перевагу, тому така зміна не вдарила по продуктивності. І це... все. Ну, майже все — розробники також провели оптимізацію в тренуванні.

Якщо цікаво спробувати використати суперлегку модель — розробники залишили невеличкий гайд. Він охоплює буквально декілька базових операцій. Також є більш просунута інструкція, як правильно донавчати ці маленькі моделі. Є також базові варіації, які не треба дотренувати, але це не основний продукт Hugging Face.

Також доступні WebGPU демки для моделей на 256M та 500M параметрів.

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному1
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Підписатись на коментарі