Mistral AI випустила нові інструменти — Codestral Mamba і MathΣtral
Mistral AI представила дві нові розробки для розширення можливостей ШІ, зокрема MathΣtral — спеціалізована модель для математичних розрахунків та наукових досліджень, а також Codestral Mamba — моделей з відкритим вихідним кодом для генерації коду.
Codestral Mamba
Codestral Mamba — модель 7B, має можливість контекстного пошуку до 256К токенів. Спеціалізується на генерації коду, доступна під ліцензією Apache 2.0. Підтримує Python, Java, JavaScript C, C++, Swift, Fortran і Bash.
Моделі Mamba мають перевагу лінійного часового виводу та теоретичну можливість моделювати послідовності нескінченної довжини. Це дозволяє користувачам отримувати швидкі відповіді, незалежно від довжини вхідних даних.
Розгорнути Codestral Mamba можна за допомогою mistral-inference SDK, що спирається на еталонні реалізації з репозиторію Mamba на GitHub. Модель також можна розгорнути за допомогою TensorRT-LLM або ж завантажити сирі ваги з HuggingFace.
Для зручності тестування Codestral Mamba доступна на платформі La Plateforme (codestral-mamba-2407), поряд з її «старшою сестрою», Codestral 22B.
MathΣtral
Це специфічна модель 7B, призначена для математичних задач та наукових відкриттів. Модель має 32К контекстне вікно під ліцензією Apache 2.0.
Вона досягає найсучасніших у своїй розмірній категорії обчислювальних можливостей у різних стандартних галузевих тестах (досягає 56,6% в MATH та 63,47% в MMLU).
Вагові коефіцієнти розміщені на HuggingFace. Mathstral можна спробувати за допомогою mistral-inference і адаптувати за допомогою mistral-finetune.
MathΣtral доступна для використання та адаптації за допомогою інструментів Mistral AI.
5 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів