Mistral випускає Codestral, свою першу генеративну модель ШІ для коду

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Французький стартап у сфері ШІ Mistral (що підтримується Microsoft і оцінюється в $6 млрд доларів) випустив свою першу генеративну модель штучного інтелекту для кодування, яка отримала назву Codestral.

Про головне

  • Codestral навчена більш ніж 80 мовам програмування, зокрема Python, Java, C++ і JavaScript.
  • Модель може виконувати функції кодування, писати тести і «заповнювати» частковий код, а також відповідати на запитання про кодову базу англійською мовою.
  • З 22 мільярдами параметрів для запуску моделі потрібен потужний комп’ютер.

  • Mistral запустила хостингову версію Codestral на своїй платформі розмовного ШІ Le Chat, а також її платний API.
  • Компанія також працює над тим, щоб вбудувати Codestral у фреймворки застосунків і середовища розробки, такі як LlamaIndex, LangChain, Continue.dev і Tabnine.

Авторські права

Mistral описує модель як «відкриту», але це питання дискусійне. Ліцензія стартапу забороняє використовувати Codestral і його результати для будь-якої комерційної діяльності.

Є виняток для «розробки», але навіть він має застереження: ліцензія прямо забороняє «будь-яке внутрішнє використання співробітниками в контексті бізнес-діяльності компанії».

Причиною може бути те, що Codestral частково навчався на захищеному авторським правом контенті.


Як гадаєте, чого варто очікувати від цієї моделі? Чи вдасться їй набути такої ж популярності, як ChatGPT і Copilot?

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному1
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Якщо я пишу код використовуючи моментами ШІ, де самостійно складно, то де межа комерціалізації коду який виходить? 30/70%, де я пишу 70 а ШІ 30 відсотків, чи можне 95 на 5?

Цей Mistral як локальна LLM такий багатослівний, втомлююсь читати і чекати, поки він нагенерить кілька абзаців тексту, де достатньо кілька речень.

Хтось знає про успішні кейси як приватну кодобазу в ллм закинути? Які тулзи і сервіси для цього використовувати? Ну щоб можна було б запустити чатбота який би відповідав по твоєму репозиторію.

Всі ці асистенти копайлоти мають досить обмеженний контекст і знання, можуть відповідати максимум в межах одного файлу, не мають знання всього проекту і всієї кодобази.

Єдине що спадає на думку, це спробувати з допомогою llm згенерити документацію по функціям, класам, проектам, причому зробити це в кілька ітерацій так як документація по одному файлу без знання проекта буде так собі. А потім зробити RAG який би маючи документацію і запит від юзера, міг би знайти потрібні файли, а потім би ці файли + запит від юзера + загальну документацію проекта кинути в ллм. Але тут обмеженням буде контекстне вікно.

Хороше питання, про це думаю деякий час... Я поки що RAG не тягну, але попрацював з розробкою чат ботів на базі LLM.

Можна взяти велику мовну модель, і завантажити в її контекст кодову базу, зараз є LLM з розміром контексту у 128к токенів(наприклад Qwen2 або DeepSeek V2) , це солідна кодова база 128 тисяч слів...

Як гадаєте, чого варто очікувати від цієї моделі? Чи вдасться їй набути такої ж популярності, як ChatGPT і Copilot?

Навіщо там щось чекати? Сьогодні вже поставив її собі локально.

Хтось в курсі чи може ця модель робити «function call»?
Як на приклад huggingface.co/...​ma3-8b-Function-Call-v0.2

Підписатись на коментарі