Stability AI відкрила вихідний код своєї мовної моделі StableLM
Компанія Stability AI випустила набір великих мовних моделей (LLM) із відкритим кодом під загальною назвою StableLM та оголосила, що вони доступні для розробників для використання та адаптації на GitHub.
📌 Деталі
StableLM розроблена для ефективного генерування тексту та коду, подібно до ChatGPT. Вона навчена на наборі даних з відкритим вихідним кодом Pile, який містить інформацію з низки джерел, включаючи Wikipedia, мережу вебсайтів для питань і відповідей з різних тем Stack Exchange і систему для пошуку біомедичної інформації PubMed, пише видання ITC.
Моделі StableLM наразі доступні від 3 до 7 мільярдів параметрів, і ще від 15 до 65 мільярдів з’являться пізніше. Компанія спирається на свою місію зробити ШІ-інструменти більш доступними, як це було зроблено зі Stable Diffusion — інструмент для синтезу зображень був доступний у публічній демонстрації та бета-версії, а також є можливість повного завантаження моделі для експериментів розробників, зазначає видання The Verge.
Чатбот Stability AI можна випробувати в демонстрації на Hugging Face. Stability AI попереджає, що хоча набори даних, які він використовує, спрямовують чатбот на «безпечніше» розповсюдження тексту, «не всі упереджені чи токсичні відповіді можна пом’якшити шляхом тонкого налаштування».
Нагадаємо, нещодавно американська компанія Databricks випустила Dolly 2.0 — наступну версію своєї великої мовної моделі (LLM) з подібними до ChatGPT функціями. Це перша LLM з відкритим вихідним кодом та набором інструкцій для навчання у вільному доступі.
2 коментарі
Підписатись на коментаріВідписатись від коментарів Коментарі можуть залишати тільки користувачі з підтвердженими акаунтами.