GitHub запустив GitHub Models — платформу для нового покоління інженерів зі штучного інтелекту

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

GitHub надає своїм понад 100 мільйонам користувачам доступ до найкращих великих і малих мовних моделей безпосередньо на вебсервері.

Розробники все частіше створюють генеруючі застосунки зі штучним інтелектом, де повний стек містить внутрішній і зовнішній код, а також одну або кілька моделей. Але багатьом все ще бракувало легкого доступу до відкритих і закритих моделей, тож GitHub вирішив це змінити.

Від Llama 3.1 до GPT-4o і GPT-4o mini, від Phi 3 до Mistral Large 2 — користувачі можуть отримати доступ до кожної моделі через вбудований ігровий майданчик, який дозволяє безкоштовно тестувати різні підказки та параметри моделі прямо на GitHub.

Також GitHub створив плавний шлях для перенесення моделей у середовище розробника в Codespaces та VS Code. А опісля Azure AI запропонує вбудований відповідальний ШІ, безпеку корпоративного рівня та конфіденційність даних, також глобальну доступність з передбаченою пропускною спроможністю та доступністю в понад 25 регіонах Azure для деяких моделей.

Відповідно до політики GitHub та постійної прихильності Microsoft до конфіденційності та безпеки, жодні підказки чи результати роботи в GitHub Models не будуть передані постачальникам моделей і не будуть використані для навчання чи вдосконалення моделей.

👍ПодобаєтьсяСподобалось2
До обраногоВ обраному1
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Це просто інтеграція Azure ML / AI Services в GitHub з єдиною маркетинговою ціллю — вивести ці продукти в дещо зміненій формі на ширшу аудиторію.

Сподіваюсь, розробників взяли з GitHub, бо команда Azure явно неспроможна в юзабельні сервіси адміністрування.

Ймовірно, вони навіть захоплять ринок, витісняючи Amazon BedRock, Google Vertex та дрібніших inference-провайдерів, наскільки це можливо в контексті дихотомії топових LLM (моделі Anthropic не поспішають на платформу Майків, OpenAI до Амазону, Google — взагалі нікуди не поспішають, a true-open тільки Meta і Mistral).

*Пішов інтегрувати нову Azure AI Inference client library for Python, що там використовується, в ai-microcore*

Цікаво чи правильно я розумію що замість виділеного серверу (що дуже дорого), оплата буде за токен. Поки доступний достатньо лімітований набір моделей сімейств:

Llama3
Llama3.1
Mistral
OpenAI
Phi
Cohere
AI21-Jamba

А ще зверніть увагу, що кожна така оплата це ваш безпроцентний внесок у чийсь великий та успішний бизнес. Тобто ви не кредитуєте цього бізнеса під слушний процент, а просто — віддаєте йому дорогоцінні гроші, які у іншому випадку могли б інвестувати — та хоча б у себе.

Підписатись на коментарі