Opencode + Ollama. Чи реально це може бути альтернативою підписці на Claude Code чи конкурентів?

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Хтось пробував використовувати безкоштовні варіанти ШІ асистента для написання коду?

Чи реально вони можуть давати результат на рівні з комерційними моделями типу Opus, Codex?

Я знаю про Opencode. У вебі є трохи відгуків, але часто це про ті самі комерційні моделі від Anthropic, OpenAI. Мене цікавить використання локально встановлених моделей з відкритими вагами (deepsek, llama etc).

Якщо є відкриті моделі з подібним рівнем результатів, то яке залізо треба мати? Наприклад, чи як буде воно працювати на Macbook Pro M4?

Базавого платного пакету за 20 дол мені не вистачає. А 200 дол якось дорого. Може є зміст купити нормальне залізо і використовувати безкоштовні варіанти?

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Максимум для автокомпліта, чи заміна чатгпт як довідник. Але для агентської роботи і написання коду не годяться.

Але це зараз так. Бачив на останніх макбуках на М5 з достойною швидкістю крутять 120b моделі. Може років через 2-4 будуть 600b моделі крутити, а це вже зовсім інша розмова. Звісно топові сучасні моделі не замінить, не говорячи вже ті, які будуть через 4 роки, но якусь роботу можна буде робити.

we have created claudish.com to run any model with cloude code. and it is a huge advantage for some specific tasks, for example use genimi for ui coding. and using 5 diffrent models to make a consensus.
res.cloudinary.com/...​/hfj8exdwqjxlc9qvjzrh.png

забудь!

для адекватной скорости для тяжелых моделей кроме объема памяти важно и bandwidth — все что ниже 800 GB/s — это детский сад. Из бытовых решений такая пропускная способность только у *m2/3-ULTRA* + нужно 256/512ram в том числе для кеша и тд. Ну или rtx pro 6000 на 96GB (для средних моделей относительно ок, большие все равно не влезут).

Итого тяжелые модели все равно будут сильно медленные для нормальной работы и они сильно-сильно хуже Opus, Codex. Мелкие модели — вообще полный шлак. Чтобы в этом убедится — арендуй почасово карты в облаке и протестируй.

В любом случае стартовый бюджет от 10к$ >> окупаемость в сравнении с подпиской за 200$/мес = 4+ года.
Через 2 года твое железо устареет и уже будет нецелесообразным на рынке. И еще раз — работать это все будет сильно хуже, медленней и костыльней чем подписка.

Якщо у вас є хоча б $50к −120к
То ви можете зібрати серверний тазік
На 1 або 2 терабайти оперативки (так оперативки і так хоча б 1 терабайт) далі потрібно хоча б 4 професійні відеокарти (не ігрових, і так 5090 то все ще дитячі забавки) тоді у вас буде можливість поганяти досить серйозні :700b моделі
Але опять таки є в мене сумніви що вона зможе хоч трохи порівнятись з тим самим антропіком.
А от якусь просту модельку замість встроєного автокомліта таки є сенс використати.
В любому випадку зекономити не вийде

P. S. Є контори які надають підписку на оренду подібного заліза. Але опять таки навіть план в 200 від антропіка буде дешевше :-)

Чи реально вони можуть давати результат на рівні з комерційними моделями типу Opus, Codex?

паблик модели всегда будут отставать, но в какой-то момент их начнет хватать

Якщо є відкриті моделі з подібним рівнем результатів, то яке залізо треба мати? Наприклад, чи як буде воно працювати на Macbook Pro M4?

нужен нормальный комп, а не хипстерская ерунда для посиделок в кафе. требования к каждой модели гуглятся, посмотри сам какие модели тебя интересуют

Базавого платного пакету за 20 дол мені не вистачає. А 200 дол якось дорого. Може є зміст купити нормальне залізо і використовувати безкоштовні варіанти?

ради экономии на базовых планах не стоит, оно не окупится

Всі ці безкоштовні варіанти — це абсолютно непотрібний хлам якщо ти займаєшся розробкою професійно. Я також думав як ти, потім зробив невеличкий тест на локальній Ollama. Суть теста була перевірити текст драйвера на вимоги, котрі описані у файлі (біля 50 Кб тексту, правил декілька десятків). Усі локальні нейронки нічого не знайшли (Claude Code знайшов 9). Ок, думаю спробуютепер безкоштовні нейронки в облаці (на більше чим 500b параметрів). Результат трохи краще — всі ці нейронки знайшли не більше 3-4 проблем невідповідності у драйвері. Для себе зрозумів, що локальні нейронки для програмування не підходять до програмування зовсім ніяк. На ті гроші, що ти купиш залізо ти можеш купити підписку Claude на декілька років.

GitHub Copilot + Remote Copilot MCP (мій open-source проєкт). Якщо коротко, користуючись Copilot ви платите за кількість чат реквестів, на відміну від Claude Code, де ви платите за API токени.

Простіше кажучи , якщо Copilot буде працювати 12 годин підряд, то ви заплатите тільки за 1 чат реквест.

Я вирішив скористатися цим , і написав MCP server. Тепер трачу в 5-10 разів менше, бачу по кількості використаних кредитів.

Ось гайд: github.com/...​card_feed-article-content

З мінусів: потрібно створити і налаштувати Telegram бота, а також створити групу і налаштувати доступи для бота. Спілкуватися з агентом через телеграм може бути трохи незручно, але коли ви не вдома, це навіть плюс.

Підписатись на коментарі