Людина чітко описує те саме що я пишу в статті. Бо коли ви вливаєте в репо о такий код який більший за обсягом і за складністю ніж код людини і робити це починаєте на швидкостях більших ніж команда збалансована робити — то це і є накачування репо техборгом.
А він зможе із ріалтаймовим діпфейком особи включатися на міт і базово відповідати? Ну і в слаку відповідати в стилі особи, враховуючи звичні паттерни мови (в т.ч.
таку функцію ви можете зробити самі. Для цього треба буде зробити кастомний MCP сервер і підключити його до вашого агента (нехай імя інструмента буде random_move_my_mouse).
Агент може працювати будь де якщо там можна запустити докер контейнер. Навантаження мінімальне. Він сам не робить якихось обрахунків.
А інструмента агента працюють окремо в тих середовищах де ви хочете виконувати якісь дії.
ну полностью это недостижимо, это как температура абсолютного нуля.
Коли я писав про 0–100%, я просто окреслював межі. Зрозуміло, що в реальності ми ніколи не знаходимося в крайніх точках. Це була лише модель для спрощення.
Було цікаво послухати і розібратись. Підписався — цікаво буде дивитись і наступні відео.
Що можна покращити — це говорити гучніше і чіткіше (наче виступ на сцені), бо чути наче шепіт. На швидкості x1.5 складно розібрати. Або ж трохи швидше все разом.
теорія системи не повинна жити тільки в головах
именно это я и имею в виду. мой личный опыт за все годы говорит о том, что хорошая актуальная документация — залог здоровья проекта.
Это в целом нормально. Вопрос в авторских правах и передаче sensitive data наружу. Я почти уверен, что к этому варианту рано или поздно придут почти все крупные игроки, которые смогут себе позволить развернуть LLM на собственных мощностях.
Коментарі