Що думають спеціалісти Open AI, AWS, та Microsoft про майбутнє AI. Чесні відповіді з AI Engineer World’s Fair 2025

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Всім привіт! Я провела три дні на AI Engineer World’s Fair у Сан-Франциско разом з 3000 найкращих AI-інженерів світу, CTO компаній з Fortune 500 та засновниками стартапів. Це третій рік конференції, і вона стала місцем, де провідні AI-лабораторії, компанії та інженерні команди показують свої останні роботи.

Я поговорила з інженерами та керівниками з OpenAI, Microsoft, AWS, Pydantic та YC-стартапів. Хочу поділитися їхніми відвертими думками та ключовими інсайтами, які визначають, як ми будемо будувати AI-системи у 2025 році та далі.

18 треків конференції охоплювали все: від MCP до reinforcement learning, AI і робототехніки. Домінуюча тема — AI-агенти, але специфічно агенти, готові до production-використання. Розмова змістилася від «що можуть робити агенти» до «як ми деплоїмо їх надійно та в масштабі».

Трошки про мене: я CEO компанії Droid AI (ex AWS, Microsoft, Microsoft Research). Допомагаю бізнесам з практичним впровадженням та інтеграцією AI. Працюю з проєктами AI-інтеграції будь-якого розміру, масштабу, рівня складності чи стадії: від ідеї до стратегії, дизайну та архітектури, інтеграції та оптимізації проєктів. Я рада, що можу робити обидві речі — вести бізнес з клієнтами та ділитися цінними, експертними, правдивими знаннями про AI зі спільнотою розробників.

Ця тема ніколи не була більш заплутаною, тому що всі намагаються вам щось продати. Майже весь контент створений для просування та маркетингу нового «революційного» інструменту, фреймворку чи підходу. Я знаю цю сферу зсередини і завжди рада поділитися чесними порадами та вічними техніками, щоб допомогти розробникам досягти успіху.

Якщо вам більше подобається формат відео, можете подивитися їх тут та тут, а також обов’язково підписуйтеся на мій канал. Буду рада зв’язатися з вами через LinkedIn, щоб ви не пропустили нові апдейти зі світу ШІ.

Про що говорять інженери — Q&A

Ось найцікавіші моменти наших розмов.

Питання: чи відчуваєте ви відповідальність за робочі місця, які усуне ваш код?

Samuel Colvin, засновник та CEO Pydantic:

«Ні, не думаю, що це правда. Програмісти останні 50 років з гордістю сиділи та заміняли людей, і ми, здається, були цілком задоволені цим. Тож думаю, це трохи карми, що тепер нас можуть замінити написаним кодом.

Дивіться, я не думаю, що ми скоро досягнемо AGI. У нас є ці штуки з величезною пам’яттю, величезним контекстним вікном. Вони не дуже розумні, але у них екстремально велика пам’ять. Вони можуть писати текст, який відчувається як людський. І ми думаємо, що вони розумні, тому що досі, коли ми зустрічали людей з величезними знаннями, вони часто були розумними. Ці штуки не розумні.

Я не думаю, що AI замінить розробку ПЗ. Але є жахливо багато рутинного коду, який ми всі писали. Деякі зробили кар’єру на його написанні — більше не потрібно, щоб це писала людина. Я не шкодую про це. Думаю, це добре. Це захоплююче.

Зараз у нас величезна потреба в написанні все більшої кількості ПЗ. Тож я не думаю, що багато хто втратить роботу. Поки що.»

Питання: якщо AI робить кожного розробника в 10 разів продуктивнішим, чи означає це, що нам потрібно в 10 разів менше розробників?

Dominik Kundel, спеціаліст з Developer Experience в OpenAI:

«Не думаю. Думаю, це змінить те, як ми працюємо.

Для мене особисто причина стати розробником завжди була в тому, що у мене було багато ідей, і я хотів перетворити їх на реальність. Думаю, багато розробників відчувають так само. А робота для багатьох перетворилася на фіксінг багів та роботу з беклогом.

Я виявив це сам, працюючи над agents SDK — я делегував багато завдань, які не хотів робити, агентам, щоб вони працювали на фоні, а я міг фокусуватися на речах, які дійсно важливі, які я хочу налаштувати за своїм смаком.

Є так багато попиту на ПЗ, і я думаю, це насправді дасть можливість більшій кількості людей будувати більше речей, а не те, що ми будемо будувати ту ж кількість речей з меншою кількістю людей».

Питання: що переоцінено vs недооцінено в AI?

Banjo Obayomi, Senior Solutions Architect в AWS:

«Переоцінено — думаю, багато хто в захваті від агентів, але не знають, як правильно їх використовувати. Ми бачимо багато захвату від агентів, але потрібно трохи сповільнитися, подумати про те, що ми намагаємося побудувати.

Недооцінено — голосовий conversational AI. Думаю, багато хто зробив великі кроки в цьому, але я не бачив багато крутих застосунків. Очікую побачити більше conversational AI agents застосунків. Тож це мікс.»

Shachar Azriel, віце-президент у компанії Baz:

«Переоцінено — vibe coding. Сподіваюся, люди не вб’ють мене, коли я буду йти з конференції.

Недооцінено — переконуватися, що згенерований код дійсно відповідає best practices команди і що код, введений у продукт, дійсно працює.»

Samuel Colvin, засновник та CEO Pydantic:

«Недооцінено — важливість type safety, статичної типізації тільки буде зростати. Відбувається кілька речей:

У JavaScript/TypeScript світі немає дебатів. Ніхто не думає, що потрібно писати JavaScript. Всі пишуть TypeScript. Думаю, те ж відбудеться в Python. Type checking від Astral, що дає нам дійсно швидкий open source статичний type checker та language server, знову зсуне стрілку в Python.

По-третє, якщо у вас AI агенти пишуть код, чи то cursor style або більш автономні coding агенти на кшталт Claude Code, вони люблять static type checking, тому що можуть перевірити точність написаного коду та зловити величезну кількість помилок.

Щодо переоціненого — не думаю, що MCP переоцінений. Я великий фанат. Думаю, це дійсно цінно. Сьогодні говорив про ’MCP is all you need’. Він дуже швидко зростав в адопції, і в деяких відношеннях люди, ймовірно, пропонують використовувати його для речей, для яких він не підходить. Потрібно бути обережними, використовуючи його для правильних речей, не для всього».

Питання: скільки ви особисто витрачаєте на AI-інструменти на місяць?

Rene Brandel, кофаундер та CEO Casco (YCombinator x 25):

«Мені потрібно порахувати. Я плачу за Cursor, Crunchbase — не впевнений, чи це рахується, але у них тепер AI-пошук. І Warp, Gemini, Claude, OpenAI. Я б сказав, рахунок приблизно близький до $1000 на цьому етапі. Максимальні версії більшості з них.

Ми стартап, тому намагаємося будувати речі якомога швидше. Наш підхід — коли нам потрібно робити швидко, ми запускаємо на кожній платформі одночасно, потім повертаємося та вибираємо найкращі результати. Це працює досить добре.

Ось ідея для стартапу: якщо ви можете побудувати щось, що запускає все це одночасно для мене і просто дає результати в кінці, я б заплатив і за це.»

Tanmai Gopal, кофаундер та CEO Hasura і PromptQL:

«Я б сказав, ми забюджетували близько $100-120 на людину на місяць — це наш бюджет. Так мені подобається про це думати. Не знаю, скільки ми використали з цього бюджету, але це приблизний бюджет.

На чисті AI-інструменти ми витрачаємо — бюджет десь між 100 і 300K. Приблизно так.»

Питання: яка частина вашої роботи буде автоматизована через рік?

Banjo Obayomi, Senior Solutions Architect в AWS:

«Я б хотів, щоб деякі зустрічі були замінені автоматизацією. Я намагаюся зробити агента, який може відвідувати зустрічі за мене, як Banjo-агент для першого дзвінка. Тому що іноді я приходжу на зустріч, і люди задають дуже базові питання. Якби AI-агент міг це робити за мене, а я підключався тільки коли необхідно, думаю, я б хотів, щоб це було автоматизовано. І я активно намагаюся побудувати агента для вирішення цього для себе.»

Shachar Azriel, Віце-Президент у компанії Baz:

«Одна з речей, яка дратує людей — AI забирає речі, які вони люблять робити. Я малюю і люблю малювати. Тож коли хтось каже мені, що мені більше не потрібно це робити і AI згенерує це для мене — я не хочу цього. Не хочу, щоб AI забрав це у мене. Я хотів би, щоб він складав мою білизну та прибирав будинок натомість.»

Питання: яку пораду дати тому, хто тільки починає в tech?

Jim Bennett, провідний спеціаліст з Galileo:

«AI не піде. Ви повинні його вивчити. Знайте про інструменти. Не бійтеся інструментів, але розумійте — AI це просто інструмент, і він помиляється. Тож так, ви можете vibe-кодити застосунок, але це не production-ready застосунок. Вивчайте інструменти, вивчайте основи теж. Коли ваш vibe-кодований застосунок зламаний, ви зможете зрозуміти достатньо, щоб полагодити.»

Tanmai Gopal, кофаундер та CEO Hasura і PromptQL:

«Дійсно важливо повернутися до first principles комп’ютерних наук. Це дійсно важливо — повернутися до них і позбутися жаргону.

Багато розробки за останні 10-15 років стало про те, хто знає останній жаргон у правильний момент часу. Хто знає останні інструменти, останні фреймворки. Це все ще там. Навіть на цій конференції — „О, це останній інструмент, остання техніка, останній фреймворк, давайте використовувати“. Це має припинитися.

Ми повинні зрозуміти фундаментальні принципи того, як речі працюють. Будь-яка робота, будь-який продукт, який ви будуєте, що поглиблює це розуміння first principles, важливий. Це важливіше, ніж будь-коли, тому що все зверху AI зробить. Мені навіть не важливо, який останній фронтенд-фреймворк зараз, тому що я просто кажу ’побудуй це для мене’. Мені все одно. Це більше не важливо.»

Priyanka Vergadia, Senior Director у Microsoft:

«Ви, ймовірно, повинні більше часу витрачати на отримання first principles про те, що ви візьмете з собою як навичку — здатність вчитися, здатність бути креативним, здатність вести бізнес, і набір навичок, який більше на м’якій стороні — здатність краще презентувати себе. Ці речі — навички, які ніколи не викладають у школі, і потрапляють у категорію soft skills, які стануть все більш важливими в кожній роботі, навіть технічній».

Питання: яку навичку має вивчити кожен програміст у 2025?

Samuel Colvin, засновник та CEO Pydantic:

«Думаю, є багато людей, які думають, що їм не потрібно вивчати фундаментальні принципи хорошої розробки ПЗ, що я б широко назвав computer science. Думаю, це все ще неймовірно цінно, навіть якщо агент пише код за вас. Це дуже схоже на наявність інтерна. Тож я б не вказав на якусь конкретну технологію. Думаю, кожному потрібно використовувати AI, але бути цинічним і припускати, що він помилиться. Так само як якщо у вас є інтерн — дуже цінно, що він робить роботу за вас, але ви не приймете це verbatim і не припустите, що це правильно.»

Питання: що вивчати дітям, які починають у tech?

Darko Mesaros, принципал адвокат з AWS:

«Є дві речі. Перше — їм потрібно навчитися вчитися, тому що це абсолютно змінюється. У минулому потрібно було вчитися з книг, докладати зусиль. Сьогодні вам дають знання безкоштовно, що завгодно. Думаю, спосіб, яким діти вчаться, яким ми вчимося, має змінитися. Ми повинні використовувати переваги цих інструментів, але також переконатися, що інформація залишається в якійсь core-частині наших навичок. Інакше ми просто отримаємо інформацію, яка може бути неправильною в майбутньому. Тож вчитися вчитися, змінювати спосіб навчання. У мене немає рішення — вчителі, ви ті, хто повинні придумати рішення.»

Провокаційна думка про Python:

«Номер два — діти повинні припинити використовувати Python. Кінець історії. Припинити використовувати Python. Вислухайте мене. Є так багато кращих мов, не тому, що я фанатка мов, але тому, що якщо ви збираєтеся використовувати coding assistants для написання вашої мови, ви повинні використовувати дуже безпечну мову.

Що я кажу — ви повинні використовувати мову, яка компільована, статично типізована, безпечна. Якщо ви віддаєте всі завдання кодування AI-асистенту, ви можете також дати йому мову, яка більш робастна і не схильна до збоїв під час виконання. Це означає, ви зловите помилки рано, під час компіляції, під час лінтінгу, замість того щоб він просто крашився посеред рантайму. Це теплий тейк, але я дуже рекомендую людям це робити, тому що тепер у вас є інструменти для цього.»

Julie Gunderson, директор з Freeman & Forrest:

«Вам все ще потрібно вчитися писати, критично думати. Ми можемо використовувати ці моделі, щоб змінити спосіб навчання, але є критичні навички, з якими моделі просто не справляються. І цей шматок критичного мислення, шматок людської взаємодії — вам все ще потрібно на це фокусуватися.

Але інша річ — адаптивність. Все змінюється так швидко зараз. Вам потрібно — або мені слід сказати, нам потрібно, можливо, новому поколінню не потрібно так багато — вийти з зони комфорту і бути готовими пробувати нове і не боятися.

Коли все інше не працює, вивчіть ремесло.»

Питання: який найбільший виклик в AI потрібно вирішити?

Suman Debnath, принципал AI-адвокат з AWS:

«Їх багато. Для початку, я особисто бачу, що багато роботи йде навколо evaluation та observability. Рік тому ми були дуже схвильовані цими LLM, і вони могли відповідати на наші питання. Це дуже загальне завдання. Але тепер моделі такі зрілі та можуть добре міркувати, розробники та клієнти хочуть знати, чому вони дають таку відповідь.

Observability та evaluation — наскільки ця відповідь релевантна моєму запиту. Думаю, це дві речі, які більшість клієнтів, особливо enterprise, шукають, окрім просто великої моделі, яка може добре узагальнювати. Було багато роботи з Langfuse, якщо подумати, і Arize. Всі працюють над тим, щоб ми могли отримати гарне розуміння того, що модель відповідає і наскільки це релевантно нашому use case.»

Darko Mesaros, принципал адвокат з AWS:

«Думаю, головний виклик AI зараз — ми дали всім цей дивовижний молоток, і всі бачать цвяхи. Всі намагаються використовувати generative AI для всього. Речі, які не повинні використовувати generative AI, раптом використовують його. Причина в тому, що це так легко — просто сказати моделі „перейменуй мої файли“. Моделі не повинні це робити. Ви можете написати щось, що це робить, тому що це набагато більш cost-ефективно, енерго-ефективно і швидше.

Думаю, освіта людей про те, як і де AI повинен існувати в тому, що ви будуєте — критичний елемент. Повинні існувати фреймворки, які допомагають навіть генерувати код для певних завдань, які AI не повинен робити. Наприклад, якщо у вас AI модель, яка парсить JSON в CSV, замість парсингу вона повинна просто згенерувати шматок коду, який буде це робити назавжди. Трохи більше на стороні оптимізації, як з точки зору інструментів, так і з людської перспективи. І вони повинні використовувати AI для речей, для яких вони повинні використовувати AI.»

Мої головні висновки та спостереження

Після трьох днів занурення в передову AI-інженерії, ось ключові патерни, які я побачила.

1. Специфікації стають продуктом

Компанії поміщають свою бізнес-логіку в markdown-файли (claude.md-файли), які кажуть AI-агентам, як працюють їхні системи, що роблять їхні API, що означає їхній домен. І це не просто промпти — це справжні специфікації для AI-native компаній. Вони версіонують їх, тестують, покращують. Ваша перевага не в згенерованому коді. Вона в тому, наскільки точно ви виражаєте, що потрібно побудувати.

2. Evals обов’язкові, не опціональні

LLM outputs — ймовірнісні результати, які дрейфують з часом. Те, що працювало вчора, може провалитися завтра. Компанії прикріплюють pass/fail-перевірки до кожного кроку пайплайна, кожного retrieval, кожного виклику інструменту. Думайте про evals як про unit тести для традиційного коду. Якщо ви їх пропускаєте, ваш агент стає непередбачуваним.

3. Інтелект рівня GPT-4 коштує в 100 разів дешевше, ніж у 2023, але ми використовуємо у 20 разів більше compute на запит

  • Мільйон-токенні контексти.
  • Reasoning-моделі, що виводять у 10 разів більше токенів.
  • Agent-ні workflows, що зв’язують десятки викликів.

Патерн: коли AI стає дешевшим за токен, ми схильні використовувати експоненційно більше токенів.

4. MCP створює business-to-agent економіку

Model Context Protocol дозволяє AI-агентам автономно виявляти та використовувати сервіси. Amazon приєднався до керівного комітету MCP. AI-агенти стають клієнтами з бюджетами. Якщо ваш продукт не agent-friendly, ви будете невидимі для автоматизованих покупців.

5. Команди стискаються, поки output вибухає

  • Одиночні інженери оркеструють те, що вимагало департаментів.
  • 10-person стартапи конкурують з тисяча-person компаніями.
  • Справа не в меншій кількості людей. Справа в тому, що кожна людина стає драматично більш здатною через AI-оркестрацію.

6. Моделі стають агентами

Ми провели рік, будуючи scaffolding навколо LLM — agent frameworks, routing logic, memory systems. Тепер багато з цього переїжджає в моделі. Нові reasoning-моделі планують, відкочуються назад, використовують інструменти, підтримують контекст внутрішньо. Фокусуйтеся на тому, що унікально ваше — дані, доменна експертиза, семантичний шар — і дозвольте моделям обробляти агентну логіку.

7. Документація стає все більш важливою

AI-агенти можуть використовувати тільки те, що розуміють. Краща документація означає кращу AI-продуктивність, більш щасливих клієнтів і більше revenue. Компанії створюють семантичні шари — структуроване доменне знання, яке стає тренувальними даними, контекстом агента та операційними guardrails. Ваш семантичний шар — це ваш moat.

8. Швидкість виконання та довіра — єдина стійка диференціація та перевага

Я вважаю, існує три стратегії для продуктів, стартапів та бізнесів, щоб виділитися, коли LLM стають кращими, а старі підходи до диференціації більше не працюють.

Для багатьох завдань вартість праці зменшується, коли Claude або Gemini можуть виконати 80% роботи за вас. Досвідчений інженер у парі з хорошим LLM тепер може відтворити покращений клон конкурента іншого стартапу за частку часу.

Стратегія #1. Станьте найбільш надійним варіантом

Ця стратегія складна, бо йдеться про довіру людей, відносини та сприйняття. Будуйте банк довіри — це вимагає послідовності та побудови репутації. Коли люди пробують ваш продукт чи бізнес і якість погана, вони не повернуться. Коли вони мають чудовий досвід кожного разу, це додається до банку довіри.

Фундамент банку довіри — це впевненість, що ви розв’язуєте релевантну проблему, яку мають всі.

Стратегія #2. Будьте першими в якості за конкретним виміром, потім інновуйте активно та швидко

Як поділилася Сара Гуо, виконання — це moat. У всіх є ідеї. Але перевага в тих, хто виконує. Виконуйте першими, виконуйте краще, виконуйте швидше, і продовжуйте виконувати добре, коли зростаєте. Для мене це еквівалент: будьте першими, працюйте розумно, працюйте наполегливо і не здавайтеся. Коли AI реплікує фічі за години та регенерує кодові бази з нуля, швидкість важлива — як швидко ви шипите, ітеруєте, інкорпоруєте фідбек. Будуйте для швидкості — автоматизоване тестування, continuous deployment, feedback loops. І переконайтеся, що не забуваєте про якість, тому що якість йде першою. Але в AI-еру вам потрібні і якість, і швидкість.

Стратегія #3. Не зіпсуйте

Коли ви говорите з потенційними клієнтами та спільнотою, не зіпсуйте це, даючи їм продуктовий пітч. Докопайтеся до суті проблеми, яку вони намагаються вирішити, і йдіть звідти. Найкраща стратегія продажів — це змусити клієнта самостійно прийти до висновку, що ваш продукт чи бізнес найкраще підходить.

Коли вони бачать, що ви дійсно хочете допомогти їм розв’язати їхню проблему, вони будуть набагато більше прагнути вести з вами бізнес. Я сиділа з Емілем Ейфремом, засновником Neo4J, за обідом на конференції. Він поділився мудрими думками про те, як підхід, орієнтований на розробників, добре спрацював для Neo4j. Ми також говорили про чудову книгу Алістера Кролла — Just Evil Enough та креативні й автентичні техніки, які вона описує (обов’язково до прочитання).


Пам’ятайте: AI — це 6-річний Ейнштейн. У нього величезна пам’ять, але не обов’язково глибоке розуміння. Ваша роль — направляти його правильно.

Сподобалась стаття? Підписуйтесь на автора, щоб отримувати сповіщення про нові публікації на пошту.

👍ПодобаєтьсяСподобалось11
До обраногоВ обраному2
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Наразі, стан АІ і все, що довколо нього, виглядає наступним чином: «просто додай АІ». Тобто, замість того, щоб вирішувати фундаментальну проблему, її затуляють фронт-ендом у вигляді АІ, і думають, що це вирішує питання.
Нагадує те, як в Україні намагались всі державні послуги/процеси цифровізувати. Результат буде такий самий: щось дійсно стане зручніше, однак, фундаментальні речі не зміняться.
Привіт паспорт у Дії, який ніде не приймається, окрім, як показати патрульному поліцейському.
Так само код, написаний АІ: який в ньому сенс, якщо він регулярно пише дурню, яку треба дуже уважно перепровіряти?

Ні безпеки, ні аудиту

Що саме ви маєте на увазі? На практиці, всі базові AuthN/AuthZ підходи, які ви використовуєте з класичним HTTP REST API, так само добре працюють і для MCP HTTP: API keys, bearer tokens, OAuth 2.0/JWT flows, etc.

Не думаю що це проблема самого протокола. Це проблема конкретної імплементації MCP, в даному випадку гтіхабовського, тобто application layer, це його задача робити авторизацію і чистку даних, які MCP сервер видає. Навіть не уявляю як такі атаки ловити на рівні протокола.

100% не проблема протоколу, а імплементації, автор схоже не зовсім розуміє як на практиці створювати MCP сервери.

на етапі векторизації ембедінгів та формуванні контекстів
а правила авторизації виглядають як розмальований граф...

якщо потрібна AuthZ частина — тобто розділення по рівням доступу, по ролям, групам — то наприклад в RAG pipeline потрібно з кожним vector embeddings асоціювати необхідні метадані (категоризація даних: public/protected/restricted; яким ролям/групам дозволений доступ; etc.), по яким відфільтровуються vector embeddings для формування контексту

ні взаємодії з контекстом в реальному часі

Можете теж прояснити, що саме ви маєте на увазі? MCP — це протокол, основним фокусом якого є дати можливість AI агентам отримати додаткову інформацію від зовнішніх систем. А зовнішнім системам — дати можливість надавати таку інформацію AI агентам по їх запиту. Він односторонній по своїй суті, в тому сенсі, що лише AI агенти можуть ініціювати запити до зовнішніх систем.
MCP базується на JSON-RPC 2.0, що по своїй суті є stateless. Тому це задача агентів надати необхідний контекст при кожному запиті, кожен запит повинен бути self-contained. Звичайно можна розширити імплементацію MCP серверу, і використовувати conversation ID при взаємодії з агентом — але то вже дещо інша історія.

>Він односторонній по своїй суті
Ні — там є чітке розділення на Tool, Resource, Prompt.
От у ресурсів є схема й capabilities.

Як це відноситься до мого оригінального речення:

Він (MCP protocol) односторонній по своїй суті, в тому сенсі, що лише AI агенти можуть ініціювати запити до зовнішніх систем.

де мова йшла про ваше незрозуміле твердження, що в MCP:

МСР як протокол — лайно. ..., ні взаємодії з контекстом в реальному часі.

ваша лінка — про «expose resources to clients» — про standardized way надання інформації про можливості MCP серверу для клієнтів

Багато-агентні системи й self-supervision в моделях для вирішення типових проблем reinforcement learning’у з людино-feedback’ом
self-supervision
reinforcement learning

— це різні речі

грубо-кажучи нема підходів до кешування проміжних результатів

— ну чому — є, ніщо не заважає вам зберігати проміжні результати в базі, наприклад, в Redis, і мати orchestrator («master agent»), який коректно ініціалізує state і продовжить роботу з того кроку де зупинились (наприклад, отримали відповідь від користувача).
В самій простій імплементації — зберігаєте `conversation_id`, `step_id` (`agent_name`), `input_payload`, `output_payload`, і відтворюєте state.

як ваша лінка arxiv.org/pdf/2505.01441 спростовує

self-supervision
reinforcement learning
— це різні речі

?
ви некоректно змішуєте RL алгоритми з виконанням агентів, якщо коротко: RL алгоритми відповідають лише за етап _тренування_ агента (моделі), а під час самого _виконання_ агент просто застосовує результат без жодних процедур навчання

Багато-агентні системи й self-supervision в моделях для вирішення типових проблем reinforcement learning’у з людино-feedback’ом ... — грубо-кажучи нема підходів до кешування проміжних результатів ...
redis в nccl як збираєтесь пихать ?

Яким чином NCCL, XDMA та AWS Inferentia — інструменти для розподіленого GPU-тренування та інференсу — стосуються Redis і мульти-агентних систем з human-in-the-loop?

Якщо не знаєте нічoго про прод — хоча б мали б сором, й не фантазували дурні...

та вже всім зрозуміло хто і що знає ;)

З іншого боку впровадження сучасного 5G й 6G неможливе без відповідних AI алгоритмів

не зовсім зрозумів — можете будь-ласка прояснити, що саме ви маєте на увазі?

>>З іншого боку впровадження сучасного 5G й 6G неможливе без відповідних AI алгоритмів
>не зовсім зрозумів — можете будь-ласка прояснити, що саме ви маєте на увазі?
Можна про таке пробувати питати агенти...

Те що ви запитали в агентів не дало відповіді на моє питання)) — а саме чому ви вважаєте що:

впровадження сучасного 5G й 6G неможливе без відповідних AI алгоритмів

?))

Ответ: внедрение возможно без AI алгоритмов, и, скорее всего, так и будет сделано. Но никто с вами серьезно не будет разговаривать, если вы хотя бы 2 раза не упоминаете AI в каждом преложении своего питча, поэтому надо рассказывать как AI будет бороздить просторы.

Не бачу сенсу сперечатись з моральними каліками, які на кожен чих переходять на особистості.

ніхто не переходив — окрім вас)
відсортуйте повідомлення по timestamp — зробіть висновки

повертаючись до мого оригінального запитання:

>З іншого боку впровадження сучасного 5G й 6G неможливе без відповідних AI алгоритмів
не зовсім зрозумів — можете будь-ласка прояснити, що саме ви маєте на увазі?

припустимо я не слідкую за 5G, 6G розвитком і технічною стороною впровадження їх на практиці — що я очікую і інші? — коротку змістовну відповідь типу: робоча група/провідні виробники 5G, 6G рішень дійшли до висновку, що подальший розвиток 5G й 6G не можливий без відповідних AI алгоритмів, що дозволять ...
^^^ все — отримали б жирні лайки
а що ми маємо зараз?

токсичних неконкуртеноспроможних дилетантів
моральними каліками
Можу лише побажати смерті

в реальному житті з таким підходом буде складно (якщо взагалі можливо) — та й в віртуальному теж

не знаючи вашу ситуацію — не буду судити

бо є особиста потреба принизити

^^^ можливо це

>Якщо не знаєте нічoго про прод — хоча б мали б сором, й не фантазували дурні...
та вже всім зрозуміло хто і що знає ;)
Посортував.

^^^ бо отак правильно)

шматок радянського непотребу.
>>бо є особиста потреба принизити
>^^^ можливо це

припущення підтвердилось

Ну бо нісенітнеці верзе...

починаючи з вашого першого пункту

1. МСР як протокол — лайно. Ні безпеки, ні аудиту, ні взаємодії з контекстом в реальному часі.

можна би було ставити крапку, але якщо задача дискусій на форумі прояснити деталі, дізнатися щось нове, дійти до спільного знаменнику — то аргументовані відповіді всім допоможуть
перечитайте що саме вас питали — і ваші відповіді

NCCL, XDMA, AWS Inferentia, multi-agents, MCP, людино-feedback, RL training algorithms vs. inference — у вас «змішалися люди й коні» — розставте все по поличкам — де, коли і як все це використовується, які use cases, user stories вирішує

бо інакше

в реальному житті з таким підходом буде складно (якщо взагалі можливо) — та й в віртуальному теж
не виправдовуй російську агрессію.

це взагалі про що?
вважаю сенсу продовжувати дискусії з такими «персонажами» не доречною — лише трата часу

а що сталося?) чому потер коментарі?

тут модерації один хер на вихідних нема — трохи допомогаю місцевим...

пишу токсичні коментарі — потім «модерую»
*логіка))

1. МСР як протокол — лайно. Ні безпеки, ні аудиту, ні взаємодії з контекстом в реальному часі.

Лол, яку безпеку чи аудит ви від нього очікували? Він простий як пробка, це лише простий інтерфейс для взаємодії ЛЛМ з зовнішнім світом, з чим він прекрасно справляється. Вот транспорт у нього говно, замість якогось банального, простого REST протоколу, лише STDIO і якийсь костильний стрімінговий http (server side events) поверх STDIO.

PS що таке «взаємодія з контекстом в реальному часі?»

Думаю, що ШІ менеджери зможуть ефективно поневолити психів (подібних мені, наприклад)
Тобто, те, що звичайному менджеру буде токсичним, через ШІ прослойку таким вже не буде.
Та й псих буде радий, що у нього не просто є оплачувана робота, але й що його чудну мову, дивний стрій речень розуміють та використовують його досягнення для виготовлення продукту. Псих у якості гарного старанного працівника, за допомогою ШІ агента, можливо вже не є ненауковою фантастикою.
Людина — ШІ — інша людина (така схема)

Команди стискаються, поки output вибухає
Одиночні інженери оркеструють те, що вимагало департаментів.
10-person стартапи конкурують з тисяча-person компаніями.
Справа не в меншій кількості людей. Справа в тому, що кожна людина стає драматично більш здатною через AI-оркестрацію.

Так, це насправді піднімає швидкість кодінгу в рази.
Тепер не скажеш що цілий тиждень код писав для фічі(

Ну... із останнього: три дні питав як вирішити проблему у ШІ, потім знайшов за 15 хвилин як вона вирішується на Stack Overflow. Проблема — не хочеться гуглити, хочеться спілкуватися.

Ну і в цілому я припускаю, що можна цілий тиждень називати ШІ ідіотом, придурком, дегенератом, замість того, щоб за годину зробити.

Тепер скажеш що тиждень розбирався що там наговнокодив той сонет

Класна стаття, таких мало на Доу.

якщо у вас AI модель, яка парсить JSON в CSV, замість парсингу вона повинна просто згенерувати шматок коду, який буде це робити назавжди

Але буде навпаки) хіба що придумають щось типу npm/maven для АІ, де рішення вже будуть у вигляді пакету/коду

Показник прогресу AI — він може закривати issue в open source. Це приблизно real life завдання яке вимагає знання коду та експертизи в репозиторії.

Коли я думаю як AI змінить програмування, то замість гадання можна просто спиратися на попередній досвід.
Перші програми взагалі були у бінарному коді на перфокартах. Потім аби людині простіше розуміти коди команд — придумали Assembler. Його досі використовують і називають «мовою низького рівня». А далі почало розвиватися те, що назвали «мовами високого рівня». Чому? Бо вважалося що вони ближче до людської мови!
Тобто фактично сучасні LLM моделі AI стають «мовою найвищого рівня» — остаточно дозволяють «писати програми» для комп’ютерів мовою людини. Це ніби робить усі попередні мови програмування «високого рівня» — застарілими.
АЛЕ! З людською мовою є проблема, з якою вже багато років стикаються на практиці у різних професіях. Мабуть найбільш очевидна вона у юриспруденції. Проблема така: людська мова багато — змістовна. Одне і те саме слово може мати різні значення у різних реченнях. І навіть ціле речення може мати різні значення, залежно від контексту. І це не кажучи про прикметники, які часто відображають не смислове навантаження, а мають передати людські емоції. Кожна людина по-своєму уявить «сумне мокре дерево», але жодна машина не збагне як це дерево «сумне». Далі більше: якщо послухати живе спілкування людей, то воно дуже часто побудовано на фразеологізмах і місцевій культурі. Аби у цьому переконатися достатньо просто поїхати у інше місто, де розмовляють ніби на той самій мові. Але спочатку ви не будете розуміти і половини розмов, які почуєте між місцевими.
Саме тому юриспруденція оперує штучно обмеженою людською мовою. Де кожне слово має тільки одне фіксоване значення, з речень прибираються усі зайві прикметники і додається максимум конкретики. Також існує багато термінів, специфічних саме для цієї галузі. А далі ще є підзаконні акти та постанови, які пояснюють як закон втілюється для конкретної галузі. І усе одно остаточне трактування і рішення (поки що) виносять живі судді.
Фактично створюється те, що колись у програмуванні звалося DSL (Domain Specific Language). Такі самі DSL існує у наукових роботах, медицині, описанні патентів, інженерній документації. Усюди свої терміни, правила побудови речень, шаблони документації. Штучно обмежена людська мова = DSL.
Отже якщо казати про «програмування AI», яке замінить сучасні мови програмування, то воно так само буде «не для усіх». Кожен зможе щось наказати AI, але аби отримати саме бажаний результат — треба мати фах і правильно викласти задачу. Там само як кожен може прочитати закони — але аби оперувати ними люди вчаться роками.
Отже аби відповісти на питання чи може AI замінити людину я наведу одну аналогію. Уявіть що у вас є чарівна лампа з ув’язненим джином. Джин може виконати будь-яке бажання. Але він думає зовсім не так, як хазяїн. І більше того — він не зацікавлений максимально задовільнити хазяїна. У випадку джина навіть гірше — казки кажуть що оскільки джин — раб, то він намагається як може помститися своєму хазяїну!
Отже, теоретично, такий джин може замінити усі професії і створювати усе з нічого. Але як тільки хазяїн хоч на одне слово помилиться у формулюванні свого бажання — воно обернеться проти нього. Як це найчастіше і описано у казках. Саме тому за легендами тільки найбільш досвідчені розумники типу царя Соломона вміли працювати з джинами і не загинути.

ви можете також дати йому мову, яка більш робастна
Це теплий тейк
стартапи конкурують з тисяча-person компаніями

Ват е б’ютіфул мова. Звучить modern та вері ефектів.

Йестердей ай хед е кластер даун
Так ці поносші такого нарадили що аж шіверс он зи бек пішов, півмексики було би без інтернета

А вранці читаю як одіночки будуть робити роботу цілих департаментів

Хайп маст гоу он. Новий красивий хайп замість старого некрасивого

Не останні люди в розробці сервісів і тулзів, якими ти користуєшся в харківській галері

ойяваспрошу

шо не плюнь так попадеш в цео з важливою думкою про ейай

не стаття а прям венігрет з важливих людей

Ти там що з нехарківської галери вже водіночку вже департамент оркеструєш? Використовуєш стратегію «Не зіпсуй»?

Заголовок — «Що думають інженери» В статті: СЕО, devrel, адвокати та інші директори.

Ну є один...

Jim Bennett, провідний спеціаліст з Galileo:

«AI не піде. Ви повинні його вивчити. Знайте про інструменти. Не бійтеся інструментів, але розумійте — AI це просто інструмент, і він помиляється. Тож так, ви можете vibe-кодити застосунок, але це не production-ready застосунок. Вивчайте інструменти, вивчайте основи теж. Коли ваш vibe-кодований застосунок зламаний, ви зможете зрозуміти достатньо, щоб полагодити.»

самий критичний коментар.

Можна припустити, що він звучить більш адекватно саме тому, що його писав не CEO і не advocate (робота яких — впарювати), а більш приземлений фахівець.

Підписатись на коментарі