Як AWS-сертифікація допомагає оптимізовувати витрати на проєкті

💡 Усі статті, обговорення, новини про DevOps — в одному місці. Приєднуйтесь до DevOps спільноти!

Привіт, мене звати Ігор Хаустов. Я Senior Cloud Engineer в Forte Group, і зараз тісно працюю з Amazon-сервісами. В цій статті я хочу зробити короткий огляд на сертифікацію AWS, чи варто її отримувати, і поділюсь способами оптимізації бюджетів в AWS Cloud, в яких я розібрався глибше саме після отримання сертифікації, і які допомогли мені прокачати мій рівень як спеціаліста.

Про сертифікацію

Для початку коротко нагадаю про рівні сертифікації AWS. Practitioner — найпростіша і підходить для нетехнічних людей. Її складають спеціалісти напрямку Sales, HR — тобто ті, хто неглибоко розбирається в AWS.

Наступний рівень Associate — для девелопера, архітектора, SysOps. Я склав усі іспити цього рівня.

І останній рівень Professional, який необхідний для DevOps та Solutions Architect.

Також є Specialty Certifications, назва яких говорить сама за себе: вони спеціально розроблені для сертифікації в конкретних напрямках — наприклад, в data science, big data, security, machine learning. Я планую складати наступним саме в галузі security.

Поділіться в коментарях нижче, хто теж планує отримувати сертифікацію AWS і якого рівня.

Для чого потрібна сертифікація

По-перше, якщо потрібні структурованіші і глибші знання для роботи в AWS. До сертифікації я вчив AWS по відео в YouTube, читав різноманітні мануали, набивав шишки на практиці.

Але саме сертифікація допомогла мені все розставити по місцях в голові. Перед тим, як я складав сертифікацію SysOps, то знав загальні речі про CloudWatch. Але саме після сертифікації я вивчив це вздовж і впоперек і зрозумів, що в CloudWatch є круті можливості, які особливо ніхто не використовує (як, наприклад, фільтрація логів, можливість знаходити помилки по фільтрації).

Цей мобільний інструмент дуже спрощує роботу. Згадую, як освоїв, що CloudWatch-метрики можна поставити на локальні сервери, і це реально круте робоче рішення для багатьох проєктів. Сертифікація звертає увагу на такі деталі, які і роблять тебе професіоналом з problem-solving skills.

Ще один приклад. Девелопери часто пишуть connections до бази даних. Саме сертифікація допомагає розібратись, як краще це зробити, як можна пофіксити помилки, що краще зробити в коді для цього конекшену.

Крім цього, сертифікований спеціаліст починає глибше розбиратись в питаннях FinOps або, простіше, оптимізації затрат клієнта на AWS, а це вже зовсім інший рівень професіоналізму. Про це я розповім нижче в статті, адже саме складаючи іспит на сертифікацію, я заглибився в питання оптимізації бюджетів. Девелоперам сертифікація однозначно дозволяє прокачати свої навички.

По-друге, сертифікація дає можливість працювати з серйозними проєктами. В багатьох вакансіях вказана сертифікація, бо компанії шукають спеціалістів, які мають структуровані знання по AWS.

Часто в самих клієнтів є запити на сертифікації. Більшість проєктів мають готову інфраструктуру, і саме AWS займає 40% ринку Cloud. Я помітив, що коли в Україні розпочалась повномасштабна війна, всі особливо почали заглиблюватися в клауди — це зручно і безпечно.

Наприклад, раніше дата-центри того ж ПриватБанку були розташовані в Україні. Вони зрозуміли, що якщо щось станеться з даними, ситуація вийде з-під контролю. Тому після початку повномасштабної війни ПриватБанк найняв команди спеціалістів і за 45 днів переїхав в AWS. AWS дає близько 99.95%-100% гарантії, що дані будуть в порядку і з ними нічого не станеться.

А тепер про реальні робочі моменти. До вас приходить клієнт і питає, як цей сервіс буде працювати з нашим застосунком. Можна відповісти: «Не знаю, треба читати документацію» або зразу дати відповідь. Ви швидше орієнтуєтесь у робочих питаннях, бо розумієте як все влаштовано, і клієнт бачить, що його проєктом займається тямущий спеціаліст, з яким він хоче йти далі. Ми часто чуємо від клієнтів запит, що щось не працює, чи прохання порадити рiшення, щоб отримати потужну базу даних. Сертифікація покриває це.

Наприклад, питання реплікації бази даних, як її зробити потужною, як її скейлити, чи автоматизовувати. Тому, якщо ви хочете стати гуру troubleshooting і залучати сильних клієнтів, отримуйте сертифікацію.

Додатково, великі компанії вимагають сертифікацію, в тому числі AWS, щоб стати лідом. І можна завчасно про це потурбуватись, якщо у вас є амбіції очолити команду.

По-третє, сертифікація дає бонуси як людині, яка її отримала, так і компанії, де вона працює. Компаніям вигідно сертифікувати спеціалістів. Одна з вимог партнерства з AWS — це AWS Certifications. До таких компаній звертається більше клієнтів. Також Amazon своєму партнеру надає фінансові стимули. Це дуже вигідно з точки зору бізнесу.

Коли ви отримуєте сертифікацію, вас додають до закритого клубу для AWS-сертифікованих. Там можна ставити питання, отримувати знижки на заходи, а також є шанс потрапити в преміум-зал. Якщо ви складаєте самі, не коштом компанії, де працюєте, — отримуєте 50% знижку на кожен наступний етап сертифікації.

І нарешті, хочу сказати, що в кризові часи потрібно вкладатися в саморозвиток. Я не зроблю відкриття, якщо скажу, що завжди найкраща інвестиція — це знання і навички, особливо, коли попереду невизначеність.

Але мені здається, таким способом можна посилити свою конкурентоспроможність на ринку, додаючи до портфоліо і потужні проєкти, і сертифікації. Ви не знаєте, в який момент і яка ваша сильна сторона може стати вирішальною.

Далі я хочу детальніше зупинитись на одному з пунктів, чому все ж таки сертифікація потрібна. Саме процес отримання сертифікації структурував моє розуміння оптимізації витрат. А це той рівень професіоналізму, який потрібен для роботи з клієнтом.

Як оптимізувати затрати в AWS

Я вже згадував, що для оптимізації витрат в AWS існує підхід FinOps. Він дозволяє управляти витратами всієї клауд-інфраструктури. Це повноцінна централізована система, де можна контролювати витрати клієнта, зменшувати їх і використовувати найкращі практики.

Як в загальному це працює? Створюються дашборди, які дозволяють слідкувати за рахунком. В такому форматі можна легко зловити момент росту цін за базу даних.

Хороший спеціаліст буде це контролювати і шукати причини, чому так відбувається. Якщо ж знань не вистачає, то проігнорує, адже просто немає розуміння, як це змінити. Як результат, зливається бюджет, і рано чи пізно у клієнта виникнуть питання.

Саме тому я хочу зупинитись на рішеннях з оптимізації, які рекомендує AWS, і які працювали в моєму досвіді.

1. Правильне управління серверами

Купуючи сервери, аналізуйте, якої потужності вам буде вистачати. Коли ми купуємо сервери Amazon, ми купуємо потужності. Наприклад, нам не потрібна віртуальна машина, в якої 32 ГБ пам’яті, адже застосунок використовує вдвічі менше. Треба купляти сервери відповідно до метрик застосунку.

Часто купляють потужні сервери для слабшого застосунку. У мене був клієнт з потужним Redis на ec2 сервері, на який компанія витрачала $6 тис. на місяць. Нам вдалося скоротити навантаження на Redis вдвічі, і в результаті зменшити місячний AWS рахунок.

Сервісів існує дуже багато. Є безкоштовні опенсорсні рішення, які можна встановити на сервери. А є сервіси AWS, коли ти платиш за кількість запитів, даних або за час роботи. В тестах іспиту AWS буде рекомендувати використовувати AWS-сервіси. В житті ж це не завжди потрібно. Їхні сервіси непогані, але не всі сервіси є сенс використовувати.

В Amazon за всі дії платяться гроші. В AWS є ліміти на безкоштовні дії з AWS сервісами. Треба розуміти як працює застосунок, чи потрібен AWS Nat gateway, пропускна здатність якого теж коштує грошей. Якщо застосунок буде виходити в публічний інтернет, а потім повертатись в AWS, це дорого.

Тому AWS радить не виходити за межі AWS, а все робити в його середовищі. Бо це безпечно (ніхто не перехопить дані) і дешевше, а в деяких випадках — навіть безкоштовно.

У одного мого клієнта був гарний приклад оптимізації: у нього був NAT gateway, і відповідно дорогуватий трафік. Ми встановили звичайний сервер і зробили його а-ля NAT gateway. В сертифікатах не рекомендують це використовувати, але насправді в житті сервер NAT gateway дешевше і не гірше, ніж NAT gateway від Amazon. І це працює.

Хочеться сказати ще про Spot-сервери AWS. У них є пул серверів, але їх у тебе можуть забрати у будь-який момент. Наприклад, ти відправляєш риквест в Amazon на сервер певного типу. Вони дають цей сервер. Він пропрацював 2 дні.

Уявимо, що у нас застосунок на 10 серверах. Amazon забрав декілька з них, бо хтось зробив запит на такий же сервер. Застосунок нічого не відчує, якщо у нас всі ці 10 серверів мають спот-тайп, всі вони працюють як споти і застосунку потрібне тільки їхнє навантаження.

Якщо вони нічого не зберігають всередині сервера, то це ідеально. За умови, що у вас багато застосунків, воркери, big data, і потрібен тільки ресурс і потужність, то використовувати споти безпечно і економно. Навіть якщо якийсь із серверів перезапуститься, це ніяк ні на що не вплине.

Але врахуйте, що не для всіх типів застосунків це працює. Наприклад, для бази даних таку схему не можна використовувати. Треба розуміти, що використовувати на споті, а що ні.

Також, слід бути готовим ще й до такої неприємної ситуації. Буває в Amazon немає потрібних серверів. Заявка висить, а Amazon відмовляє в серверах певного типу. Тоді клієнт стукає і говорить, що застосунок не працює. Тут є свої лайфхаки: беріть не один тип сервера, а 5 типів серверів. Якщо у Amazon немає певного типу, то є інший, і застосунок продовжить працювати.

2. Saving Plan

Після правильного обрання потужностей серверів, переходимо до цього пункту. Уявимо ситуацію: нам потрібні 10 серверів для продакшена. На цих серверах буде працювати застосунок і база даних. Ми вже знаємо, що нам ці сервери підходять (їхній тип, потужність) і нам вони потрібні на 3 роки.

Ми можемо купляти saving plan. Якщо ми купуємо прямо зараз сервер на 24 години, то будемо платити найдорожчу ціну. Але якщо впевнені, що будемо його використовувати 1 рік, то можемо включити saving plan, заплатити відразу і отримати знижку 50-70%.

Насправді спеціалісти часто не підключають цей план, хоч використовують якийсь сервер дуже давно. Amazon сам часто пропонує через механізми Compute Optimizing та Cost Management вибирати слушні сервери, оптимізувати витрати і увімкнути saving plan. Не ігноруйте цього.

3. Serverless-технології

Їм не потрібна база. З ними не потрібні сервери. Вони дешеві, бо ви платите лише за виконання функції. Можна написати застосунок, який буде працювати в AWS завдяки Lambda, за який не треба буде платити. Безкоштовний рівень Lambda включає 1 мільйон безкоштовних запитів і 400 000 ГБ-секунд обчислювального часу на місяць.

У мене була задача від клієнта, який нещодавно купив новий проєкт. Цей проєкт був на Oracle Cloud. Проаналізувавши шалений білінг, вони вирішили переїхати на AWS. Я робив цей переїзд і оптимізовував витрати на білінг.

Який підхід у мене був? Взагалі я помітив, що дуже багато серверів, на яких працюють тестувальники і девелопери, активовані доба за добою, а в клауді є така схема: скільки працюєш, стільки і платиш. З цього робимо висновок, що якщо потрібно, щоб сервер працював не 24 години, а 8 годин, його можна вимикати.

Тому ми вирішили спочатку вимкнути сервери на вихідних. Робота девелоперів при цьому не постраждала, інші спеціалісти теж не відчули цього. Вже тоді сума за білінг відчутно скоротилась. Якщо ж порахувати за місяць, а потім за рік, виходить солідна сума економії.

Ще один плюс від такого рішення: можна знайти багато багів. Бо буває, вимкнувши сервери, а потім їх знову запустивши, застосунок починає себе дивно поводити. Так можна повідловлювати помилки в роботі.

Важливо: Serverless не завжди достатньо. Його не треба використовувати, якщо дуже багато риквестів у застосунку. Наприклад, щодня 1000+ запитів. Якщо ж нам потрібно, щоб система працювала постійно, не в певний час, то Serverless теж не підходить.

4. Правильно вибирати AWS Backup

Головне в бекапах — розуміти, який тип нам потрібен, бо від цього залежить сума витрат.

Чим дорожчий бекап — тим більший тип. Внизу я підібрав картинку, яка чудово візуалізує типи бекапів та їхні можливості.

При виборі бекапу треба враховувати два моменти: recovery time object (RTO) і recovery point objective (RPO). Як це працює? В нас є бекапи в різних регіонах. Якщо в якомусь стається стихійне лихо чи падає сервер, ми переходимо на сервер іншого регіону.

Тобто recovery time object — це час, протягом якого клієнти можуть переключитись на новий бекап. Наприклад, Pilot Light Backup дозволяє зробити це за 10-15 хвилин. Для багатьох сфер, як-от банківська, відсутність бекапів була б критична.

Найпопулярніші типи бекапів — pilot і warm standby. В чому різниця цих бекапів, окрім часу відновлення? В Pilot Backup, наприклад, треба відновитись в Америці чи Франції, коли сервери перестали працювати в Італії. Нам потрібна база даних, повністю всі застосунки, стораджі.

Створюємо ці всі складові в регіонах, які нам потрібні. Вони налаштовані, але не працюють, або інакше заскейлені в нуль. За це ми платимо, але дуже мало. Коли у нас станеться форс-мажор і треба буде терміново переміститись в інший регіон, ми активуємо створені бекапи.

Warm standby дорожчий, бо дає ширші можливості. Розглянемо приклад з великим застосунком з великою кількістю даних. У нас працює база даних, сервери, критичні застосунки. Нам не потрібно повністю копіювати інфраструктуру для всіх регіонів, тому що вона гігантська, і це буде коштувати мільйони.

Раптово він «лягає» в якомусь регіоні. У нас є попередньо копія інфраструктури, але меншого об’єму, тому переїзд на неї буде адекватним рішенням, яке не помітять користувачі.

Ціна буде дорожча, ніж коли сервер вимкнений як в попередньому прикладі, але дешевше, ніж коли інфраструктура повністю скопійована.

Найкрутіший бекап — це multi-site. В цьому випадку у нас є дві однакові інфраструктури. Наприклад, щось лягає в регіоні, ми перемикаємо на новий регіон, а там все працює так само миттєво.

Ви можете змінювати розмір бекапу. Наприклад, у нас є бекап маленького розміру, ми можемо скейлити його до більшого розміру. Тобто якщо сервер купили дуже потужний і з часом зрозуміли, що є сенс зменшити, робіть це.

Якось я проводив співбесіду і запитував про бекапи. Я помітив, що люди просто знають, що можна забекапити, але не знають різниці бекапів. Сервери можуть називатись Т2, R5, Т3, D2 і т.д. (instant types), і зазвичай на це не звертають увагу. І я раніше якось теж не звертав.

Якщо вам потрібно багато пам’яті, то краще підійде тип R. Це як, наприклад, використовувати паркомісця: треба купляти відповідно до розміру машини. Не можна вантажівку ставити на місце, призначене для легкового автомобіля. Це важливо розуміти, тоді застосунок буде краще працювати.

Ось, як можна підсумувати способи оптимізації витрат, про які я розказав:

Висновки

Отримувати чи не отримувати сертифікацію — рішення кожного. Особисто мені це допомогло структурувати мої знання і поглибити розуміння багатьох речей, зокрема оптимізації білінгу, що особливо важливо для роботи з проєктами клієнтів.

Сертифікація для технічного спеціаліста, як на мене, ширше відкриває двері, щоб продемонструвати рівень спеціаліста на проєктах. Головне — потрібно розуміти, що хочеш, які знання для цього потрібні і вчитися, обираючи серед усіх варіантів згідно зі своїми можливостями.

👍ПодобаєтьсяСподобалось12
До обраногоВ обраному9
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Якщо якісь погані люди замовили атаку на ваш продукт, коли ситуація на грані DDoS щоб сервіси працювали жахливо і ви вимушені були замовити більше ресурсів в клауд провайдера або попадаєте на сильний ріст костів on demand, то який ваш план дій?

Потрібно ставити AWS Shield перед вашим LB, таких питань багато на сертефікацію

Це у вас така правильна відповідь тільки для AWS-сертифікації чи загалом? Чому, наприклад, не Cloudflare?
Можливо тоді оцінка для яких сервісів потрібен AWS Shield Advanced (чи альтернатива) є обов’язковою щоб знати повні кости і для належного функціонування вашого продукту?

Ігор, дякую за цікаву та корисну статтю!

Їм не потрібна база. З ними не потрібні сервери

Суслика не видно
А він є

солідна сума економії.

Це ьи не бачив скільки боси шльондр та кокосик витрачають

Клауд це повільніше і дорожче
Але це причини оновити чи переглянути архітектуру

є різні рішення, щоб прискорити розробку по типу IaaS, serverless, aws beanstalk

На мою думку, AWS сертифікати перевіряють лише знання рекламних формулювань сервісів Amazon: знання перевіряються за рахунок вільного часу людини, кожна спроба коштує відчутну кількість грошей, сертифікацію треба проходити знову кожні 3 роки, зворотній зв’язок — це PASS чи FAIL та якесь число.

AWS сертифікація не допоможе у пошуку рішення проблеми, бо не перевіряє справжній досвід. Кожен Amazon сервіс створен погано, дуже погано, тому необхідно мати уявлення для чого і чому сервіс використовувати не слід та як боротися з технічними проблемами сервісу.

Наприклад, Serverless у вигляді API Gateway та Lambda на будь-якій мові програмування мають величезну кількість обмежень. Скажімо, я хочу повернути маленьке зображення як файл та задати динамічно Content-Disposition у відповіді. Зробити це неможливо, файл буде пошкоджено, бо API Gateway V1 неправильно автоматично декодує файл з base64. Символ 89 буде замінено як EF BF BD. API Gateway V2 не дозволяє зробити це взагалі. До речі, у моїй сертифікації не було про V2 й слова.

Гроші — це питання, яке повинен вирішувати не розробник і не архітектор. Наприклад, знову Serverless, але зараз экономимо гроші. Маємо декілька запитів на добу, але запити повинні виконуватись менш ніж за півсекунди. Lambda лише повертає запис з DynamoDB по ключу і це коштує не менш секунди. Офіційна відповідь для Enterprise підписника: 50 мс можливі лише при постійному використанні DynamoDB.

Я навів лише два різні приклади даремного витрачання часу розробки, коли ані проста задача не працює, а ні витрати зменшити не можемо.

Ви напевно здавали saa, тобто sysops з лабами та speciality

перевіряють лише знання рекламних формулювань

В Google Cloud є регіони помічені «Lowest CO2», чи вже реалізоване подібне в AWS?
В якиї випадках завдання від клієнтів передбачає чи є необхідність використовувати регіон із «Lowest CO2» слідом?

AWS каже що EMEA має більше відновлюваних джерел чим APAC.
docs.aws.amazon.com/...​utv2/ccft-estimation.html
клієнту це може бути необхідним для лейбла на продукті

Тобто в AWS не реалізовано подібного, бо ділити тільки на EMEA та APAC — це ні про що, порівнюючи з конкретними варіантами регіонів в рамках континенту помічених в Google Cloud як «Lowest CO2», дякую!

Вони хочусь до 2025 усі дата центри зробити 100% renewable energy. Прошу

Хотіти не шкідливо, перехід енергетики багатьох розвинутих країн на renewable energy буде і далі гальмувати ріст багатьох доменів, бо енергоспоживання має тенденцію тільки рости, а з генерацією ситуація дуууже бажає кращого, навіть кризова в передових країнах типу UK та Німеччини, ... тому при дефіциті потужностей та росту тарифів в 2025 не буде технічної та економічної можливості перевести всі регіони в AWS на renewable energy.

Також враховуйте, що характеристики instance типу який процесор, розмір хард диску та оперативної пам’яті => будуть недостатнім мінімумом для багатьох проектів в найближчі роки, бо будуть активно задіюватися хмарні вичислювання із застосуванням GPU та ASIC, а це додаткові вкладення в інфраструктуру і дуже суттєвий ріст енергоспоживання.

Думаю, що багатьом також не варто зациклюватися тільки на AWS, бо можуть пропустити старт передових і затребуваних рішень в Google Cloud, чи того, що буде реалізовуватися в Azure при партнерстві Microsoft, Nvidia та OpenAI.

Думаю багатьом варто взагалі не зациклюватись на AWS / Azure / GCP, а одразу ж розглянути CloudNative — там можна вирішити на багато більше інженерних проблем за меньш короткий проміжок часу, й отримати ще більше економії на типових задачах. Там, наприклад, прозоро виконати AWS лямбди в Triggermesh KLR на спотах під Karpenter’ом, тощо. Або ж з динами/кінезіса злізти на ScyllaDB / RedPanda.

... тому при дефіциті потужностей та росту тарифів в 2025

... oracle вважає що все піде в CloudNative — до 2025 80% корп додатків. Он навіть Graal CloudNative анонсували.

бо будуть активно задіюватися хмарні вичислювання із застосуванням GPU та ASIC

Вже зараз можна мігрувати більшу кількість Serverless прямо в DPU й для того відповідно стандартизують різні offload’інги в рамках OPI проекту, там під всяке DPDK/SPDK, Nvidia DOCA, тощо. Ну й референсною реалізацією OPI буде IPDK, на скільки я розумію.

дразу ж розглянути CloudNative — там можна вирішити на багато більше інженерних проблем за меньш короткий проміжок часу, й отримати ще більше економії на типових задачах.

Для нескладних проектів потрібно на конкретних прикладах розглядати, а то хтось розкаже успішну історію із ClickOps для інфраструктури та базового функціоналу Docker для CI/CD, а ви на противагу пропонуєте їм послати ті інфрастуктурні рішення і зробити ставку на Serverless та глибоке занурення в Kubernetes.

... oracle вважає що все піде в CloudNative — до 2025 80% корп додатків. Он навіть Graal CloudNative анонсували.

У вас може бути клієнт, що стартує і покладається на вашу експертизу, в такому випадку сертифікований AWS-спеціаліст та типу пропоновані найкращі практики можуть звучати переконливо, ... але якщо досвідчений клієнт з легасі, також знає всі кости і недоліки, коли буде замовляти модернізацію інфраструктури, то просто переконати перейти на FaaS — це завдання із зірочкою.

Вже зараз можна мігрувати більшу кількість Serverless прямо в DPU й для того відповідно стандартизують різні offload’інги в рамках OPI проекту, там під всяке DPDK/SPDK, Nvidia DOCA, тощо. Ну й референсною реалізацією OPI буде IPDK, на скільки я розумію.

Думаю, що будуть революціні зміни і якщо сильно не пошатнеться доля ринку AWS, то вони будуть відставати, як у випадку із впровадженням Kubernetes, ... GCP, напевно, досить реалістично оцінюють ризики і будуть вкладатися в передові рішення, ... але згідно публічних даних, як не дивно, але Azure виглядає найбільш амбітно, ... якщо говорити про високонавантажені системи, то крім Nvidia також останні роки arm та risc-5 рішення хоронять своїми заявами застарілу серверну інфраструктуру від Intel.

П.С. тема цього блогу називається: «Як AWS-сертифікація допомагає оптимізовувати витрати на проєкті», але в мене враження, що автор маючи малий досвід реалізації проектів через сертифікацію просто покращив свої базові теоретичні знання, бо сама по собі сертифікація не є гарантом найбільш ефективних рішень, кваліфіковані спеціалісти без сертифікації можуть реалізовувати найкращі архітектурні рішення.

бо сама по собі сертифікація не є гарантом найбільш ефективних рішень

Повністю погоджуюсь.

Зараз немає готових до використання CloudNative дистрибутивів з найкращими практиками, а вирішення багатьох інженерних проблем в тому ж kubernetes штучно сповільнюються самим LinuxFoundation.

Того, наприклад, в нас є глючний Karpenter, й нема нормального робочого ClusterAutoscaler’у з повноцінною інтеграцією там, наприклад, з Terraform. Про якійсь актуальні предикативні моделі й мови не може бути — той же AWS далі Arima + LSTM / Prophet не пішов, що вже «минулий вік».

Тому будь які «завдання з зірочками» можна вирішити лише після вирішення відповідних інженерних проблем, які успішно ігнорують вже 7 років. Або «чого автоскейлери ніколи не виповзають з альфо-бети, якщо це головна фіча ?» (бо всі ефективніше кошти почнуть витрачати).

Мій пойнт в тому що замість глибокої сертифікації на 3 мажорних хмарних провайдера — краще (й дешевше) сфокусуватись на CloudNative з конкретним сетапом під Multicloud. Бо були відповідні звіти про зменшення витрат на хмарні хостинг в 2-3 рази, разом зі зменшенням Cost per Customer в 5-6 разів.

За моїм спостереженням, якщо я гуглю певні питання по клауд дизайну чи DevOps, то в основному натрапляю на матеріали на різних сайтах та YouTube від індусів, а в каментах переважно також індуси, народ там голодний до знань в найбільш затребуваному типу по клауд міграції, мікросервісах, по деплойменту та покращенню костів з використанням Kubernetes, ... вважаю, що для українських спеціалістів сертифікація є другорядною, а от мати кращі знання чим в індусів — це в пріоритеті щоб позиціонувати себе як кращі професіонали.

Можливо, що прогноз Oracle вистрелить і в найближчому майбутньому буде сильний ріст CloudNative в ентерпрайз домені, ... а також для автоматизації всяких рутинних бізнес задач та документообігу буде затребувано загалом, бо у використанні стеку технологій типу NodeJS, REST API, Kubernetes та без різниці який Cloud провайдер — це досить просте рішення, і якщо є економічна обгрунтованість, то буде ріст в цьому напрямку, ... а в доменах типу mobile/web apps, IoT можливості для розвитку FaaS підходу будуть залежати від впровадження заліза від Nvidia, різних arm та risc-5 рішень, бо все таки «serverless» в даному випадку не є повноцінним, фактично ви отримуєте включені в тариф ресурси on demand, і в найближчому майбутньому будуть затребувані більш високі та спеціалізовані вичислювальні можливості для ML та ШІ-алгоритмів.

Мій пойнт в тому що замість глибокої сертифікації на 3 мажорних хмарних провайдера — краще (й дешевше) сфокусуватись на CloudNative з конкретним сетапом під Multicloud. Бо були відповідні звіти про зменшення витрат на хмарні хостинг в 2-3 рази, разом зі зменшенням Cost per Customer в 5-6 разів.

Як реальний приклад Multicloud підходу — це Twitter, зазвичай, коли верхньорівнево розглядають системний дизайн цієї платформи, то є NoSQL дата база, а також Cloud storage для контенту, і типу це AWS «або» GCP, хоча по факту Twitter використовує обидві платформи і торгується з ними за зниження костів.

Наприклад, раніше дата-центри того ж ПриватБанку були розташовані в Україні. Вони зрозуміли, що якщо щось станеться з даними, ситуація вийде з-під контролю. Тому після початку повномасштабної війни ПриватБанк найняв команди спеціалістів і за 45 днів переїхав в AWS.

емм... це «раніше» було ду-уже давно. по-факту Приват жив в aws хз скільки років (основний софт), і гігабітний канал на Дублін у них був ще тоді коли гіг вважався розкішшю. Просто НБУ закривав на це очі (бо по нормативці ніззя). В Дніпрі була частина заліза/сервісів, що обслуговувала регіональну інфраструктуру по Україні. От цей кусок переводили в 2022, наскільки розумію.

Дякую за статтю, доволі цікаво і корисно. Було б цікаво, якби Ви ще поділилися самими корисними ресурасами, які допомогли вивчати з aws.

Дякую вам, по ресурсам документація AWS але для вивчення краще практика з безкоштовними сервісами AWS

Я готовился по ACloudGuru с Раяном. Наверное самое достойное из того что есть

Тоже начинал готовиться по клаудгуру, но потом всё-таки решил глянуть на курс Стефана Марека и он мне так зашел, что в итоге я его весь прошёл и сразу же сдал сертификацию.
www.udemy.com/...​hitect-associate-saa-c03

Підписатись на коментарі