×Закрыть

.NET Core: как работают микросервисы в контейнерах

Во всем мире микросервисы — уже практически мейнстрим. В .NET мы только начинаем двигаться в этом направлении. Благодаря усилиям «Майкрософт» в последние несколько лет у нас появилась возможность запускать .NET в контейнерах Windows. У нас есть платформа .NET Core, которая позволяет делать это под различными версиями Linux. Соответственно, мы теперь можем запускать сервисы и микросервисы в контейнерах.

Сегодня я хочу рассказать о некоторых аспектах использования .NET. В первую очередь важно понять, для чего следует применять технологию: в данном случае — микросервисы. Если вы владеете какой-либо технологией, это не означает, что вам автоматически всегда стоит ее применять. Если все-таки вы поняли, что вам нужна микросервисная архитектура, то какие шаги необходимы для того, чтобы реализовать эту архитектуру? Мы углубимся в понимание контейнеров, чтобы разобраться в принципах их работы. Мы не будем подробно останавливаться на самой архитектуре контейнеров, но я дам основную информацию, которая позволит понять основные принципы их работы.

Преимущества и недостатки микросервисов

Очень часто мы сталкиваемся с ситуацией, когда разработчик узнает о новой технологии и думает, что она решит все его задачи. Это зачастую не так. Всегда нужно понимать все преимущества и недостатки технологии, которые проявятся при ее использовании. Чаще всего микросервисы сравнивают с монолитной архитектурой.

Ключевые преимущества микросервисной архитектуры:

  • Если у вас обширный домен и бизнес хочет развиваться сразу во многих направлениях, то микросервисная архитектура позволит создать отдельные команды, каждая из которых занимается разработкой своих микросервисов. Вы сможете развивать решения параллельно, не сталкивая разработчиков лбами друг с другом.
  • Каждый микросервис можно разворачивать независимо. Если одна из команд закончила разработку своей функциональности, она может запустить ее в production. При этом бизнес уже получит какие-то преимущества, пока другие команды доделывают свою часть функциональности.
  • Масштабируемость. Каждый из сервисов можно запускать во многих экземплярах. Если у вас есть трудности только в одном высоконагруженном месте, то можно именно это место размножить и горизонтально масштабировать.
  • Каждый из микросервисов по отдельности — намного более простое решение, чем общая монолитная система. В крайнем случае, если конкретный микросервис перестает удовлетворять конкретным требованиям бизнеса, его можно выбросить и переписать заново. Это не будет настолько сложным и дорогостоящим, как если бы вам сказали переписывать монолит, потому что вы ошиблись в выборе технологии.
  • Возможность применять разные технологии. Если у вас есть специализация в конкретных сервисах, например для GPU в высоконагруженных вычислениях, вы можете написать этот сервис на C++ или библиотеке, которая работает непосредственно в GPU. Если другие сервисы .NET вам не подходят, вы можете написать front-end на Node.js и т. д. У вас появляется возможность выбирать различные технологии. Но это не означает, что вы должны строить у себя «зоопарк». Стандартизация должна быть, но если есть достаточно оснований поменять технологию, вы можете это сделать.

Среди недостатков микросервисной архитектуры можно выделить следующие:

  • Усилия, которые нужно затрачивать несколько раз для решения одних и тех же задач. У каждого сервиса появляется свой CI, свое независимое тестирование. Существует множество задач, которые в мире монолита делаются один раз, и про них забывают, тогда как в мире микросервисов к этим задачам нужно постоянно возвращаться. К примеру, если вы приняли решение сменить подход к развертыванию решения, то его придется менять для каждого из микросервисов.
  • Все вместе микросервисы будут более сложными для разработки, чем монолит. Есть очень хорошая фраза: «Если вы не можете построить хорошо структурированный монолит, то кто сказал, что микросервисы вам помогут?» («Distributed big balls of mud»). И это действительно так, потому что микросервисная архитектура на самом деле более сложная, чем монолит. В монолите у вас все связано: вы скомпилировали и убедились, что одна часть подсистемы, по крайней мере на уровне контрактов, взаимодействует с другой частью подсистемы. В микросервисной архитектуре приходится проверять интеграционными тестами, что контракты соблюдены.
  • Увеличение операционных расходов. У вас может быть десяток, а то и сотня микросервисов. С каждым их этих микросервисов нужно поддерживать свои процессы CI, свои процессы развертывания. За каждым из сервисов нужно следить независимо: сервис может упереться в ограничение по памяти, связь с другим сервисом может оборваться и автоматически не восстановиться, могут быть утечки памяти, дедлоки и т. д. Намного усложняется процесс сопровождения вашего решения: вместо одного-двух или трех процессов приходится следить за сотнями.
  • Целостность контрактов и данных. Каждый микросервис работает со своим хранилищем, данные не интегрированы между собой: нет внешнего ключа (foreign key), и, соответственно, намного сложнее сохранять целостность данных.
  • Поскольку каждый из сервисов можно разрабатывать независимо (преимущество), точно так же независимо он может и поменять свой контракт. Хорошо, если мы заметим это во время интеграционного тестирования. Хуже, если мы заметим это в production.

Автоматизация всех процессов

В рамках микросервисов непрерывная интеграция (Continuous Integration или CI) выглядит немного по-другому: на выходе конкретного микросервиса должен получиться какой-то пакет, артефакт либо контейнер, который универсальным образом развертывается в production. Если Node.js будет собираться совершенно по-другому, чем .NET Core, Java и другие решения, то разворачивание таких решений в production усложняется. Поэтому на выходе микросервисов должен быть универсальный пакет, который можно было бы развернуть в любом окружении.

Следует отличать Continuous Delivery (непрерывная поставка) от Continuous Deployment (непрерывное развертывание). В рамках Continuous Delivery не каждая фиксация изменений (commit) автоматически уходит в production. Но это означает, что мы должны иметь возможность быстро запустить любое решение или коммит в production. Необходимо убедиться, что решение компилируется, протестировать его (насколько это возможно) и понимать, что его можно выпустить в production или другое окружение одним щелчком мыши.

Обязательно следует подключить автоматизированный мониторинг. В случае монолита мониторинг сервиса может осуществлять даже один или два человека в режиме 24/7. Когда же у вас есть сотня микросервисов, запущенных в нескольких экземплярах, вы не уследите за всеми ими, если у вас не будет сбора всей информации в автоматизированном виде и автоматического оповещения о проблемах. Чтобы понять суть возникшей проблемы, необходима агрегация логов. Если у вас сотня микросервисов, искать расположение конкретного файла с логами будет крайне затруднительно!

В рамках использования Continuous Integration с микросервисами мы ожидаем повторяемости: если у вас есть некий коммит и вы запустили дважды одну сборку (build) для этого коммита, вы ожидаете одинаковый результат. Отличие состоит в том, что в монолитах эти сборки создаются для всего решения часто. Если на агент сборки (build agent) вы установите обновление (обновление ОС Windows, установка новой версии .NET Framework) и из-за этого поломается сборка, вы сразу это заметите, устраните неисправность и продолжите работу.

В случае же микросервисов будет нормальной ситуацией, когда один раз написанный микросервис полностью выполняет свою бизнес-задачу. И если у бизнеса нет пожеланий изменить этот микросервис, он может жить годами в production, и никто на него не обращает внимания. Через несколько лет бизнес решает внести изменения. Вы возвращаетесь к этому микросервису. Первым делом запускаете сборку, но она уже не работает, поскольку прошло уже много времени, билд агент за это время «оброс» новыми или обновленными фреймворками. К тому же, возможно, на проекте уже не работают программисты, которые писали этот микросервис.

Вы можете разобраться в коде, но вместо того, чтобы быстро внести требуемое изменение, на первый план выходит процесс восстановления сборки. В этом нам помогут контейнеры. Если мы будем все наши сборки запускать в контейнерах, мы с точностью сможем запустить наше решение в том виде, в котором ожидаем. Это позволяет с намного большей уверенностью говорить о том, что даже через несколько лет процесс сборки будет работать. После этого мы при необходимости сможем контролируемо обновить микросервис на новую версию фреймворка и проверить, что он там тоже работает. Либо не работает, но тогда мы будем четко видеть, в чем заключается проблема.

В дополнение к этому, при наличии конфигурации сборки (описание способа создания сборки, модульного тестирования, интеграционного тестирования) в самом git-репозитории, это дополнительно повышает уверенность в том, что по прошествии нескольких лет вы сможете запустить сборку, и она будет работать точно также, как и раньше.

Контейнеры

По моему мнению, контейнеры — то недостающее звено, которое вывело микросервисы в мейнстрим. Контейнеры обеспечивают простое развертывание. В результате сборки получается контейнер, который можно развернуть практически на любой машине, не требуя дополнительных пререквизитов. Хотя, конечно, есть особенности использования контейнеров под ОС Windows и Linux, но в пределах разных ОС Linux вы сможете развернуть контейнер на любой Linux-машине. Нужно только настроить правило параметризации этого контейнера (например, определенным контейнерам нужно настроить параметры доступа к файловому хранилищу, проставить переменные окружения), и контейнер готов к запуску. Это позволяет развернуть контейнер в нескольких экземплярах, на одной машине или на десятке серверов.

Основная особенность контейнеров — это то, что они являются неизменяемыми (immutable). Если вы создали контейнер один раз, он сохраняет полный слепок файловой системы. В любой момент, независимо от среды запуска, это будет полностью идентичная копия сервиса, включая ОС и все необходимые вам dll-библиотеки. Такой контейнер будет работать везде одинаково: на машине разработчика, в тестовом окружении или в production.

Очень часто контейнеры пытаются сравнивать с виртуальными машинами. Надо понимать, что между ними существует принципиальное различие. Принцип работы виртуальных машин: есть некая хост операционная система (далее — гипервизор), которая абстрагирует хост ОС от виртуальных машин, и образы, в каждом из которых работает сама ОС, а в ней файловая подсистема и ваше приложение. Обычно ОС на порядок больше по размерам и по потреблению ресурсов, чем непосредственно приложение, которое там работает. Использовать такую архитектуру для микросервисов — очень избыточно. Когда Azure только начинал развиваться, у них было решение PaaS Application Services. Запуская на этой платформе небольшой веб-сайт в трех экземплярах, необходимо было физически запустить три виртуальные машины, на которых процессор был загружен на 1 %, а 60 % оперативной памяти забирала на себя ОС.

Рисунок 1. Сравнение виртуальных машин и контейнеров

Как работают контейнеры? В контейнерах есть хост ОС, поверх которой работает подсистема контейнеризации (container engine). Самая популярная сейчас подсистема контейнеризации — Docker. Далее сама подсистема абстрагирует родительскую ОС от контейнеров. Каждый из контейнеров видит, что он работает в своем маленьком окружении. При этом он продолжает выполнять свои действия непосредственно в хост ОС. Это и есть ключевое преимущество, поскольку мы не тратим никаких ресурсов ОС внутри виртуальной машины. Но также это и особенность, которую нужно понимать: если конкретное приложение требует определенных действий по настройке в ядре ОС, эти настройки могут быть несовместимы с другими контейнерами, которые работают непосредственно на этой машине. Например, чтобы Redis обеспечивал низкую задержку (latency), есть рекомендация по настройке параметров в ядре Linux (Transparent huge pages must be disabled from your kernel). Такие параметры могут быть несовместимы с другими контейнерами, для которых они имеют другое значение.

Приведенная на рисунке 1 схема показывает, как ее видит контейнер. Сам контейнер видит свой образ файловой системы, как будто бы она была развернута специально для него. На самом деле контейнеризация еще более эффективна, поскольку общие части файловых систем разных контейнеров используются совместно. Как это происходит?

Ключевая особенность контейнеров — слои файловой системы. По умолчанию в Docker используется AuFS — файловая система, которая основана на слоях. Каждый слой является immutable, а следующий слой строится как дельта от предыдущего слоя. Это можно рассматривать по аналогии с коммитами: у нас есть предыдущий коммит, мы внесли изменения и сделали новый коммит. При этом в новом коммите хранится только дельта по отношению к предыдущему. Здесь такая же ситуация: есть предыдущий слой, поверх этого слоя мы добавляем новый файл в нужную папку. В следующем слое хранится только этот файл. В программировании также есть объекты immutable, которые можно легко совместно использовать между разными процессами и потоками (threads). Мы не боимся, что кто-то может случайно поменять этот объект. Такая же ситуация и со слоями: если у нас разные контейнеры используют общие слои, эти слои не нужно сохранять независимо. Один слой может обслуживать сразу несколько контейнеров.

На рисунке 2 показан рецепт построения Docker-контейнера.

Рисунок 2. Слои контейнера

Читать снизу-вверх (в самом верху находится самый последний слой контейнера).

Рассматривая рисунок 2 более подробно, мы видим операции, которые проводятся над контейнерами. Где-то внизу есть базовый контейнер. Следующая операция — добавление переменной окружения (новый слой). Еще добавление нового окружения (еще переменная окружения) и еще один новый слой. После этого мы запускаем команду на выполнение, которая скачивает что-то из Интернета и выкладывает в каких-то папках — еще один слой, который добавляет 50 МБ и т. д.

Чтобы эффективно строить Docker-контейнеры, необходимо понимать, что при построении нового образа Docker кеширует каждый из слоев. При повторном построении образа Docker пытается переиспользовать слои из кеша, основываясь на операции, которая применяется к предыдущему слою. Для некоторых операций сам текст строки операции полностью описывает действия, которые будут произведены над предыдущим слоем, чтобы получить новый слой. Если до этого к предыдущему слою применялась точна такая же операция, мы сразу можем использовать закешированный слой, не выполняя эту операцию.

Операция COPY копирует файлы внутрь контейнера. Чтобы понять, можно ли использовать закешированный слой, Docker рассчитывает хеш-сумму содержимого всех файлов, которые необходимо скопировать. И если она совпадает со слоем в кеше — автоматически переиспользует закешированный слой. Надо заметить, что при этом игнорируется дата изменения файлов.

Есть отдельные операции типа RUN для Docker. Операция RUN запускает скрипт на выполнение. Сама технология Docker не знает, что на самом деле мы обращаемся в Интернет и скачиваем оттуда некие бинарные файлы и запускаем их. Эта особенность, если ее неправильно использовать, может привести к возникновению проблемы: по этой строке Docker будет искать, существует ли в кеше точно такой же новый слой. И если после выполнения этой строки результат может поменяться, то Docker об этом не узнает: он все равно обратится к кешированному слою.

Когда вы выполняете определенные cURL, общаетесь с внешним миром по сети, добавляйте однозначные идентификаторы, что именно вы скачиваете. Если необходимо установить некое приложение, следует указать конкретную версию этого приложения. Если вы поменяете эту версию, Docker поймет, что скачивается новая версия приложения и не станет использовать кешированную версию.

На рисунке 3 наглядно представлено повторное использование слоев (layers reuse).

Рисунок 3. Повторное использование слоев

Представим ситуацию, что на определенной машине нужно запустить несколько экземпляров одного образа. На рисунке 3 мы видим пять экземпляров, пять контейнеров для одного образа Ubuntu. Поскольку слои являются immutable, каждый их этих контейнеров ссылается на один и тот же образ. Они не мешают друг другу, так как все эти слои доступны только для чтения (read-only). Если при выполнении контейнеру нужно будет что-то записать у себя локально, запись будет осуществляться в тонкий слой непосредственно внутри контейнера. В этом случае применяется логика копирования при записи (Copy-On-Write). Если во время выполнения контейнер захочет изменить существующий файл, который расположен в одном из этих слоев, то этот файл скопируется в слой контейнера, и дальнейшее редактирование будет происходить уже в этом слое.

То, что контейнер сохраняет у себя в read-write-слое, — временная информация. Нельзя рассчитывать на то, что при запуске контейнера вы можете сохранять информацию, и что при последующем перезапуске контейнера эта информация сохранится. Это одна из ключевых особенностей Docker-контейнеров: если необходимо постоянное хранилище, следует подключить внешние тома, в которые вы будете сохранять информацию, либо сохранять всю информацию в удаленной базе данных. Сам контейнер должен оставаться stateless и сохранять информацию с помощью подключенного тома.

Принципы работы контейнеризации

Рассмотрим принцип работы контейнеризации на примере .NET Core (см. рис. 4).

Рисунок 4. .NET Core для Web API приложения

Для демонстрации я добавил проект .NET Standard с контрактами и обычное ASP.NET Core Web API приложение, которое ссылается на него. После этого я включил поддержку Docker на проекте средствами Visual Studio. Dockerfile — рецепт, в котором описан способ построения нового образа контейнера для нашего проекта. Несмотря на простоту демонстрационного примера, в получившемся Dockerfile достаточно много чего происходит. Чтобы потом его модифицировать и улучшать, важно для начала понимать, почему автоматически сгенерированный файл имеет именно такой вид. В данном рецепте объединены два аспекта:

  1. Возможность переиспользования закодированных слоев от предыдущей сборки Docker-контейнера. Как только поменялся какой-то слой контейнера, все последующие слои уже не смогут быть переиспользованы из кеша. Поэтому то, что чаще всего меняется, опускается вниз Dockerfile, а то, что наиболее стабильно, вынесено наверх. Таким образом, максимальное количество слоев можно будет взять из кеша.
  2. Уменьшение результирующего Docker-контейнера. Поскольку каждая операция приводит к новому слою в контейнере, то при копировании файлов или генерировании файлов во время компиляции это все сохранится в слое: bin, obj и т. д. Следующей операцией может быть удаление этих файлов. Но при этом в предыдущем слое все эти файлы уже останутся, так что удаление файлов не повлияет на размер контейнера.

Сначала определяется базовый контейнер, на основании которого будет строиться окончательный образ. В нашем примере это базовый слой — aspnetcore вер. 2.0, в котором устанавливается рабочая папка /app и внешний порт: 80. Этот базовый слой умеет запускать скомпилированные ASP.NET Core приложения, но не билдить их.

После этого идет непосредственно описание процесса сборки нашего проекта. Для этого мы используем другой образ, в котором есть SDK и который позволит запустить компиляцию проекта. Устанавливаем рабочую папку внутри контейнера /src и копируем туда только файлы солюшена (.sln) и проектов (.csproj). Почему только файлы проекта? Потому что они намного реже меняются, чем все остальные cs-файлы. Операция dotnet restore достаточно тяжелая и может выполниться только на основании csproj-файлов. Соответственно, намного больше вероятность того, что операция dotnet restore будет кеширована, и нам не нужно будет скачивать все nuget-пакеты при создании каждой сборки проекта. Следующая операция уже копирует все файлы проектов. Первая точка (первый параметр) указывает, откуда копировать из source-машины, вторая — куда копировать. Откуда — это контекст сборки. Во время запуска сборки Docker-контейнера мы указываем, из какой папки мы начинаем сборку. Мы копируем все файлы из нашей текущей папки, из которой мы начинали. Поскольку мы указали в качестве рабочей папки /src, то мы скопируем файлы в эту папку. После этого создаем обычную сборку dotnet с версией release и выводом в папку /app.

Мы дали название (alias) нашему контейнеру AS build — временный alias, чтобы можно было создавать связи между разными сборками. Далее мы запускаем dotnet publish в версию release. И последний шаг: за основу мы берем базовый образ, объявленный в самом в начале, копируем из сборки publish папку /app. В ENTRYPOINT указываем, что нам нужно вызывать. Таким образом, если мы запустим этот рецепт на выполнение, получим минимальный образ, из которого мы начинали, и в него скопируем только финальные опубликованные dll-библиотеки.

Как это выглядит при запуске из консоли? На рисунке 5 показано, как я запустил мою сборку дважды.

Рисунок 5. Запуск операций из кеша

При запуске указанного выше рецепта все операции используются из кеша на основе существующей сборки. Все слои могут повторно использоваться из кеша без выполнения самой сборки. Запустив дважды сборку Docker на одних src-файлах, мы за секунду получаем финальную сборку. Если какие-то cs-файлы изменились, то будут переиспользованы все операции вплоть до dotnet restore. И по-новому слои будут строиться, только начиная с копирования всех файлов.

На рисунке 6 показано, как это выглядит на уровне слоев.

Рисунок 6. Полученный контейнер, развернутый по слоям

Самые нижние слои — это слои Майкрософт (можно видеть операции, в результате которых получились эти слои): начиная от базовой ОС, из которой добавляются файлы в контейнер, далее Майкрософт добавляет/устанавливает свои слои и проставляет окружение. Дальше начинаются мои финальные операции. Весь контейнер будет занимать суммарно 300 МБ. Но если на хост-машине будут запущены несколько разных контейнеров, основанных на базовом образе aspnetcore вер. 2.0, то все эти слои будет использоваться повторно, и каждый контейнер будет добавлять только непосредственно свои файлы, как в нашем случае — 306 КБ. Если запустить образ и посмотреть его размер, вы увидите, что это минимальное решение весит 300 МБ. Не нужно пугаться: ваш слой занимает лишь маленькую часть всего образа.

Дальнейший запуск контейнеров в production

«Everyone gets upset when a kitten dies. On cloud platforms no one hears the kitten dying»

(«Cattle vs Kittens»)

Существует стандартное сравнение, как вы относитесь к запускаемому ПО и серверам, на которых это ПО запускается: вы относитесь к ним, как к домашним животным либо как к безликому стаду. В чем разница? Если сервер — домашнее животное, это означает, что вы знаете его имя, возможно, вы на память помните его IP-адрес, вы или администратор заходите на этот сервер, время от времени проверяете и чистите логи, проводите модернизацию именно этого сервера. Основной признак того, что ваш сервер или ваше развернутое в production решение является домашним животным — всем становится грустно, оттого что он умер. Если все начинают бегать в панике, когда ваш сервер умирает, это явный признак того, что сервер — домашнее животное.

Альтернатива этому — стадо, когда администраторы следят не за каждым конкретным экземпляром сервера или решения, а за всеми ими вместе. Каждый из серверов живет сам по себе, со своими процессами, которые выполняются на этом сервере. Администратору интересно только общее количество: сколько серверов живы, сколько живых сущностей в стаде. Если кто-то из стада умрет, администратор когда-нибудь подойдет к этому серверу, отключит его и подключит новый. По сути, отношение к серверам и решениям, которые разворачиваются в микросервисной архитектуре сводится к тому, что у вас есть некий парк серверов, на которых вы запускаете сотни или тысячи процессов-контейнеров. Каким образом этого достичь?

На рисунке 7 приведен набор технологий для Docker-контейнеров.

Рисунок 7. Набор технологий для оркестрации контейнеров

В таких технологиях, как Docker Compose, вы все еще работаете со своими серверами — домашними животными, где вы указываете, что на конкретной машине нужно развернуть определенное количество экземпляров своих контейнеров. Существуют технологии, которые позволяют вам запускать контейнеры на личном кластере серверов локально (on-premises). Есть cloud-решения, которые либо используют одно из указанных выше решений для хостинга кластера серверов, либо предлагают индивидуальные решения. Например, у Amazon ECS есть индивидуальное решение Fargate или Amazon EKS Kubernetes — менеджер кластера Kubernetes в облаке. Azure предлагает Kubernetes, Docker Swarm и т. д. У вас есть выбор, на чем запускать эти решения.

Важно! Для возможности масштабирования контейнеров необходимо, чтобы контейнеры или другие исполняемые компоненты понимали, где развернут ваш контейнер. Для этого используется понятие service discovery. В облаке выполняется автоматическая адресация: само облако предоставляет готовое решение. У Kubernetes есть специальное понятие «сервис», где вы создаете сущность под названием «сервис» и указываете, что некое подмножество контейнеров (либо в их терминологии — Pods, которые могут объединить несколько контейнеров) объединены под одним названием. Вы можете использовать это название, чтобы адресовать в режиме балансирования нагрузки или прокси вызов на ваш контейнер.

Выводы

Микросервисы — не панацея. Нужно понимать, когда их следует применять. Если задача узкоспециализированная, будет разрабатываться одной небольшой командой — наверняка микросервисы не ваш выбор. Если же у вас достаточно широкое решение и бизнес хочет его развивать в разных направлениях, то можете об этом задуматься.

Необходимо все по максимуму автоматизировать: начиная от Continuous Integration и заканчивая разворачиванием и сбором логов в production.

Оркестрация контейнеров — именно те решения, которые помогают реализовывать микросервисную архитектуру. Оркестрация контейнеров помогает выполнить Push и забыть об этом контейнере, даже не зная, на каком сервере контейнер запустился. Без такой автоматизации отслеживать доступные ресурсы и быстро разворачивать нужное количество контейнеров на кластере серверов будет очень сложно.

LinkedIn

18 комментариев

Подписаться на комментарииОтписаться от комментариев Комментарии могут оставлять только пользователи с подтвержденными аккаунтами.

Спасибо за статью, узнал для себя много полезного

Спасибо за статью, надо большего такого контента на доу

От себя добавлю что самое главное что наконец можно запускать дот нет код на линуксе. Конечно его можно запускать разными способами, но докер уже давно майнстрим технология в Linux/JVM мире и уже очень много было сделано для удобства при разработке, развертывании и обслуживании. Не зря почти все технологические лидеры используют контейнеризацию. Глупо не использовать то, что было наработано годами.

Мы тоже используем докер в продакшене — хостить приложения на линуксе дешевле и удобнее чем на винде

Не пройшло і десяти років

Класно! В Львові в нас є дотнет юзер група — цього місяця буде мітап по мікросервісах. Є бажаючі розказати про свій досвід? Квитки оплатимо :)

Не нужно пугаться: ваш слой занимает лишь маленькую часть всего образа.

Я так и не понял, эта маленькая часть выражается в экономии RAM или FS? Или обоих и в каком обьеме?

Слои там не для экономии ресурсов, а особенность технологии — для фиксации состояния что бы можно было откатить или например кеш заюзать для ускорения билда.
Экономии контейнеры как технологиях ресурсов не дают никакой сами по себе (по сравнению с запуском на одном ОС хосте того, что крутиться в контейнере), а наоборот имеют разумный overhead для развертывания поверх хоста этой кухни всей. Просто их часто продают как lightweight аналог VM, но это скорее как рекоммендация по оптимизации и best practices,которой следует стремиться, что бы эффективно использовать контейнеры. Основной профит — isolation, быстро поднял, снес поднял заново аналогичный за секунды.

то все эти слои будет использоваться повторно, и каждый контейнер будет добавлять только непосредственно свои файлы, как в нашем случае — 306 КБ
поднял заново аналогичный за секунды

Тоесть речь идёт только о скорости поднятия достигнутой при помощи кеша слоев. Ну и хостовый линукс будет один в памяти.

Кеш да, но только как best practice — основная скорость поднятия из-за шаренного ядра ОС и максимально оптимизированного дистрибутива под задачи выполняющие контейнером.

Файловые системы docker также могут эффективно использовать этот «кеш». Если у вас десять образов на базе одного базового в 300Мб и тысяча контейнеров поднято на их базе на одном хосте, то на диске хоста всё это займёт только 300 Мб плюс десять «диффов» образов от базового, плюс тысяча «диффов» контейнеров от образов (ноль для иммутабельных контейнеров).

Основной профит — isolation

изоляция то как раз хуже, чем при использовании VM

Более полный ответ:
по сравнению с развертыванием напрямую на хост-машине — у контейнеров профит в изоляции (каждый контейнер живет в своем мире, не зная про соседей), повторяемости (всегда _почти_ одинаковая среда независимо от хоста) и универсальности (решение позволяет разворачивать однообразно самые различные сервисы).
по сравнению с развертыванием в виртуальных машинах — значительно более быстрое развертывание и значительная экономия ресурсов

по сравнению с развертыванием в виртуальных машинах — значительно более быстрое развертывание

а сколько времени нужно, чтобы приготовить контейнеры?
тогда уж давайте сравнивать время запуска контейнера с временем включения уже готовой VM :-)

значительная экономия ресурсов

одного конкретного ресурса — RAM (и сугубо в случае с микросервисами)
и то — не факт, т.к. сейчас гипервизоры данные в памяти умеют сжимать и дедуплицировать
а вот при локальном хранении контейнеров (на хосте) — расход дискового пространства сумасшедший

а сколько времени нужно, чтобы приготовить контейнеры?

Если имеете в виду процесс билда docker build — то непосредственно время выполнения указанных операций (и которых нет в кеше) в Dockerfile + относительно небольшой оверхед на поднятие контейнеров во время билда
Если же имеете в виду запуск контейнера docker run, то при наличие всех слоев на машине время запуска сравнимо c запуском непосредственно самого решения вне контейнера. Если всех слоев нет — то к этому времени добавляется загрузка недостающих слоев из докер-репозитория.

одного конкретного ресурса — RAM (и сугубо в случае с микросервисами

По сравнению с виртуалками — по всем ресурсам выигрышь на стороне контейнера (за исключением небольшой потери изоляции, которую сервисы бизнес-логики не заметят). RAM, дисковое пространство, CPU наверное в меньшей степени (хотя если сравнивать старт VM со стартом контейнера...)

а вот при локальном хранении контейнеров (на хосте) — расход дискового пространства сумасшедший

Вот тут не совсем понял что с чем сравнивается... если хранить локально такое же количество виртуальных машин будет меньше расход дискового пространства?
Если имеете в виду оставшиеся закешированные образы и выключенные контейнеры — то при наличие оркестратора контейнеров подчищать лишнее будет его обязаностью.

Dockerfile

кто писать будет?
по времени это никак не быстрее какого-нибудь кукингбука

небольшой потери изоляции, которую сервисы бизнес-логики не заметят

а что значит небольшой? как и в чем ее оценить?
если такая небольшая потеря изоляции приведет в итоге к потере бизнеса — ее заметят?

По сравнению с виртуалками — по всем ресурсам выигрышь на стороне контейнера

это высказывание абсолютно голословно, пока не подтверждено хоть какими-то конкретными цифрами
в случае с серверной виртуализацией есть масса данных от вендоров гипервизоров по коэффициентам консолидации (vs baremetal) для RAM, CPU и т.д.
а тут все сводится к — youtu.be/To6CwbzMsQk?t=73

Боюсь эта переписка уходит в не конструктивную плоскость. Все же, постараюсь ответить на ваши вопросы:

кто писать будет?

Тот же человек, который бы писал любой другой скрипт по упаковке решения в артефакт для деплоймента. В одних компаниях это девопс, в других — девелопер, в третьих — человек-сорокоручка. В статье описывается, что время билда образа может значительно ускоряться за счет кеширования слоев. И сравнение с cookbook не совсем корректно, поскольку Dockerfile выполняется в момент подготовки артефакта, а не развертывания

а что значит небольшой? как и в чем ее оценить?

Это так же описано в статье, смотрите пример с Redis. Конечно, если у вас есть, скажем, требования PCI DSS, то надо будет отдельно прорабатывать защиту соответствующих микросервисов. Но если утрировать до «потери бизнеса» — то тогда и VM не являются полноценной изоляцией, как показал Meltdown и Spectre.

это высказывание абсолютно голословно, пока не подтверждено хоть какими-то конкретными цифрами

При этом вы не привели опровергающих фактов :). Как я и упоминал, всегда надо понимать преимущества и недостатки технологий. Негативные стороны VM по сравнению с контейнерами — потребление ресурсов: размер виртуалки, RAM, время старта. По CPU у виртуалок оверхед минимальный, но если придираться — то преимущество в пару процентов на стороне контейнеров. Из преимуществ VM — более стабильное/отточенное решение, привычное для бизнеса.

Если говорить о производительности — есть немного устаревшая статья (2014 год) по сравнению KVM с Docker domino.research.ibm.com/...​0681E7B/$File/rc25482.pdf. Вывод, который они сделали:

Both VMs and containers are mature technology that have benefited from a decade of incremental hardware and software optimizations. In general, Docker equals or exceeds KVM performance in every case we tested. Our results show that both KVM and Docker introduce negligible overhead for CPU and memory performance (except in extreme cases). For I/O intensive workloads, both forms of virtualization should be used carefully.
KVM с Docker domino.research.ibm.com/...​0681E7B/$File/rc25482.pdf

я не работал с KVM, но как специалист по стораджам, глядя на намерянную 2х кратную просадку по iops для этого гипервизора, могу сказать одно — это дичь полнейшая и говорит многое о «достоверности» данных данного тестирования

По CPU у виртуалок оверхед минимальный, но если придираться — то преимущество в пару процентов на стороне контейнеров.

пока не видел, чтобы кто-то смог адекватно измерить эту разницу между baremetal, гипервизорами и контейнерами под нагрузкой(!), просто потому что она меньше точности измерений
www.slideshare.net/...​r-vs-vms/19?src=clipshare
0% — под нагрузкой и 1.5% разницы в idle (!), интересно на что это может повлиять :-)
по приведенной ссылке на IBM — у Docker самая большая сетевая latency из-за постоянного NAT, при большом сетевом траффике это неизбежно выльется и в CPU overhead

Из преимуществ VM — более стабильное/отточенное решение, привычное для бизнеса.

в общем случае, бизнес ничего не знает ни про одно, ни про другое — в этом плане им абсолютно пофигу
из технических преимуществ — доступность live migration для VM у всех гипервизоров (обслуживание хостов, ребалансировка VM — non-disruptive), то есть нет изначального требования, чтобы запускаемые сервисы были stateless

за счет кеширования слоев

в данном моменте таки нужно определиться — либо чистить все незапущенное на хосте, либо таки засирать этим файловую систему, о чем я уже упоминал и был не понят

Docker в этом плане похож на Git. Вы когда создаете бранчи — ваш код не копируется в новое место. Можно создать тысячу бранчей, но размер репозитория будет такой же. Когда вы делаете комит, гит просто добавляет «слой» в котором есть ваши изменения (не совсем так, но для сравнения подойдет). Если у меня есть docker контейнер на базе Ubuntu 16.04 LTS (который весит сотни мегабайт), то при запуске сотни контейнеров на одном хосте будет создана всего одна копия Ubuntu 16.04 LTS

Что касается памяти — при запуске докер контейнера просто создается хост процесс, весь кернел шарится с остальными. То есть намного экономнее запустить сотню докер контейнеров, чем сотню виртуалок с вашим кодом.

Очень хорошая статья! Спасибо!

Подписаться на комментарии