Luxoft Java Hiring Week - $2000 бонусу, круті проекти та подарунки! Реєструйся!
×Закрыть

Динамическое программирование: что это, как работает и где применяют

Стиль этой статьи научно-популярный, поэтому термины заменены на «простые» слова. Но материал ориентирован на программистов или на людей, которые практикуют написание кода. Здесь используются понятия из программирования и жаргон. Не нужно пытаться осилить всю статью за один вечер. Сначала почитайте теорию и примеры реального применения, а в другие дни порешайте задачи.

Введение и немного истории

Всем привет. Меня зовут Тимофей, я Python/ML-разработчик, имею 6 лет опыта в индустрии. Занимаюсь исследованиями в области архитектур нейронных сетей в аспирантуре ХНУРЭ, кандидатская связана с нео-фаззи нейронными сетями.

Тема этой статьи важна для тех, кто сталкивается с обработкой данных в своей работе. На практике динамическое программирование может пригодиться вам всего лишь 1–2 раза в жизни, но сам концепт помогает по-другому посмотреть на работу с алгоритмами.

Когда я сам учился решать задачи с помощью этого подхода, у меня часто возникали трудности с интуицией решения. Скажу даже, что однажды из-за задачи по динамическому программированию я ужасно провалил одно собеседование. Ну не получалось у меня рассмотреть нужные зависимости в структурах данных, как я не пытался. Но меня всегда привлекал этот метод, поскольку в нем есть что-то нестандартное, он часто с большим отрывом обыгрывает другие алгоритмы в вычислительной гонке. В общем, по некоторым причинам подход к решению задач с помощью динамического программирования кажется мне не интуитивным. И многие статьи/уроки, которые освещают эту тему, не раскрывают ее с той стороны, с которой мне бы хотелось.

Вот на основании этих мыслей и возникла идея написать материал.

Итак, что же такое динамическое программирование

Начнем с истории (весьма забавной, кстати). Она о Ричарде Беллмане — человеке, который придумал и закрепил в научном сообществе понятие «динамическое программирование». В 1940 году он использовал этот термин для задач, где решение одной части задачи зависело от другой. Затем в 1953-м Беллман изменил и дополнил определение динамического программирования до его текущего вида.

Он забавно описывает ситуацию с именованием этого понятия. Беллману нужно было придумать название, но чиновник, перед которым он тогда отчитывался, сильно ненавидел (математик подчеркивает, что именно «ненавидел») термины и не хотел разбираться с ними. Каждый раз всем сотрудникам приходилось буквально дрожать от страха из-за того, что их босс не может понять что-то и мешает это с грязью в своих невеселых каламбурах. А особенно математические термины!

В связи с этим Беллман много времени и усилий потратил на придумывание названия. Слово «программирование» было выбрано как аналог слову «планирование», которое не подходило по ряду различных причин (у Советов все время было планирование чего-то).

А слово «динамическое» было выбрано исходя из того, что, помимо передачи сути подхода, с ним трудно было придумать что-то унизительное, бранное. Беллман не хотел, чтобы руководитель как-то коверкал его термин. Даже чиновник не смог бы сделать это так легко (у читателей, конечно же, найдется пара вариантов). Вот таким образом и сформировался термин «динамическое программирование».

Официальное определение есть на Википедии. Упрощенное определение от меня: динамическое программирование — это подход к решению задач, который основывается на том, что исходная задача разбивается на более мелкие подзадачи, которые проще решить. И потом решения этих подзадач можно использовать для решения исходной задачи.

Мой друг, который делал ревью статьи, сказал, что все задачи решаются таким образом! Я был повержен этим утверждением и не нашел, что ему ответить.

Потому важные дополнения:

  • подход имеет смысл, если решения подзадач использовать эффективно (запоминать, например);
  • подзадачи имеют общую структуру, поэтому к их решению можно применить какой-то выработанный однородный способ, а не решать каждую отдельно разными алгоритмами.

В тексте иногда будет использоваться аббревиатура ДП — динамическое программирование.

Пройдемся более детально по этому определению.

1. ДП — это подход к решению задач. То есть это не просто формула или алгоритм, а скорее методология, которая говорит вам, как думать, чтобы решить задачу.

2. Это подход к решению задач, где нужно разбить задачу на более мелкие подзадачи, которые легко решить. К этому утверждению может быть много вопросов.

Что означает «более мелкие подзадачи»? (Можно также сказать «более простые подзадачи»). Ответ: это задачи, которые нужно решить для входных данных меньшего размера. Под меньшим размером можно подразумевать или меньшее число, или массив меньшего размера, или меньшее количество настраиваемых параметров и так далее. Возьмем, например, числа Фибоначчи. Обозначим как Ф(N) — N-е число Фибоначчи. То есть Ф(5) — это пятое число Фибоначчи. Чтобы посчитать пятое число Фибоначчи, нужны третье Ф(3) и четвертое Ф(4) числа Фибоначчи. Вот как раз задачи нахождения третьего и четвертого чисел Фибоначчи и являются более мелкими подзадачами.

Эти более мелкие задачи легко/просто решить. Если вы знакомы с O-нотацией, то я вам скажу просто, что более простая задача O(простая) является легче сложной О(сложная), если О(простая) < O(сложная) касательно сложности решения задачи.

Если же вы не знакомы с O-нотацией, то будет уместно сказать, что более простые задачи — те, на решение которых нужно меньше операций (память мы сейчас не учитываем). Например, чтобы сложить два числа (2 + 3 = 5), нужно меньше операций, чем, чтобы сложить 3 числа (2 + 3 + 4 = 9). В алгоритмах, дискретной математике, олимпиадных задачах чаще всего имеется в виду порядок сложности решения. То есть чтобы не просто было на одну операцию меньше, а чтобы количество операций было на порядок меньше или в разы меньше (или даже экспоненциально меньше!). Но все же, чтобы разобраться с этими понятиями, советую почитать об О-нотациях.

3. Решения более мелких задач можно использовать для решения исходной (большой) задачи. Числа Фибоначчи здесь тоже хороший пример. Если нам нужно Ф(5) и мы уже знаем Ф(3) и Ф(4), то можем использовать их для исходной задачи: Ф(5) = Ф(3) + Ф(4).

На рисунке ниже хорошо изображена зависимость в числах Фибоначчи.

Рис. 1. Граф вычисления пятого числа Фибоначчи

На практике люди часто путают ДП с рекурсией или с методом «разделяй и властвуй». Но здесь весьма просто все прояснить и найти отличия.

В рекурсии вы в некотором месте алгоритма начинаете использовать этот же алгоритм (или его часть) для решения подзадачи. При этом вам все равно, решалась ли эта подзадача раньше. И таким образом строится дерево рекурсии, в котором вы вызываете условную функцию A внутри функции А.

В методе «разделяй и властвуй» имеет значение, на каких данных вы вызываете свою функцию, но тут нет таких хороших инструментов ДП, как мемоизация и табуляция (речь о них пойдет дальше).

Как применять динамическое программирование для решения задач

У программистов могут быть совершенно разные задачи. В одном случае вам нужно просто использовать язык разметки, чтобы что-то нарисовать, в другом — прописать инструкции через ассемблер для эффективной работы процессора.

Но у всех людей работает эта ассоциация — программисты разрабатывают алгоритмы.
И вот представим, что и к вам прилетела свеженькая задача, у которой есть цель и ограничения. Как и в любой задаче, в ней также присутствуют структуры данных и зависимости от других частей системы.

И в один момент вы понимаете, что именно для этой задачи важно быстродействие. Вы можете это понять не сразу. Например, сначала вы решили задачу, потом заметили, что ваше решение медленно работает. Или же вам невдомек, как решить задачу, чтобы результаты вычисления были получены быстрее чем через 100 лет.

Да, наверняка у вас есть/был способ, который решал бизнес-цели задачи. Но когда вы понимаете, что время решения сильно увеличивается (полиномиально, например) при росте количества/значения входных данных, то пора задуматься о ДП.

Прежде чем описать алгоритм, введем два понятия — мемоизация и табуляция.

Мемоизация и табуляция

Мемоизация — оптимизационная техника, которая позволяет запоминать результаты вычислений и потом переиспользовать их тогда, когда нужно сделать такие же вычисления.

Любимый пример: при подсчете седьмого числа Фибоначчи вы можете запомнить четвертое число Фибоначчи и не вычислять его каждый раз, а только один раз.

Также эту технику описывают как «сверху вниз». Причина — на рисунке. Это граф в виде дерева рекурсии для вычисления пятого числа Фибоначчи:

Рис. 2. Дерево рекурсии вычисления пятого числа Фибоначчи

То есть вы сначала решаете большую проблему «сверху» — Ф(5), а потом спускаетесь. Так вот, когда вы, например, первый раз достигли вершины графа Ф(2) и посчитали ее значение, то запоминаете его и второй раз уже не пересчитываете, а достаете из памяти. То же самое и для остальных вершин. В большинстве случаев доставать из памяти намного быстрее, чем пересчитывать.

Табуляция — оптимизационная техника, которая начинает решать подзадачи с самой простой и потом при дальнейшем продвижении решает все более сложные подзадачи, пока не будет решена основная задача. При этом для решения более сложных подзадач используются решения более простых подзадач.

В отличие от мемоизации, этот подход называют «снизу вверх» из-за того, что вы сначала беретесь за самые простые задачи.

На числах Фибоначчи это работает в том случае, когда вы решаете задачу с помощью цикла. То есть Ф(i) = Ф(i-1) + Ф(i-2), где i — это индекс внутри цикла. И если вы уже получили Ф(i-1) и Ф(i-2) на предыдущих итерациях, то текущее вычисление не составит труда.

Вот здесь превосходная визуализация.

Понятия мемоизации и табуляции позволяют расширить свой взгляд на программистские хаки для решения задач.

Итак, пошаговый алгоритм для задач динамического программирования

1. Представим, что решение вашей задачи — это результат работы функции Z.

Итого Z(x) = y, где x — входные параметры, y — решение задачи для входных параметров x.

2. Посмотрите, как ведет себя решение задачи для небольших и последовательных значений x. То есть в тех случаях, когда объем вычислений небольшой.

Под «посмотрите» я имею в виду в буквальном значении — напишите все результаты (и то, как они получились) и пробегитесь своими глазами по всем решениям.

Например, если знаете, что х может принимать значения натуральных чисел, то посмотрите на результаты работы функции при:

Z(1) = y_1
Z(2) = y_2
Z(3) = y_3
Z(4) = y_4
Z(5) = y_5

Если же x — это какой-то массив, то посмотрите, как ведет себя функция Z при разных небольших массивах:

Z([1, 2, 3]) = y1
Z([4, 5]) = y2
Z([1, 5, 4]) = y3

Здесь элементы массива должны удовлетворять требованиям вашей задачи (например, натуральные или положительные и рациональные зависит уже от вашей конкретной задачи).

3. На основании результатов из предыдущего пункта попытайтесь понять общую закономерность.

И, что очень важно, проверьте, есть ли зависимость в результатах вычисления. То есть может y_5 зависеть от y_4 или от y_2. Или, может, данные, которые были получены при вычислении y_3, можно использовать при вычислении y_5. Например, в числах Фибоначчи Ф(5) зависит от Ф(3) и Ф(4).

Бывают случаи, когда нет прямой зависимости между результатами разных вычислений. Или она есть, но ее сложно увидеть, так как для вас эта задача является непривычной.

Мы такие случаи рассмотрим в примерах с задачами.

4. Понять, как использовать увиденную закономерность для решения общей задачи.

Если брать пример с числами Фибоначчи, то это означает, что в процессе решения некоторые значения будет проще сохранить в памяти, а не пересчитывать каждый раз. А это как раз будет мемоизация.

В примерах, где решение задачи для N + 1 можно получить из решения для N, весьма вероятно, что придется хранить в памяти состояние переменных (индексов, указателей) в момент получения решения N.

Простой пример — это заполнения массива числами Фибоначчи через цикл.
(arr[i] = arr[[i-1] + arr[i-2]. На момент вычисления arr[i] у нас в памяти уже были правильные решения для arr[i-1] и arr[i-2].)

Для одномерной задачи это может выглядеть примерно так:

Рис. 3. Иллюстрация сохраненного состояния одномерного массива

В этом примере нужно посчитать значение произвольной функции S от числа n, то есть S(n). Но во время поиска S(n-1) у вас были еще дополнительные переменные, которые работали с другими элементами прошлых решений. Пусть это будут указатели pointer № 1 и pointer № 2. Также у вас применяется стандартная индексация массива (индекс i может принимать значения из {0, 1, 2, ..., n-1}). Тогда выходит, что, следуя алгоритму, для поиска S(n) нужны S(n-1), pointer № 1 и pointer № 2.

Это можно назвать примером табуляции, поскольку для нахождения S(n) вы используете информацию S(n-1), при этом считаете результат снизу вверху: сначала S(1), потом S(2) и так далее, пока не дойдете до нужного S(n).

В двумерном мире все продолжается по аналогии. Например, у вас зависимость от двух координат/переменных. То есть наша функция S теперь зависит от двух переменных — S(i, j). И вы можете легко посчитать решения (или часть решения) по каждой из них при условии, что вторая координата будет константой. В примере ниже мы зафиксировали это значение на числе ноль.

Рис. 4. Пример заполнения двумерной матрицы для задачи динамического программирования

Но вот для получения решения S(3, 3) (или же в более общем виде S(i, j)) вам потребуется:

  • много рекурсии;
  • много перебора.

И вы понимаете, что это не для вас, так как очень много ресурсов/времени нужно потребить.

Подход с помощью ДП как раз и предлагает получить искомое S(3, 3) путем более эффективного использования уже имеющихся решений. Мы будем применять полученные результаты из этих подзадач для нахождения нужного нам главного решения.

В примере ниже мы посчитали результат для S(3, 3), вычисляя при этом не все возможные S(i, j), а только часть из них. Стрелочками показано, как мы двигались по пространству результатов для подзадач.

Рис. 5. Пример того, каким бывает путь к решению задачи ДП в двухмерном пространстве. Из-за того, что мы первый столбец и первую строку посчитали заранее, это было наглядным примером использования табуляции

То есть мы получили значение для S(1, 1) на основании S(0, 1) и S(1, 0). Затем получили S(2, 1) на основании S(1, 1) и S(2, 0). Да, это абстрактный пример, но он весьма хорошо описывает подход, который используется в реальных задачах. Суть в том, что мы:

  • часть результатов рассчитываем заранее;
  • храним в памяти полученные результаты.

По аналогии вы находите решение и для задач большой размерности. Да, это легко сказать, но универсального ключика под все задачи, к сожалению, нет. Разве что ваш ум.

5. Вот мы и подобрались к тому, чтобы привести наше решение в пригодный для бизнес-целей вид. Время оформлять его. Если нужно, пишем код, получаем решение, радуемся. Ну а если код не нужен, оформляем блок-схему или просто радуемся, что решение есть у нас в голове. (Замечу, однако, что часто решение «в голове» не покрывает все детали задачи.)

По этому пункту особых замечаний и советов я дать не могу. Одна вещь только. Так как для ДП зачастую нужна дополнительная память, то в основном это следующие структуры данных:

  • одномерный массив;
  • двухмерный массив;
  • сколько-будет-нужно-мерный массив;
  • хэш-таблица.

Решает ли ДП задачи из реального мира

Да, конечно! ДП решает задачи из реального мира. Хотя это не очень-то легко заметить.

Одна из самых наглядных задач — построение маршрута, который проходит через несколько точек. Приложения для онлайн-карт и сервисы такси часто сталкиваются с подобным вопросом (вероятно, что одни сервисы используют API других сервисов). Например, захотелось вам развести компанию друзей после веселой вечеринки на такси. Ну а как понять, кого отправить домой первым и через какие улицы ехать? Вот здесь и работает с теорией графов наше динамическое программирование. Из классических задач ДП это пересекается с задачей коммивояжера.

Соответственно, похожим является пример в компьютерных сетях, когда пакет данных нужно доставить сразу нескольким адресатам. Алгоритму нужно понять, по какому маршруту и в каком порядке доставить данные во все пункты назначения.

Утилита diff — тоже яркий пример использования ДП. Так как задача состоит в том, чтобы найти похожие подстроки в двух строках, то здесь явно прорисовывается одна из классических задач ДП — нахождение наибольшей общей подпоследовательности.

Вот здесь рассказывается, как смежную с diff задачу приходится решать в реальном приложении. На фронтенде!

Еще интересный пример. Ребята сжимают изображения с помощью ДП. Все вы знаете, что при сжатии иллюстрации используют подходы, где похожие места/одинаковые пиксели записывают через меньшее количество информации. А вот в приведенном примере описан подход того, как можно сжать изображение с модификацией контента изображения и при этом сохранить высокий уровень информативности. То есть если смысловая нагрузка фото была «собака с кошкой на лужайке», то и после обрезания она будет такой. А это уже непростая задача!

Прикладным программистам при использовании этого подхода стоит в первую очередь разделить бизнес-логику и алгоритмическую часть. Чтобы не приходилось потом объяснять продуктовым людям, почему вы упустили баг, в котором берете элемент под индексом 100 (arr[100]) из массива размером в 100. Но это, конечно же, касается не только ДП.

Да, в мире реальных задач аутсорса/аутстаффа решать задачи с помощью ДП приходится нечасто. И вам ни в коем случае не нужно стараться лишний раз придумать себе, где применить ДП. Просто уже достаточно, что вы знаете о таком подходе, понимаете, как он работает, и знаете, где его можно использовать в реальной жизни.

Примеры применение динамического программирования для решения алгоритмических задач

Чтобы лучше разобраться с динамическим программированием, я приведу пример решения трех различных задач. Сложность их возрастает (первая — самая легкая, последняя — самая сложная).

Примечание. Если вы не программист, то можете пропустить этот раздел, так как он, скорее всего, вам покажется скучным. А из-за того, что вы не будете применять знания из примеров на практике, то они быстро выветрятся из головы. Не волнуйтесь, в этом нет ничего плохого.

Задача 1. Восхождение по лестнице

Вы поднимаетесь по лестнице. Чтобы добраться до вершины, нужно преодолеть n ступенек. За один шаг вы можете подниматься на одну или на две ступеньки. Вопрос: сколько существует различных способов подняться?

Рис. 6. Схематическое изображение человечка, которому нужно подняться по лестнице

Для примера покажу один из возможных способов:

  1. 0 → 1 (мы прошли одну ступеньку за один шаг).
  2. 1 → 3 (мы прошли две ступеньки за один шаг).
  3. 3 → 5 (мы прошли две ступеньки за один шаг).

Решение с помощью ДП

Воспользуемся нашим алгоритмом. Итак, пусть у нас есть функция DP_steps(n) — возвращает количество различных способов подняться в зависимости от n ступенек.

(DP_steps это сокращение от Dynamic Programming steps.)

Далее смотрим, как ведет себя решение задачи от различного количества ступенек.

1. DP_steps(1) = 1. Так как существует только один способ подняться на одну ступень — за один шаг преодолеть одну ступень.

2. DP_steps(2) = 2. То есть существует два способа подняться на две ступени. Первый способ — сделать два шага по одной ступени. Второй способ — сделать один шаг в две ступени.

Дальше я упрощу запись и буду указывать количество ступеней за шаг.

3. DP_steps(3) = 3.
Первый способ: 1, 1, 1.
Второй способ: 1, 2.
Третий способ: 2, 1.

4. DP_steps(4) = 5
Первый способ: 1, 1, 1, 1.
Второй способ: 1, 2, 1.
Третий способ: 2, 1, 1
Четвертый способ: 1, 1, 2
Пятый способ: 2, 2.

Теперь попытайтесь понять общую закономерность в результатах. Если у вас есть время и желание подумать, то лучше попытайтесь сначала сами это сделать. Дальше будут описаны детали решения.

Итак, что же можно было заметить? А то, что результаты DP_steps(n) зависят от DP_steps(n-1) и DP_steps(n-2).

И представим, что мы уже знаем DP_steps(2) и DP_steps(3). Каким же будет DP_steps(4)?

Для получения ответа необходимо заметить, что в четвертую ступень можно попасть только из второй и из третьей. А как мы уже добирались до второй и до третьей ступеней, уже неважно. Главное, что мы там уже оказались. А это означает, что нашим ответом будет сумма способов попасть во вторую ступень плюс сумма способов попасть в третью ступень. DP_steps(4) = DP_steps(2) + DP_steps(3), то есть DP_steps(4) = 2 + 3 = 5.

Дальше уже нужно просто запрограммировать решение, и для этого есть несколько способов. Я думаю, что самый очевидный — это создать массив и пробежаться по нему циклом:

dp_steps[i] = dp_steps[i-1] + dp_steps[i-2]

Пусть индекс массива у нас отвечает за количество ступеней (тогда размер массива равен n + 1).

И заранее объявить что:
— dp_steps[0] = 1
— dp_steps[1] = 1
— dp_steps[2] = 2

И после заполнения цикла результат будет просто dp_steps[n].

Если присмотреться, то задача похожа на задачу Фибоначчи. Можете подумать, как решить модификацию этой задачи для случая, когда вы можете за один шаг проскакивать не 1–2 ступени, а 1, 2 или 3 ступени.

Код на Python:

def climb_stairs(n: int) -> int:
   if n == 1:
       return 1
   if n == 2:
       return 2

   a, b = 1, 2

   for _ in range(2, n):
       b = a + b
       a = b - a
   return b

Задача 2. Поиск размера самой длинной строго возрастающей подпоследовательности

Пояснение к условию задачи. Подпоследовательность — это последовательность, которая может быть получена из исходной последовательности путем удаления некоторых или никаких (!) элементов из исходной последовательности.

Например, [2, 4, 1] является подпоследовательностью [1, 2, 5, 7, 4, 2, 1]. Чтобы последовательность была строго возрастающей, нужно, чтобы каждый ее элемент был строго больше предыдущего.

На примере массива: пусть у нас есть массив array, то он будет строго возрастающим, если array[i] > array[j] для всех i > j.

Примеры:

  • [1, 2, 4] является строго возрастающей последовательностью для [5, 1, 1, 7, 2, 4]. Длина равняется трем.
  • Для массива [2, 2, 2] размер самой длинной строго возрастающей последовательности равен 1.

Решение без помощи ДП

Первое, что может прийти в голову — это перебрать все возможные последовательности. То есть итерировать массив по всем его числам и каждый раз, когда встречаем число, которое нарушает возрастающую последовательность, вызывать еще раз метод поиска самой длинной подпоследовательности, но уже начиная с этого числа.

Например, если у нас есть массив [3, 4, 1, 7]. И мы итерируемся по нему:

  • Первый элемент — 3, все хорошо.
  • Второй элемент — 4, последовательность возрастающая, все хорошо. Длинна равна двум.
  • Третий элемент — 1. Ага, возрастающая подпоследовательность нарушена, мы не можем добавить в нее 1.

Тогда мы запускаем новый поиск строго возрастающей последовательности, но уже начиная с 1. То есть вызываем наш метод для массива [1, 7]. И так далее.

В конце мы просто возвращаем размер самой большой строго возрастающей подпоследовательности. Понятно, что если массив будет строго убывающим (например, [7, 6, 5, 4, 3, 2, 1]), то наша функция будет вызываться рекурсивно много раз.

Решение с ДП

Попробуем применить подход ДП. Итак, пусть есть наша функция — length_of_LIS. Где LIS это Longest Increasing Subsequence.

В этой задаче мы не можем просто проверять, как работает функция, когда мы даем ей на вход только одно небольшое натуральное число. Поэтому для того, чтобы посмотреть, как ведут себя результаты функции, придумаем себе какой-то небольшой массив, по которому будет легко найти правильный ответ и человеку.

Например, [1, 3, 2]. Начнем с одного элемента — [1].

length_of_LIS([1]) = 1. Здесь все понятно.
length_of_LIS([1, 3]) = 2. Здесь тоже все понятно, два подряд строго возрастающих числа.
length_of_LIS([1, 3, 2]) = 2. В этом примере у вас может произойти секундная задержка, где вы, увидев число 2, вернетесь и проверите глазами, что только один меньше двух. Затем вы быстренько сравните по длине две последовательности [1, 3] и [1, 2]. Увидите, что они одинаковые, подумаете, нормально ли это, и поймете, что нормально. И затем вернете ответ: 2.

То есть мы видим, что для последнего примера пришлось вернуться назад и найти число поменьше. А если бы массив был такой: [0, 1, 3, 2], мы бы, когда возвращались и нашли 1, должны были бы понимать, что до единички еще есть и 0, который добавляет длины в эту последовательность.

Первое, что подумал: я бы не хотел возвращаться назад к массиву во время того, как я его итерирую. Ведь это на самом деле никак не влияет на размер самой большой строго возрастающей подпоследовательности.

Ведь я точно знаю, что для каждого среза массива (то есть куска массива от нулевого до какого-то элемента) у нас есть решение. Когда мы здесь прибавляем следующий элемент, то решение может поменяться. Но если мы знаем, как образовалось предыдущее решение, то нам уже необязательно проходить еще раз по массиву.

И вот здесь мое решение и решение известного сервиса Leetcode расходятся (мне кажется, что их решение более канонично с точки зрения ДП).

Следующий этап — понять, как можно переиспользовать то, что в данную итерацию массива у нас уже существует решения задачи. И на следующем шаге итерации мы можем это переиспользовать.

Добавим структуру данных — HashMap. Назовем ее просто: saved_lengths. Будем рассматривать saved_lengths как словарь {ключ_1: значение_1, ключ_2: значение_2}

Ключами этого словаря будут числа, которые встречаются в нашем массиве. А значениями будут (вот здесь внимательно читайте) размеры самых длинных строго возрастающих подпоследовательностей до момента встречи этого числа. Ух, сложно! Но я сейчас все объясню.

Например, на вход нам передали массив [10,9,2,5,3,7,101,18].

Мы начинаем итерироваться по нему:

  • 10. Итак, мы встретили это число в массиве и запишем его в saved_lengths. Так как в saved_lengths больше нет элементов меньше 10, то мы знаем, что длина самой длинной строго возрастающей последовательности на данном этапе равна 1.
    saved_length = {10: 1}
  • 9. То же самое. Проверяем, есть ли числа меньше 9 в saved_length. Их там нет. Добавляем в массив ключ 9 и значение 1.
    saved_length = {10: 1, 9: 1}
  • 2. То же самое. Проверяем есть ли числа меньше 2 в saved_length. Их там нет. Добавляем в массив ключ 2 и значение 1.
    saved_length = {10: 1, 9: 1, 2:1}
  • 5. А вот здесь интереснее! Проверяем, есть ли числа меньше 5 в saved_length. И они там есть. Это 2. Значение для 2 в saved_length равно 1. А это означает, что размер самой длинной строго возрастающей последовательности для 5 равен 1 + 1 = 2. Что произошло: мы посмотрели в saved_length и увидели, что есть числа меньше 5. И для этих чисел у нас было записано, что самая длинная последовательность равна 1. Вот и мы добавили в размер этой последовательности еще единичку, так как 5 — это новый элемент этой последовательности.
    saved_length = {10: 1, 9: 1, 2:1, 5:2}
  • 3. Смотрим в saved_length. Там есть одно число меньше 3 — это 2. В saved_length у нас записано значение 1 для ключа 2. Добавляем в saved_length новую пару: ключ = 3, значение = 2.
    saved_length = {10: 1, 9: 1, 2: 1, 5: 2, 3: 2}
  • 7. Здесь у нас новый интересный элемент. У нас есть числа 5 и 3 которые меньше 7. Для обеих длина последовательности равна двум, так что для 7 длина равна 3. То есть для 7 у нас две последовательности длиною в три элемента:
    — [2, 5, 7]
    — [2, 3, 7]
    saved_length = {10: 1, 9: 1, 2: 1, 5: 2, 3: 2, 7:3}
  • 101. Здесь та же логика, что и для 7. Только у нас уже длина будет 4, так как 7 меньше 101 и длина последовательности для 7 равна 3. То есть мы прибавляем единичку.
    saved_length = {10: 1, 9: 1, 2: 1, 5: 2, 3: 2, 7:3, 101: 4}
  • 18. Числа 2, 3, 5 и 7 меньше 18. Самая длинная последовательность из всех чисел у нас для 7 — ее длина равна трем. Значит, для 18 длина будет 4.
    saved_length = {10: 1, 9: 1, 2: 1, 5: 2, 3: 2, 7:3, 101: 4, 18: 4}

Затем мы просто перебираем все значения (а не ключи) в saved_length — максимальный вариант это 4, что и является решением нашей задачи!

Код на Python:

from typing import List


def length_of_LIS(nums: List[int]) -> int:
   saved_length = {}
   for n in nums:
       if n not in saved_length:
           saved_length[n] = 1
       for k, v in saved_length.items():
           if n > k:
               saved_length[n] = max(v + 1, saved_length[n])

   return max(saved_length.values())

Задача 3. О поиске N-го уродливого числа

Пояснение к условию задачи. Под «уродливым числом» (англ. Ugly Number) мы понимаем целое положительное число, простыми делителями которого являются только 2, 3 и 5.

Примеры некоторых уродливых чисел:

  • 2 — делится только на 2.
  • 6 — делится на 2 и на 3.
  • 24 — делится на 2 (3 раза) и на 3 (1 раз), то есть 24 = 2 * 2 * 2 * 3.

Примеры не уродливых чисел:

  • 14 — делится на 2 и на 7 (а 7 уже не входит в наш список).
  • 220 — делится на 2 (2 раза), на 5 (1 раз) и на 11 (а 11 тоже не входит в наш список). 220 = 2 * 2 * 5 * 11.

Вот список первых 11 уродливых чисел:

1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15.

Задача состоит в том, чтобы найти уродливое число под определенным номером. То есть если нужно первое число, то ответ 1, если десятое — 12.

Обозначим нашу функцию как U_N(n). Она возвращает n-ное уродливое число.

Иногда вместо «уродливое число» я буду использовать аббревиатуру УЧ.

Решение № 1 — в лоб

Алгоритм решения: перебираем все числа подряд начиная с единицы. При этом считаем количество встреченных уродливых чисел. Когда дошли до нужного нам по счету числа — возвращаем его.

Блок-схема для наглядности:

Рис. 7. Блок-схема решения задачи поиска N-го уродливого числа

В приведенном выше алгоритме есть функция is_number_ugly. Это не сложная функция, которая проверяет простые делители числа. Если простые делители только 2, 3 и 5, то функция возвращает нам истину (true), иначе же возвращается значение ложь (false).

Самый главный недостаток этого алгоритма в том, что нам для каждого числа нужно делать проверку, уродливое ли оно или нет. А эта задача выполняется не за константное время, поэтому хотелось бы как-то избежать подобных вычислений.

Решение № 2 — подход с помощью динамического программирования

Сначала воспользуемся нашим подходом для понимания того, является ли эта задача той задачей, которую можно решить с помощью ДП.

U_N(1) = 1
U_N(2) = 2
U_N(3) = 3
U_N(4) = и здесь уже первая «мини-нетривиальность». При получении этого числа мы проверяем число 4 на то, является ли оно уродливым. И для выяснения этого делим 4 на 2 (2 раза). И понимаем, что U_N(4) = 4.
U_N(5) = 5
U_N(6) = 6
U_N(7) = а здесь вообще чудеса происходят. Мы делим 7 на 2 — не делится. Делим 7 на 3 — тоже не делится. И даже на 5 не делится! Выходит, что 7 — это первое натуральное число, которое не является уродливым. А что еще интереснее, U_N(7) = 8.

Ну как, вы заметили общую закономерность, которая скажет нам, что эта задача решается с помощью ДП? Скажу честно, я не заметил ее сразу. Но умные ребята заметили. И вот как прийти к этой закономерности:

1. Согласитесь с тем, что каждое уродливое число является результатом произведения чисел 2, 3, 5. Это, собственно, следует из определения уродливых чисел.

2. А это означает, что каждое уродливое число (больше 1) является некоторым другим уродливым числом, умноженным на 2, 3 или 5. Чтобы убедиться в истинности этого утверждения, представьте, что у вас есть сколь угодно большое число M. Если оно уродливое, то значит, делится на 2, 3 или 5. Представим, что на 2. Вот поделим мы его на 2. M/2 = G. Мы знаем, что M — уродливое. А это означает, что если его разделить на 2, то все, что останется, тоже состоит из простых множителей 2, 3, 5.

А значит и G — уродливое. Пример: 100 — уродливое. Его простые множители: 1 * 5 * 5 * 2 * 2 = 100. Разделим мы 100 на 2. 100 / 2 = 50. Это означает, что мы просто убрали один из множителей. Было 1 * 5 * 5 * 2 * 2 = 100, а стало 1 * 5 * 5 * 2 = 50. Мы видим, что 50 тоже состоит из простых множителей, входящих в множество {2, 3, 5}. А значит и 50 — простое число.

3. Предыдущий пункт приводит к мысли, что мы не должны просто перебирать все подряд числа и проверять, являются ли они уродливыми. Мы можем просто сгенерировать нужное количество уродливых чисел. Будет генерировать (N+1)-ое уродливое число исходя из уже имеющихся N уродливых чисел.

Но как это сделать эффективным образом? Дальше я приведу детали решения (по порядку):

  1. Первое уродливое число равно единице — это из определения.
  2. Чтобы получить второе УЧ, воспользуемся знанием, что мы его можем получить из уже имеющихся уродливых чисел. У нас пока оно только одно — это 1. Итак, мы знаем, что нужно умножить 1 на 2, 3 или 5. Конечно же, умножим его на 2. Итак, следующее уродливое число это 2.
  3. У нас уже есть предыдущие уродливые числа — 1 и 2. Как же получить следующее?
    Тоже будем умножать. Умножим 1 на 3 и 5 (на 2 уже множили) и умножим 2 на 2, 3 и 5. Следующим по возрастанию числом будет 3.
  4. У нас уже есть 1, 2, 3. Нам тоже нужно их умножать на 2, 3, 5. Но мы уже умножали единицу на 2 и на 3. Мы же не будем делать это каждый раз, чтобы получить новое число, ведь мы получим только старые, которые уже есть. Поэтому будем делать не все умножения. Единицу умножим только на 5, для 2: 2 * 2, 2 * 3, 2 * 5, для 3: 3 * 2, 3 * 3, 3 * 5. Следующее по возрастанию — 4, это результат произведения 2 * 2. Ухты, мы как будто сдвинулись с места и начали умножать числа не только на единицу.
  5. Пропустим несколько итераций.
  6. И поймем: нужно хранить ссылки на числа, которые являются уродливыми и результат произведения которых на 2, 3 или 5 не превзошел другие числа в предыдущих итерациях.

Ниже приведена визуализация, которая поможет разобраться с этой идеей:

Рис. 8. Визуализация решения задачи об уродливых числах с помощью ДП

Вот еще ресурс, где приведена эта визуализация только уже в виде анимации.

Код на Python:

def find_nth_ugly_number_dp(n: int) -> int:
   ugly_numbers = [0] * n
   ugly_numbers[0] = 1

   p2 = 0
   p3 = 0
   p5 = 0

   multiplier_2 = 2
   multiplier_3 = 3
   multiplier_5 = 5

   for i in range(1, n):
       ugly_numbers[i] = min(multiplier_2, multiplier_3, multiplier_5)

       if multiplier_2 == ugly_numbers[i]:
           p2 += 1
           multiplier_2 = ugly_numbers[p2] * 2

       if multiplier_3 == ugly_numbers[i]:
           p3 += 1
           multiplier_3 = ugly_numbers[p3] * 3

       if multiplier_5 == ugly_numbers[i]:
           p5 += 1
           multiplier_5 = ugly_numbers[p5] * 5

   return ugly_numbers[-1]

Выводы

Динамическое программирование — это подход к решению алгоритмических задач, который может сильно уменьшить время работы программ. При этом он потенциально использует неконстантное количество памяти (то есть чем больше задача, тем больше памяти потребуется для ее решения). Но зачастую затраты по памяти ничтожно малы по сравнению с тем ускорением, которое мы получаем.

ДП редко применяется в ежедневных задачах инженеров ПО и не является тривиальным/нативным подходом. Но понимание того, что такой метод существует и что с его помощью можно значительно улучшить эффективность работы программы — это хорошо как для решения конкретных проблем, так и для мировоззрения специалиста.

Спасибо за ваше внимание! Надеюсь, эта статья вам или помогла, или хотя бы скрасила вечер.

Источники

  1. Динамическое программирование, Википедия (рос.).
  2. Dynamic programming, Википедия (англ.).
  3. Метод «разделяй и властвуй».
  4. Числа Фибоначчи.
  5. Статья на Википедии об О-нотации.
  6. Решение для задачи об уродливых числах.
  7. Вот отсюда у меня появилась идея о визуализации ДП решения для задачи об уродливых числах.
  8. Leetcode задача LIS.
  9. Задача коммивояжера.
  10. Было упоминание об утилите diff.
  11. Страница о задаче «Наибольшая общая подпоследовательность».
  12. Динамическое программирование в реальном мире: вырезание швов.
  13. Визуализация решения задачи Ugly numbers.
  14. Визуализация задачи Фибоначчи.
  15. Наибольшая общая последовательность.
👍НравитсяПонравилось21
В избранноеВ избранном15
Подписаться на тему «алгоритм»
LinkedIn

Похожие статьи




Підписуйтесь: iTunes | Google Podcast | YouTube


36 комментариев

Подписаться на комментарииОтписаться от комментариев Комментарии могут оставлять только пользователи с подтвержденными аккаунтами.

Чекаємо статтю на ДОУ про динамічну зарплату

На практике динамическое программирование может пригодиться вам всего лишь 1–2 раза в жизни

«Даже если клинок пригодится самураю всего 1 раз в жизни, носить его с собой нужно всегда»

Попадалось на собесе в Амазон. фаанги любят DP

Отличная статья, динамическое программирование часто помогает очень сильно оптимизировать performance при задачах на большие объемы данный когда можно выделить паттерн повторяющийся подзадачи. Данную тему очень любят мусолить на собеседованиях в Google. Дополнительно тема динамического программирования очень хорошо описана книге Кормана «Algorithms unlocked»

Спасибо, интересная статья об очень изящном способе решения задач. Правило ли это, что чем изящнее способ алгоритмизования, тем сложнее его поддерживать? Описанный способ вмещает в себя симметричную рекуррентную вложенность, наверно, чрезвычайно трудоемкий в поддержке?

Денис, спасибо за отзыв и за вопрос..
Все может быть по разному. Очень часто решение, к которому бывает нелегко додуматься, получается очень изящным и его легко поддерживать.

Про симметричную рекуррентную вложенность я не очень понял, не могу ответить )
Но описанный способ в принципе несложно поддерживать. Здесь все, как и обычно, зависит от задачи.

«хорошо хоть что не с хабра» :) хотя Oleksii Trekhleb — наш :)

На хабре в этом плане все честно — «Перевод».
думаю что и на доу так будет со временем — лучшие технические статьи будут с такой отметкой.

Що ви маєте на увазі про

хорошо хоть что не с хабра

?

маю на увазі що базові технічні статті з класичних розділів — виглядатимуть як плагіат, навіть коли вони авторські.

О, спасибо за отличную статью!
ДП это круто.

Хорошая статья. Потому что указаны примеры, чтобы понять, где на практике может пригодиться такой подход.

Хорошее объяснение темы. Ранее путал с подходом «разделяй и властвуй», однако благодаря автору смог в этом разобраться, спасибо. И отдельное спасибо за интересные задачи !)

Прочитал заголовок сразу подумал о нескольких задачах которые я тут встречу. Почти собрал бинго кроме «уродливого числа».

Я поюзал для кастомного регекспа tools.ietf.org/...​tml/rfc2705#section-2.1.5
Ушло 2 недели. Навернул туда еще поддержку вложенности, как положено.
Потом пришел ПО, сказал, что круто работает, а теперь надо добавить правила для замены.
Это уже было грустно — они плохо ложились. Ушел месяц. Баги потом еще пол-года лезли.

Соседи написали то же через scanf за 3 дня. Без вложенности — и всем пофиг.
А еще, наверное, можно было сделать транслятор в стандартный libregexp.

Вывод: динамическое программирование хорошо для потренироваться, но платит за тренировки заказчик. Обычно есть более простой и быстрый вариант решения.

Я думаю это естественно и каждый разработчик прошел через стадии проектов на которых заказчики «платили за тренировки», если конечно в универе/курсах разработчик этого не наверстал(а). А такой навык как динамическое программирование я считаю уместным и нужным. Иначе это то же самое что «зачем нужна ауди если можно всегда ездить на простой шестерке» )

Тут одна из основных мыслей: когда ты решишь задачу, которую легко сделать — тебе скажут что-то добавить, за что ты бы изначально вообще не взялся, потому что оно туда не ложится.

Соседи написали то же через scanf за 3 дня

где-то встречал историю, когда надо было алгебраические выражения «понимать»
засели несколько программистов, вспоминали, и т.д.
и вот, выдает свой вариант, тот кого и не звали, потому что у него колледж только какой-то муниципальный, «2ух курсовый».

посмотрели — там просто работа по поиску и замене подстрок, с рекурсивными спусками и т.п.
погоняли, работает. правильно и быстро.
так и пошло в прод. все довольны.
и никакой алгебры, тот програмист ее не знал. строки и правила расположения символов в них — и все.

понятно что, что он переотркрыл частный случай идей кодирования Чёрча.
но он и этого не знал :)
просто взял — и сделал.

Я так переоткрыл проактор и гексагональную архитектуру лет 10 назад. А прочел о них только недавно.
Ну не зря же идеи «в воздухе летают». И паттерны в оригинале — это когда несколько независимых людей на своих проектах решили похожую проблему похожим образом. А значит, по индукции, к ним может присоединиться еще один)

понятно что, что он переотркрыл частный случай идей кодирования Чёрча.

Я так Communicating Sequential Processes винайшов у 2015.

Кстати, оно нормальным языком где-то описано? На вики математика, и мутно. Чем отличается от акторов?

youtu.be/7erJ1DV_Tlo

Краще, ніж винахідник акторів, не поясню.

Ні. Він пояснює в чому різниця.

За $500 можу відмотати до потрібного місця.

Нагуглив.
Пишуть, що в CSP нема черги меседжів, і sender блокується, якщо receiver зараз щось обробляє.
Виглядає як дуже специфічний випадок pipes and filters.

Для чого Ви використали на практиці, якщо не секрет?
Думаю трохи позбирать інформацію й написати статті про акторів — тому питаю.

Виглядає як дуже специфічний випадок pipes and filters.
Для чого Ви використали на практиці, якщо не секрет?

Так.
Обробка відео у декілька кроків де різні кроки для різних даних виконуються паралельно..

Думаю трохи позбирать інформацію й написати статті про акторів — тому питаю.

Актори використовую для системи керування приладами IםT.

Обробка відео у декілька кроків де різні кроки для різних даних виконуються паралельно

 А чи відрізняється від класики? Pipes and Filters завжди для відео та для комп’ютерного зору використовували. Там навіть є Push та Pull методи комунікації, що можуть блокуватись.

Актори використовую для системи керування приладами IםT.

Маєте відкриті статті чи доки де архітектуру подивитись?

Маєте відкриті статті чи доки де архітектуру подивитись?

Ні.

Самому себе заметка: пиши@не читай

Только не всегда это правильно. Не все что приходит первым на ум в действительности верно. Из такой логики Земля плоская, ибо для нашего сознания так оно и есть. В прочем в контексте комнаты, например, можно принять и такой вариант. А задачу с «пониманием выражений» и через монадический подход, а не рекурсивный можно решить. Ну а KISS конечно никто не отменял.

Не все что приходит первым на ум в действительности верно

конечно не все.
недавно пришло на ум затащить в проект какой-нить аналог гугл таблиц.
посмотрел, что там сейчас есть, почитал доки.
не, эта первая мысля оказалась неверной.
быстрее и достаточно будет вариант который будет работать уже завтра.

Из такой логики Земля плоская, ибо для нашего сознания так оно и есть

Аристотель в 330 году до н. э. привёл доказательства сферичности Земли

Но да, когда не было потребности в этом знании — его и не было.

Интересней пример и показательней с геоцентричной системой :)
которая прекрасно работала.
и сколько доводилась до ума гелиоцентричная, и когда оказалась востребованной.

А задачу с «пониманием выражений» и через монадический подход, а не рекурсивный можно решить

конечно.
но вышло как вышло — прагматичный, «ремесленнический» подход оказался куда быстрее в реализации. и «чудо», еще и с хорошим быстродействием.

Ну а KISS конечно никто не отменял.

решать аналитически задачу о 3ех телах можно долго.
А в итоге прийтки к:
Брунс и Пуанкаре доказали, что систему дифференциальных уравнений для движения трёх тел невозможно свести к интегрируемой, разложив её на независимые уравнения

А на практике этого общего решения не требуется.
И не требуется ни сферичность Земли, достаточно считать ее плоской, и не требуется и инфа о том что там вокруг чего крутится.

Наукоемкое производство не означает что люди на этом производстве занимаются — наукой.

Но, основная религия сейчас «у золотого миллиарда» — науковерие.
Ну а с догмами всегда спорить сложно, а бывает и рисково :)

понятно что, что он переотркрыл частный случай идей кодирования Чёрча.

по моему не скромному мнению никак не надо «пугаться» когда оказывается что что-то «пере открыл» а как раз наоборот это прямой показатель что а) можешь вообще думать б) можешь думать правильно

А можна було просто описати алгебраїчну мову в yaxx/lexx і згенерувати код автоматом :-D

Подписаться на комментарии