Клуб Алгоритмів від DSC KPI повертається! І починаємо з серії про алгоритми оптимізації, тому можете вже бронювати дві наступні суботи, бо буде дуже цікаво.
Перша лекція — Gradient-based methods or revealing the magic of ML, на якій ми розглянемо фундаментальний концепт, який використовується в задачах машинного навчання. А саме, поговоримо про:
- багатовимірний математичний аналіз
- часткові похідні (згадаємо перший курс)
- що ж таке градієнт
- градієнтний спуск та де він використовується
- бонус: метод Ньютона
Звучить страшнувато, але якщо ви вже брали похідні — складностей не буде. І, щоб закріпити на практиці, ми реалізуємо градієнтний спуск та метод Ньютона.
Спікер — Денис Митник, що вже розказував про Гіт та асимптотику, автор постійної рубрики #DenisioProduction, тож буде максимально зрозуміло та лампово.
Реєстрація за посиланням. Зустрінемось вже у цю суботу, 13.03 о 14:00!
Деталі на сторінці у Телеграм
Немає коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів