Математика лежит в основе всех без исключения прикладных наук. Современные технологии машинного обучения особенного сильно опираются на несколько разделов математики, из которых Линейную Алгебру можно смело поставить на первое место.
Линейная алгебра является важнейшим фундаментом многих компьютерных наук, включая Data Science, Computer Vision, Natural Language Processing и т.д. К сожалению, именно этот предмет зачастую преподается с большим отрывом от прикладных задач.
Мы создали
Начнем с линейных пространств и вспомним, как наборы данных можно представить в виде множества векторов в многомерном векторном пространстве. Рассмотрим типичные задачи в 2D и 3D пространствах. Вспомним матрицы и для чего они нужны. Рассмотрим применение линейной алгебры в алгоритмах SVM, линейной регрессии, сокращении размерности пространств. Рассмотрим основы 3D/2D преобразований в задачах компьютерного зрения.
● 6500 грн/месяц или целиком 12 350 грн (со скидкой 5%)
● 30 занятий. 2 раза в неделю видеоуроки, а также регулярные вебинары с куратором
● старт 15 февраля. заявки принимаем до 10 февраля
● 25 студентов. мы уделяем внимание каждому студенту, потому количество мест в группе ограничено
Для обучения вам понадобится собственный ноутбук и время на выполнение домашних заданий.
Детали и регистрация
Кому будет полезно
— Программистам, желающим заполнить существующие пробелы в знаниях и подтянуть математику;
— Начинающим разработчикам, которые хотят получить крепкий фундамент для изучения Data Science и Machine Learning.
Необходимый уровень для поступления на курс — уверенное владение математикой на школьном уровне. Знание языков программирования не обязательно.
Куратор
Ян Цибулькин
Co-founder Bldbox, Cloudozer, Symica. Выпускник факультета управления и прикладной математики Московского Физико-Технического Института.
Программа курса
Как всегда в Проджекторе, курс построен на практике. Разберем базовые прикладные задачи на реальных примерах.
Vectors
Geometric properties
— Line equation
— Basis
— Plane equation
Normed Vector Spaces
— K-Means
— Normalization
— K-NN
Inner product space
— Dot product properties
— Hyperplanes
— Hyperplanes equation comparison
— Half-space
— SVM
Matrices
— Matrix operations
— Matrix as a function
— Inverse matrix
— Solving linear equations
— Matrix rank
— Singular matrix
— Kernnel trick
Orthogonal Transformations
— Rotation Matrix and its properties
— Symmetry Matrix
— Matrix determinant
— Euler angles
Affine transformation
— Robot Localization
— Robot Motion Planning
— Projective transformations
3D —> 2D
— Pinhole camera model
— Intrinsic Camera Matrix
— Extrinsic Camera Matrix
— Drawing 3D objects
Matrix factorization by SVD
— Dimensionality reduction
— Overdetermined systems
— Linear regression
Немає коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів