×

Онлайн-курс “Introduction to Deep Learning” (подія в архіві)

Состоялось
29 октября 2020 (четверг)
Место
Online
Стоимость
11500 грн/месяц
Пойдут

Целью курса является обучение и подготовка конкурентоспособных специалистов в области машинного обучения. Будет покрыт технологический стек следующих профессий: Data Scientist и Machine Learning Engineer. Основной уклон сделан на глубоком изучении нейронных сетей и фреймворков машинного обучения.

Вы познакомитесь с основными подходами в машинном обучении. Научитесь решать задачи регрессии, классификации. Вы будете предсказывать цены реальной недвижимости, классифицировать и кластеризовать изображения. Познакомитесь с необходимыми разделами математики. Затем глубоко погрузитесь в мир искусственных нейронных сетей. В подробностях рассмотрите принципы их работы и их структуру. По прохождении этого курса вы будете глубоко разбираться в том, какие типы нейронных сетей подходят для решения конкретных задач. Научитесь их создавать, тренировать, валидировать и контролировать обучение.

11500 грн/месяц — курс можно оплачивать помесячно или целиком 32 775 грн (со скидкой 5%)
25 занятий — 3 месяца 2 раза в неделю по вторникам и четвергам
29 октября — принимаем заявки до 23 октября
25 студентов — мы уделяем внимание каждому студенту, потому количество мест в группе ограничено

Регистрация

Кому будет полезно

— Будущим, а также практикующим Data Scientist-ам, желающим освоить Deep Learning и систематизировать свои знания, чтобы двигаться дальше в изучении прогрессивных разделов компьютерного зрения и обработки естественного языка;
— Middle и Senior разработчикам, которые хотят выучить deep learning, чтобы внедрять методы машинного обучения;
— Студентам энтузиастам технических специальностей, желающим овладеть крутой профессией;
— Выпускникам курсов «Data Science. Математические основы», «Алгоритмика. Pro», «Алгоритмика. Основы»;
— Всем, кому нужна база для дальнейшего изучения Deep Learning и Computer Vision.

Студент курса должен владеть языком Python на базовом уровне, помнить основы математического анализа и теории вероятностей.

Куратор

Михаил Константинов — Deep Learning Research Engineer в Ring Ukraine.

Специалист по глубокому обучению в области компьютерного зрения и обработки естественного языка. Имеет большой опыт работы с моделями машинного обучения различных типов. Разрабатывал решения на стыке cv и nlp, а также в области генерации изображений. Занимался автоматическим прохождением капчи с использованием современных deep learning подходов, а также adversarial защитой капчи от нейронных сетей.

Программа курса

Introduction to Deep Learning

— Course Review
— What is Machine Learning
— Supervised and Unsupervised Learning
— Machine Learning vs Deep Learning
— CV — Computer Vision
— NLP — Natural Language Processing
— Data Science and Machine Learning
— Breath history of AI
— AI, Turing Test, Philosophy of Science

Python for Deep Learning and Research

— Basic algorithms and common tasks
— Classical algorithms
— Computational complexity
— Useful Libraries and Frameworks
— CPU vs GPU parallelization
— Cloud and GPU Integration
— Data Visualization
— Vectors and Vectorization
— Image Processing
— Language Processing

Mathematics for Deep Learning

— Common Notation and Core Ideas
— Linear Algebra
— N-dim Spaces
— Vectors, Matrices and Operators
— Mathematical and Function Analysis calculus
— Derivative and Partial derivative
— Chain Rule
— Probability theory
— Introduction to Statistics

Linear, Polynomial and Multivariate Regression

— Price prediction Task
— Linear Regression
— Least square method
— Loss Function
— Optimization Task
— Gradient Descent
— MLE — Maximum Likelihood Estimation
— Data Preprocessing
— Model Visualization
— Data Normalization
— Polynomial Regression
— Multivariate Regression

Introduction Computer Vision

— Basic idea of Computer Vision
— Classical Computer Vision
— Deep Learning and CV
— Core Idea of Semantic Gap
— Classification Task
— N-dim Spaces and Metrics
— Common datasets
— Mnist and Fashion-Mnist
— Cifar10 and Cifar100
— Cats vs Dogs
— ImageNet and MS COCO
— Euclidean Distance
— Nearest Neighbour

Classification and Computer Vision

— Image Classification
— Cosine Similarity
— Manhattan distance
— KNN
— Train / Val / Test data split
— Logistic Regression
— Logistic Regression and Maximum Likelihood Estimation
— Loss function and Cross Entropy
— Accuracy and Metrics
— Precision, Recall and F1

Neural Networks

— Rosenblatt’s Perceptron
— Artificial Neuron
— Warren McCulloch and Walter Pitts Neuron
— Fully Connected (Linear, Dense, Affine) Layer
— Activation Layers
— BackPropagation Algorithm
— Stochastic Gradient Descent
— Biological Neuron and Analogy

Computation graphs and Deep Learning Frameworks

— Computational graphs
— Differentiable graphs
— Deep Learning Frameworks
— Custom Framework Realization
— Linear operations and Activation Realizations
— Main Blocks Of Deep Learning FrameWorks
— Custom Model and Train
— Optimizator realization
— TensorFlow
— Keras
— PyTorch

Deep Learning

— Neural Networks Problems
— Activation Functions
— Weights Initialization
— Initialization Techniks
— Overfitting and Underfitting
— Regularization Methods
— L1 and L2 Regularization
— Ensemble of Models
— Dropout
— Hyper Parameters Search
— Optimizations behind SGD
— Momentum and Nesterov Momentum
— Adagrad, RMSprop
— Adam, Nadam
— Batch-Normalization

Unsupervised Learning

— Dimensionality reduction
— Feature Learning
— Vector Representation
— Embeddings
— Kernel Method
— Clusterization
— k-means Clusterization
— Hierarchical Clusterization
— Neural Networks and Unsupervised Learning
— Autoencoders
— Autoencoders architectures
— Tasks for Autoencoders
— Problem of Image Generation
— Image Denoising Task

Introduction to Deep Learning in Computer Vision

— Problems of Fully Connected Neural Networks
— Towards Convolution Neural Network
— CNN as feature extractor
— Computer Vision tasks
— Transfer Learning
— Transfer Learning in Practice
— What Next (breath: CNN Architectures, Image Detection, Segmentation, GANs)

Introduction to Natural Language Processing

— Introduction to Natural Language Processing
— Text classification
— Words Preprocessing and Representation
— Part-of-Speech tagging (PoS tagging)
— Tokenization, Lemmatization and Stemming
— Bag of Words
— TF-IDF
— Distributive semantics
— Vector Semantics
— Term-document matrix
— Word context matrix
— Dense Vectors and Embeddings
— Word2Vec
— What Next (breath: RNN, Seq2Seq, Attention, Transformers, Modern Language Models)

Регистрация

Google Calendar iCal
👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Підписатись на коментарі