×Закрыть

AI & ML дайджест #1: Соревнования от OpenAI, предсказание звука по видео, «бесконечные» нейронные сети

В этом выпуске: интервью с представителем Яндекса о распознаванию речи, предсказание звука материала на основе «немого» видео, туториалы по character-level deep learning и API для построению нейронных сетей под iOS, обзоры генеративных моделей, прогнозирование финансовых временных рядов, «бесконечные» нейронные сети и многое другое.

Статьи, новости, интервью

Мегаинтереснейший проект по предсказанию звука, который издает материал при ударе по нему.

Новая красивая визуализация работы и активаций внутри рекуррентных нейронных сетей прямиком из Гарварда — LSTMVis.

Facebook рассказывает про свой инструмент для понимания текстов.

Предложение от OpenAI поработать над интересными задачами (в основном reinforcement learning) — есть площадка для публикации результатов как на Kaggle.

Интервью с руководителем отдела по речевым технологиям Яндекса о распознавании и синтезе речи, биометрии и будущем.

Нейронные сети делают предсказания на EURO-2016.

Профессор Уэльского университета опровергает теорию о том, что существует «языковой инстинкт».

DeepMind тоже в своем блоге пишет о последних результатах в Reinforcement Learning.

Что можно делать год на позиции Data Scientist в StackOverflow.

Как deep learning будет заботиться о природе, сохраняя коралловые рифы.

Программирование

Реализация разных архитектур нейронных сетей для прогнозирования финансовых временных рядов на Keras.

Туториал по интеграции Torch и OpenCV.

Туториал по data augmentation и fine-tuning в блоге Keras.

Инструмент от Facebook для обучения игры в Go, на Torch.

Построение нейронных сетей на Swift.

Magenta от Google Brain для создания своих аудио шедевров.

Про character-level deep learning, и почему по буквам «читать» лучше, чем по словам.

Теория: популярно

Сравнение архитектур сверточных нейронных сетей: от LeNet до ResNet.

Сравнительный пост генеративных моделей от OpenAI.

Переход нейронных сетей от «черных ящиков» до вероятностных моделей.

Доступное описание Inception-ResNet на Хабрахабре.

Веселый ресерч о рекомендации эмоджи к сообщению.

Краткий обзор методов unsupervised learning (все bleeding edge!).

Теория: научно

Учим градиентный спуск градиентным спуском.

Обучение «бесконечнослойных» нейронных сетей (точнее, «бесконечнонейронные», но все равно интересно с точки зрения математики).

ENet — архитектура для real-time сегментации.

Статья про эволюционные алгоритмы для обучения CNN.

Автодополнение кода с помощью рекуррентных нейронных сетей.

Еще одна статья, объясняющая успех RNN в моделировании речи — рекурсивные грамматики и глубокие сети выучивают зависимости между словами лучше, чем марковские процессы.


Если у вас есть интересные материалы, которые не попали в этот дайджест или вы хотите увидеть их в следующем, пишите на rachnogstyle@gmail.com, и мы добавим их.


← Предыдущий выпуск: AI & ML дайджест #0
Следующий выпуск: AI & ML дайджест #2

LinkedIn

1 комментарий

Подписаться на комментарииОтписаться от комментариев Комментарии могут оставлять только пользователи с подтвержденными аккаунтами.

На прометеусе запускают новые курсы, в том числе и Machine Learning prometheus.org.ua/dataanalysis
(p.s. опечатка, коралЛовые рифы)

Подписаться на комментарии