JS Fest: самая масштабная конференция по JavaScript! Успей до повышения цены! >>

AI & ML дайджест #5: победа ИИ в Холдэм покере, соревнования на миллион, PyTorch

В этом выпуске Кристен Стюарт занимается наукой, новые фреймворки, соревнование на миллион долларов на Kaggle, победа ИИ над Холдэм покером и выигрыш в $800k, генерация речи из немого видео, GTA V и даже шпаргалка с формулами!

Статьи, новости, интервью

Майкрософт покупает очередной стартап Maluuba, который работает в направлении general artificial intelligence. У них немало интересных публикаций по Reinforcement Learning, Adversarial Learning, NLP, датасет по вопросам-ответам. Судя по всему, покупка была сделана не зря.

В Carnegie Mellon University очередная игра покоряется искусственному интеллекту — покер (no-limit hands on holdem для игроков) и выигрывает у людей почти $800’000. Публикация с описанием алгоритма тут.

Кристен Стюарт поучаствовала в написании статьи по машинном обучению, связанной с стилизацией изображений в фильме Come Swim.

Набор мыслей о том, где же главная проблема в машинном обучении как науке — инженерная часть.

О применении deep learning к спутниковым фотографиям (в последнее время активный тренд).

Для желающих разбогатеть на машинном обучении появилась еще одна возможность — поучаствовать в соревновании по классификации рака легких на Kaggle. Призовой фонд — миллион вечнозеленых.

GTA V подключили к OpenAI Universe для обучения автомобильного автопилота (правда, вскоре убрали, даже удалили пост с оф. блога).

Программирование

В этом месяце появилось несколько интересных фреймворков для создания нейронных сетей, на которые стоит обратить внимание:

— Минималистичный Yann — трибьют известному Яну ЛеКуну.

— Еще более минималистичный tiny-dnn на C++.

— Наконец-то появился не менее мощный вариант Torch на Python — PyTorch со всеми вкусностями фреймворка на Lua, который многие так и не пробовали из-за экзотического языка.

— И еще один интересный C++ фреймворк DyNet, бывший cnn — стоит взглянуть на Python wrapper.

— Edward — новый фреймворк для вероятностного программирования (скорее всего будете использовать для байесовских методов в нейронных сетях) типа PyMC, но интегрированный в Tensorflow/Keras и работающий в 35 раз быстрее. Deep Probabilistic Learning — white paper.

Туториал по восстановлению старых фильмов с Tensorflow.

Онлайн визуализация по обучению поведения автомобиля в пробках — DeepTraffic.

Код для статьи Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer на вышеупомянутом PyTorch.

Туториал по алгоритмическому трейдингу на основе анализа тональности текста.

Туториал по подготовке своего набора данных (изображений) для обучения нейронных сетей в Caffe.

Очень детальный туториал по применению deep learning в маркетинге — предсказание того, уйдет посетитель или нет.

Теория

После нейронки, распознающей речь по губам лучше человека мы пошли дальше и вышла работа по генерации речи из видео без звука.

Длинный и, наверное, самый полный туториал по adversarial learning от Ian Goodfellow.

Очень классный туториал по методам численной оптимизации для нейронных сетей.

Шпаргалка с базовыми формулами в машинном обучении (вдруг у кого экзамен на носу!).

Что будет, если закодировать один бит информации с помощью вариационных аутоэнкодеров.

Еще один интересный подход к распознаванию изображений с помощью графов знаний для multiclass classification (white paper).


← Предыдущий выпуск: AI & ML дайджест #4
Следующий выпуск: AI & ML дайджест #6

LinkedIn

5 комментариев

Подписаться на комментарииОтписаться от комментариев Комментарии могут оставлять только пользователи с подтвержденными аккаунтами.
Очень классный туториал по методам численной оптимизации для нейронных сетей.

Кстати, а никто не видел где уже готовые реализации этих алгоритмов на С, например. Особенно интересен вариант Нестерова. Реализации именно, как методов оптимизации с заданием целевой функции и других нужных параметров.

Deep Probabilistic Learning — white paper.

Традиційне прохання з reddit — давайте посилання не на pdf, а на абстракт? arxiv.org/abs/1701.03757

Дякую.

Окей, наступного разу так і робитиму

Ого! Спасибо за такую крутую подборку. Крайне интересный материал!

Подписаться на комментарии