Deep Learning у 16 років: Візуалізую механізми Attention та LSTM за допомогою Manim
Всім привіт! Мене звати Ілля, мені 16 років. Останнім часом я сильно заглибився в тему Deep Learning, зокрема в те, як працюють механізми Attention та архітектура LSTM.
Для мене найкращий спосіб зрозуміти складну систему — пояснити її іншим. Тому я вирішив створити відео, де за допомогою бібліотеки Manim візуалізував математику цих процесів. Все вивчав самостійно — від логіки нейронок до програмування анімацій на Python.
Власне, саме відео можна подивитися тут: youtu.be/ydKOres4Snw
Буду радий конструктивному фідбеку від спеціалістів: чи вдалося мені передати суть механізмів і де варто дотиснути якість пояснення?
4 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів