Як реально працює Word2Vec (Doc2Vec)?
Підписуйтеся на Telegram-канал «DOU #tech», щоб не пропустити нові технічні статті
Друзі, хто має досвід та розуміння в сфері обробки природної мови — поясніть, будь ласка, на пальцях як працює модель для векторного представлення слів word2vec.
Один із знайомих NLP Engineerів пояснив так: нібито модель приймає як input великий текстовий корпус і співставляє кожному слову вектор, видаваючи як output координати слів. Тобто якщо слідувати цій логіці, то спочатку модель формує з цього корпусу словник, а потім запам’ятовуєте порядок розташування слова в різних документах і формує з цього вектор і якось там щось порівнює. Чи правильне це розуміння? Чи ні?
Розкажіть, будь ласка, як це працює детально.
Я прекрасно розумію, що пояснення вимагатиме значної інтектуальної праці, тому готовий вислати пляшку гарного вина автору/авторці найбільш детальної відповіді :)
11 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів