资源网站: https://zh.d2l.ai (GitHub: https://github.com/d2l-ai/d2l-zh ),纸质书详情见资源网站(上架4周重印2次,累计3万册)。
English version: https://www.d2l.ai (GitHub: https://github.com/d2l-ai/d2l-en )
最接近课程视频中的课件: https://github.com/d2l-ai/d2l-zh/rele...
=====
词向量(word embedding)已逐渐成为自然语言处理的基础知识。
本课将以word2vec为例,着重介绍两套模型:跳字模型(Skip-gram)和连续词袋模型(CBOW),以及两套近似训练法:负采样(Negative sampling)和层序softmax(Hierarchical softmax)。
本节课的大致安排:
[10 mins]:词向量和word2vec概述。
[15 mins]:跳字模型。
[15 mins]:连续词袋模型。
[10 mins]:负采样。
[10 mins]:层序softmax。