logo
Loading...

动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制 - Apache MXNet/Gluon 中文频道 - 深度學習 Deep Learning 公開課 - Cupoy

资源网站: https://zh.d2l.ai (GitHub: https://github.com/d2l-ai/d2l-zh ),纸质书详情见资源网站(上架4周重印2次,累计3万册)。 En...

资源网站: https://zh.d2l.ai (GitHub: https://github.com/d2l-ai/d2l-zh ),纸质书详情见资源网站(上架4周重印2次,累计3万册)。 English version: https://www.d2l.ai (GitHub: https://github.com/d2l-ai/d2l-en ) 最接近课程视频中的课件: https://github.com/d2l-ai/d2l-zh/rele... ===== 在循环神经网络中我们学习了如何将一个序列转化成定长输出(例如一个标签)。本节课中,我们将探究如何将一个序列转化成一个不定长的序列输出(例如一个不定长的标签序列)。 本节课将介绍seq2seq(编码器和解码器)以及注意力机制的设计。这些是神经机器翻译的基础知识。 本节课的大致安排: [30 mins]:seq2seq(编码器和解码器)。 [30 mins]:注意力机制。