NLP 深度學習馬拉松
NLP 深度學習馬拉松是一個結合自學、專家協助及社群討論的AI自學挑戰活動,目標是利用 100 天的時間讓學員掌握自然語言與機器學習/深度學習的關鍵知識點和實務技術應用。(本活動機器學習與深度學習分開
內容簡介
作者介紹
適合人群
你將會學到什麼
購買須知
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)
-
Pytorch深度學習框架
-
Pytorch 深度學習框架與開發環境
介紹Pytorch 深度學習框架與開發基本環境
-
認識 Pytorch 的張量與基本操作
認識 Pytorch 的張量與相關基本運算
-
使用 Pytorch 進行微分與倒傳遞
使用 Pytorch 進行微分與倒傳遞,並了解梯度下降法
-
以 Pytorch 進行基礎資料讀取
認識 Pytorch讀取資料的相關函數並進行基礎資料讀取
-
以 Pytorch 實現自由數據讀取
認識 Pytorch讀取資料的相關函數並進行進階資料讀取
-
使用 Torchtext 進行 NLP 數據處理
認識Torchtext 並使用Torchtext進行 NLP 數據處理
-
搭建 PyTorch 神經網路基礎模型
搭建 PyTorch 神經網路基礎模型以及使用時機
-
PyTorch 模型修改與特定層擷取
學習使用PyTorch 進行模型修改與特定層擷取
-
使用 PyTorch 搭建神經網路模型
使用 PyTorch 搭建完整的神經網路模型與訓練所需架構
-
PyTorch 模型訓練
進行PyTorch 模型訓練
-
-
推論方法之詞向量技術 (Word2Vec / Glov)
-
推論手法的詞向量技術 - word2vec
介紹知名詞向量技術 - word2vec
-
word2vec 的 CBOW 模型與 Skip-gram 模型
介紹word2vec的兩種模型 - CBOW 與 Skip-gram
-
推論方法的詞向量:實作簡易 word2vec
實作簡易 word2vec並進行模型訓練
-
推論方法的詞向量 word2vec:的高速化
理解word2vec存在的缺點並進行調整優化
-
推論方法的詞向量:實作加速版 word2vec
以pytorch實作word2vec優化
-
gensim 自然語言處理工具包基礎教學
了解 gensim 自然語言處理工具包,並學習如何使用
-
推論方法的詞向量:Glove 詞向量算法
理解Glove 詞向量算法以及訓練方式
-
-
NLP經典遞迴神經網路模型 (RNN / LSTM / GRU)
-
NLP Seq2Seq (Encoder - Decoder Model)
-
NLP 注意力機制 (Attention mechanism 與 Transformer)
-
Attention mechanism(注意力機制)基礎教學
了解Attention mechanism(注意力機制)以及對NLP的影響
-
Attention Mechanism(注意力機制)的優點與分類應用
了解Attention Mechanism(注意力機制)的優點與分類應用
-
Transformer 架構與 encoder 層介紹
了解著名NLP模型Transformer 架構與 encoder 層介紹
-
Transformer 架構與 embedding / decoder 層介紹
了解著名NLP模型Transformer 架構與 embedding / decoder 層介紹
-
Transformer Performance 評估與應用討論
探討Transformer Performance 評估與應用討論
-
-
各種NLP預訓練模型 (ELMo / Bert & More / 預訓練模型調參)