今天我們會來聊聊怎麼樣加速你的神經網絡訓練過程. 裡面的方法包括: Stochastic Gradient Descent (SGD); Momentum; AdaGrad; RMSProp; Adam. 英文學習資料: http://sebastianruder.com/optimizing- gradient-...
來源:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-06-speed-up-learning/