現在請想像,我們可以把「每層輸出的值」 都看成「後面一層所接收的數據」。 對每層都進行一次normalization 會不會更好呢? 這就是Batch normalization 方法的由來.. .. 詳細的文字教程: https://morvanzhou.github.io/tutorials/mach... 來源:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-13-BN/