損失又有分作兩種:偏差(Bias)與方差(Variance) 偏差(Bias):打得準,離靶心越遠偏差越大。 方差(Variance):打得平均、打得明確,越隨機方差越大。 模型訓練的過程中,偏差(Bias)與方差(Variance)的變化基本上會如同圖所示: 在機器學習訓練模型的過程中,驗證資料集的誤差曲線如下: 而當偏差過大或方差過大時會產生兩種問題: 過擬合(Overfitting):模式複雜度過高,Bias平方降低,Variance增加。 欠擬合(Underfitting):模式複雜度過低,Variance降低,Bias平方增加。 下方圖形為模型切合實際資料的狀態,由左至右,分別是Underfitting, Good fitting, Overfitting: 我們希望最小化損失函數的值,讓模型的預測與正確答案越接近越好。