【QA】Regularization與Normalization之間的差異?
在學習機器學習的過程中,許多不同的專有名詞時常將我們搞的頭昏眼花,Regularization與Normalization就是其中之一,常常有人搞不清楚兩者之間究竟有什麼不一樣,上網查資料後卻發現,Regularization與Normalization兩者之間的中文譯名常常被各種不同的文章混在一起用  這個困惑我們從這篇文章[#新手求救 資料正規化、標準化的定義](https://www.dcard.tw/f/softwareengineer/p/234163354)中可窺見一斑 因此今天想要來與各位探討一下Regularization與Normalization之間究竟有什麼不同
回答列表
-
2021/09/06 上午 01:05Ray贊同數:0不贊同數:0留言數:0
首先,我們先就中文譯名的部分給予解釋,根據國家教育研究院雙語詞彙解釋: * Normalization:正規化 [來源](https://terms.naer.edu.tw/detail/255068/) * Regularization:正則化 [來源](https://terms.naer.edu.tw/detail/3531748/) * Standardization:標準化 [來源](https://terms.naer.edu.tw/detail/988261/) 接著,我們來了解其各自代表的意義,Normalization與Standardization我們已在之前的問答[【QA】正規化(Normalization)為什麼能夠提升機器學習的成??](https://www.cupoy.com/qa/club/ai_tw/0000016D6BA22D97000000016375706F795F72656C656173654B5741535354434C5542/0000017BB0DDBB51000000146375706F795F72656C656173655155455354)中提及過了,基本上Normalization與Standardization兩者之間的差異不大,皆屬於資料前處理的技術,而Standardization又可稱為Z-score Normalization,其根據出自[Standardization Vs Normalization- Feature Scaling](https://www.youtube.com/watch?v=mnKm3YP56PY) 而Normalization與Regularization之間最關鍵的差異在於,Normalization與Standardization是作用於資料數據本身,也就是所謂的特徵縮放(Feature Scaling),並間接提升模型成效;而相對於Normalization與Regularization針對資料,Regularization則是直接針對模型。 下圖為Normalization與Regularization各自的特點:  (fc>#ff0000:**註:在這裏沒有加入Standardization的比較是因為Standardization與Normalization的相似度較高,上表中Normalization的特點是Standardization也擁有的,因此就不特別加入比較。**