logo
Loading...

【QA】Cross Entropy 作為損失函數帶來哪些好處? - Cupoy

在做分類問題時,我們通常追求模型的錯誤率能越小越好,因此將錯誤率作為損失函數的一個選項。但在現實上,...

【QA】Cross Entropy 作為損失函數帶來哪些好處?

2021/09/01 下午 05:29
機器學習共學討論版
Chili
觀看數:466
回答數:1
收藏數:0

在做分類問題時,我們通常追求模型的錯誤率能越小越好,因此將錯誤率作為損失函數的一個選項。但在現實上,我們更常用Cross entropy作為分類問題的損失函數,接下來我想要用簡單的方式跟大家介紹Cross entropy,以及其帶來的優點。

回答列表

  • 2021/09/01 下午 05:37
    Chili
    贊同數:1
    不贊同數:0
    留言數:0

    結合我們上一篇資訊熵講的內容,當我們在做圖像分類時,從模型中得到一個機率,即可透過cross entropy 得到loss function。 --- ![image](http://kwassistfile.cupoy.com/0000017BA0B30BCD000000076375706F795F72656C65617365414E53/1630034429691/large) ![image](http://kwassistfile.cupoy.com/0000017BA0B30BCD000000076375706F795F72656C65617365414E53/1630034429692/large) 首先,單從機率表現上,比較兩個模型,可以發現模型二的表現,明顯優於模型一,儘管兩模型的錯誤率都為1/4,但我們仍可從中挑出一個較好的模型。 因此單看模型的錯誤率作為Loss function或是作為比較的指標化,得到的結果有限,(fc>#ff0000:看不太出兩模型的差異#ff0000:無法得到更好的學習方向