logo
Loading...

非監督式學習降維目的 - Cupoy

講義提到的非監督式學習中的降維,目的是藉由分監督式學習找到新的feature,然後利用新的featu...

ml100-2,ml100-2-d54

非監督式學習降維目的

2019/08/01 上午 10:12
機器學習共學討論版
趙阿里
觀看數:88
回答數:2
收藏數:0
ml100-2
ml100-2-d54

講義提到的非監督式學習中的降維,目的是藉由分監督式學習找到新的feature,然後利用新的feature執行監督式學習,因此提升監督式模型的準確率


這樣理解有沒有錯誤呢


謝謝

回答列表

  • 2019/08/01 上午 10:20
    張維元 (WeiYuan)
    贊同數:2
    不贊同數:0
    留言數:0

    這樣理解是正確的,降維的目的是將維度的數量做整併,而非監督式(Cluster)學習是一種方式

  • 2019/08/02 下午 01:29
    陳明佑 (Ming You Chen)
    贊同數:0
    不贊同數:0
    留言數:1

    同學您好 :

    您的理解大致正確, 以下只是以實務經驗, 做些補充解說


    降維的特徵生成, 除了視覺化的需求, 主要的實務用途是用在半監督學習上

    所謂半監督資訊, 指的是特徵X有高維度特徵/巨量資料的特性, 但是實際只有極少量目標Y值

    這落差很可能是因為特徵X每天會自動產生, 而目標值Y極少發生或量測代價高


    例如 : 地震站每天有大量的紀錄資訊, 但卻只有很少量有災情(極少發生)

    或者購物網站每天有大量交易資訊, 卻只有很少量客戶的完整評論(量測代價高)


    這時候如果能用半監督先降維, 就可以利用有限的目標值做出預測模型

    否則依照 VC Dimension 的理論(參考林軒田老師的機器學習基石7+8講)

    特徵維度很高, 目標值很少, 太多種組合將導致模型完全失效

    必須用非監督降維, 才能讓模型有較為正常的預測力