非監督式學習降維目的
2019/08/01 上午 10:12
機器學習共學討論版
趙阿里
觀看數:88
回答數:2
收藏數:0
ml100-2
ml100-2-d54
講義提到的非監督式學習中的降維,目的是藉由分監督式學習找到新的feature,然後利用新的feature執行監督式學習,因此提升監督式模型的準確率
這樣理解有沒有錯誤呢
謝謝
回答列表
-
2019/08/01 上午 10:20張維元 (WeiYuan)贊同數:2不贊同數:0留言數:0
這樣理解是正確的,降維的目的是將維度的數量做整併,而非監督式(Cluster)學習是一種方式
-
2019/08/02 下午 01:29陳明佑 (Ming You Chen)贊同數:0不贊同數:0留言數:1
同學您好 :
您的理解大致正確, 以下只是以實務經驗, 做些補充解說
降維的特徵生成, 除了視覺化的需求, 主要的實務用途是用在半監督學習上
所謂半監督資訊, 指的是特徵X有高維度特徵/巨量資料的特性, 但是實際只有極少量目標Y值
這落差很可能是因為特徵X每天會自動產生, 而目標值Y極少發生或量測代價高
例如 : 地震站每天有大量的紀錄資訊, 但卻只有很少量有災情(極少發生)
或者購物網站每天有大量交易資訊, 卻只有很少量客戶的完整評論(量測代價高)
這時候如果能用半監督先降維, 就可以利用有限的目標值做出預測模型
否則依照 VC Dimension 的理論(參考林軒田老師的機器學習基石7+8講)
特徵維度很高, 目標值很少, 太多種組合將導致模型完全失效
必須用非監督降維, 才能讓模型有較為正常的預測力